llama-index

Форк
0
24 строки · 1.1 Кб
1
from llama_index.legacy.llm_predictor.base import BaseLLMPredictor, LLMPredictor
2
from llama_index.legacy.llm_predictor.mock import MockLLMPredictor
3
from llama_index.legacy.llm_predictor.structured import StructuredLLMPredictor
4
from llama_index.legacy.llm_predictor.vellum.predictor import VellumPredictor
5

6

7
def load_predictor(data: dict) -> BaseLLMPredictor:
8
    """Load predictor by class name."""
9
    if isinstance(data, BaseLLMPredictor):
10
        return data
11
    predictor_name = data.get("class_name", None)
12
    if predictor_name is None:
13
        raise ValueError("Predictor loading requires a class_name")
14

15
    if predictor_name == LLMPredictor.class_name():
16
        return LLMPredictor.from_dict(data)
17
    elif predictor_name == StructuredLLMPredictor.class_name():
18
        return StructuredLLMPredictor.from_dict(data)
19
    elif predictor_name == MockLLMPredictor.class_name():
20
        return MockLLMPredictor.from_dict(data)
21
    elif predictor_name == VellumPredictor.class_name():
22
        return VellumPredictor.from_dict(data)
23
    else:
24
        raise ValueError(f"Invalid predictor name: {predictor_name}")
25

Использование cookies

Мы используем файлы cookie в соответствии с Политикой конфиденциальности и Политикой использования cookies.

Нажимая кнопку «Принимаю», Вы даете АО «СберТех» согласие на обработку Ваших персональных данных в целях совершенствования нашего веб-сайта и Сервиса GitVerse, а также повышения удобства их использования.

Запретить использование cookies Вы можете самостоятельно в настройках Вашего браузера.