lobe-chat

Форк
0
/
models.json 
1003 строки · 125.3 Кб
1
{
2
  "01-ai/Yi-1.5-34B-Chat-16K": {
3
    "description": "Yi-1.5 34B, с богатым набором обучающих образцов, демонстрирует превосходные результаты в отраслевых приложениях."
4
  },
5
  "01-ai/Yi-1.5-9B-Chat-16K": {
6
    "description": "Yi-1.5 9B поддерживает 16K токенов, обеспечивая эффективные и плавные возможности генерации языка."
7
  },
8
  "360gpt-pro": {
9
    "description": "360GPT Pro, как важный член серии моделей AI от 360, удовлетворяет разнообразные приложения обработки текста с высокой эффективностью, поддерживает понимание длинных текстов и многораундные диалоги."
10
  },
11
  "360gpt-turbo": {
12
    "description": "360GPT Turbo предлагает мощные вычислительные и диалоговые возможности, обладает выдающимся пониманием семантики и эффективностью генерации, что делает его идеальным решением для интеллектуальных помощников для предприятий и разработчиков."
13
  },
14
  "360gpt-turbo-responsibility-8k": {
15
    "description": "360GPT Turbo Responsibility 8K акцентирует внимание на семантической безопасности и ответственности, специально разработан для приложений с высокими требованиями к безопасности контента, обеспечивая точность и надежность пользовательского опыта."
16
  },
17
  "360gpt2-pro": {
18
    "description": "360GPT2 Pro — это продвинутая модель обработки естественного языка, выпущенная компанией 360, обладающая выдающимися способностями к генерации и пониманию текста, особенно в области генерации и творчества, способная обрабатывать сложные языковые преобразования и ролевые задачи."
19
  },
20
  "4.0Ultra": {
21
    "description": "Spark4.0 Ultra — это самая мощная версия в серии больших моделей Xinghuo, которая, обновив сетевые поисковые связи, улучшает понимание и обобщение текстового контента. Это всестороннее решение для повышения производительности в офисе и точного реагирования на запросы, являющееся ведущим интеллектуальным продуктом в отрасли."
22
  },
23
  "Baichuan2-Turbo": {
24
    "description": "Использует технологии улучшенного поиска для полной связи между большой моделью и отраслевыми знаниями, а также знаниями из сети. Поддерживает загрузку различных документов, таких как PDF и Word, а также ввод URL, обеспечивая своевременное и полное получение информации с точными и профессиональными результатами."
25
  },
26
  "Baichuan3-Turbo": {
27
    "description": "Оптимизирован для высокочастотных корпоративных сценариев, значительно улучшает результаты и предлагает высокую стоимость. По сравнению с моделью Baichuan2, создание контента увеличилось на 20%, ответы на вопросы на 17%, а способности ролевого взаимодействия на 40%. Общая эффективность лучше, чем у GPT3.5."
28
  },
29
  "Baichuan3-Turbo-128k": {
30
    "description": "Обладает 128K сверхдлинным контекстным окном, оптимизированным для высокочастотных корпоративных сценариев, значительно улучшает результаты и предлагает высокую стоимость. По сравнению с моделью Baichuan2, создание контента увеличилось на 20%, ответы на вопросы на 17%, а способности ролевого взаимодействия на 40%. Общая эффективность лучше, чем у GPT3.5."
31
  },
32
  "Baichuan4": {
33
    "description": "Модель обладает лучшими возможностями в стране, превосходя зарубежные модели в задачах на знание, длинные тексты и генерацию контента. Также обладает передовыми мультимодальными возможностями и показывает отличные результаты в нескольких авторитетных тестах."
34
  },
35
  "ERNIE-3.5-128K": {
36
    "description": "Флагманская крупномасштабная языковая модель, разработанная Baidu, охватывающая огромные объемы китайских и английских текстов, обладающая мощными универсальными возможностями, способная удовлетворить большинство требований к диалоговым ответам, генерации контента и сценариям использования плагинов; поддерживает автоматическую интеграцию с плагином поиска Baidu, обеспечивая актуальность информации в ответах."
37
  },
38
  "ERNIE-3.5-8K": {
39
    "description": "Флагманская крупномасштабная языковая модель, разработанная Baidu, охватывающая огромные объемы китайских и английских текстов, обладающая мощными универсальными возможностями, способная удовлетворить большинство требований к диалоговым ответам, генерации контента и сценариям использования плагинов; поддерживает автоматическую интеграцию с плагином поиска Baidu, обеспечивая актуальность информации в ответах."
40
  },
41
  "ERNIE-3.5-8K-Preview": {
42
    "description": "Флагманская крупномасштабная языковая модель, разработанная Baidu, охватывающая огромные объемы китайских и английских текстов, обладающая мощными универсальными возможностями, способная удовлетворить большинство требований к диалоговым ответам, генерации контента и сценариям использования плагинов; поддерживает автоматическую интеграцию с плагином поиска Baidu, обеспечивая актуальность информации в ответах."
43
  },
44
  "ERNIE-4.0-8K-Latest": {
45
    "description": "Флагманская сверхкрупномасштабная языковая модель, разработанная Baidu, которая по сравнению с ERNIE 3.5 обеспечивает полное обновление возможностей модели и широко применяется в сложных задачах в различных областях; поддерживает автоматическую интеграцию с плагином поиска Baidu, обеспечивая актуальность информации в ответах."
46
  },
47
  "ERNIE-4.0-8K-Preview": {
48
    "description": "Флагманская сверхкрупномасштабная языковая модель, разработанная Baidu, которая по сравнению с ERNIE 3.5 обеспечивает полное обновление возможностей модели и широко применяется в сложных задачах в различных областях; поддерживает автоматическую интеграцию с плагином поиска Baidu, обеспечивая актуальность информации в ответах."
49
  },
50
  "ERNIE-4.0-Turbo-8K": {
51
    "description": "Флагманская сверхкрупномасштабная языковая модель, разработанная Baidu, демонстрирующая отличные результаты в комплексной эффективности, широко применяемая в сложных задачах в различных областях; поддерживает автоматическую интеграцию с плагином поиска Baidu, обеспечивая актуальность информации в ответах. По сравнению с ERNIE 4.0, она демонстрирует лучшие показатели производительности."
52
  },
53
  "ERNIE-4.0-Turbo-8K-Preview": {
54
    "description": "Флагманская сверхкрупномасштабная языковая модель, разработанная Baidu, демонстрирующая отличные результаты в комплексной эффективности, широко применяемая в сложных задачах в различных областях; поддерживает автоматическую интеграцию с плагином поиска Baidu, обеспечивая актуальность информации в ответах. По сравнению с ERNIE 4.0, она демонстрирует лучшие показатели производительности."
55
  },
56
  "ERNIE-Character-8K": {
57
    "description": "Специализированная языковая модель, разработанная Baidu для вертикальных сценариев, подходящая для применения в играх (NPC), диалогах службы поддержки, ролевых играх и других сценариях, обладающая ярко выраженным и согласованным стилем персонажей, высокой способностью следовать инструкциям и отличной производительностью вывода."
58
  },
59
  "ERNIE-Lite-Pro-128K": {
60
    "description": "Легковесная языковая модель, разработанная Baidu, которая сочетает в себе отличные результаты модели и производительность вывода, превосходя ERNIE Lite, подходит для использования в системах с низкой вычислительной мощностью."
61
  },
62
  "ERNIE-Speed-128K": {
63
    "description": "Новая высокопроизводительная языковая модель, разработанная Baidu в 2024 году, обладающая выдающимися универсальными возможностями, подходит для использования в качестве базовой модели для тонкой настройки, лучше справляясь с задачами в специфических сценариях, при этом обладая отличной производительностью вывода."
64
  },
65
  "ERNIE-Speed-Pro-128K": {
66
    "description": "Новая высокопроизводительная языковая модель, разработанная Baidu в 2024 году, обладающая выдающимися универсальными возможностями, превосходящая ERNIE Speed, подходит для использования в качестве базовой модели для тонкой настройки, лучше справляясь с задачами в специфических сценариях, при этом обладая отличной производительностью вывода."
67
  },
68
  "Gryphe/MythoMax-L2-13b": {
69
    "description": "MythoMax-L2 (13B) — это инновационная модель, подходящая для многообластных приложений и сложных задач."
70
  },
71
  "Max-32k": {
72
    "description": "Spark Max 32K оснащен высокой способностью обработки контекста, улучшенным пониманием контекста и логическим выводом, поддерживает текстовый ввод до 32K токенов, подходит для чтения длинных документов, частных вопросов и ответов и других сценариев"
73
  },
74
  "Nous-Hermes-2-Mixtral-8x7B-DPO": {
75
    "description": "Hermes 2 Mixtral 8x7B DPO — это высокоадаптивная многомодельная комбинация, предназначенная для предоставления выдающегося творческого опыта."
76
  },
77
  "NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": {
78
    "description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) — это высокоточная модель команд, подходящая для сложных вычислений."
79
  },
80
  "NousResearch/Nous-Hermes-2-Yi-34B": {
81
    "description": "Nous Hermes-2 Yi (34B) предлагает оптимизированный языковой вывод и разнообразные возможности применения."
82
  },
83
  "Phi-3-5-mini-instruct": {
84
    "description": "Обновление модели Phi-3-mini."
85
  },
86
  "Phi-3-medium-128k-instruct": {
87
    "description": "Та же модель Phi-3-medium, но с большим размером контекста для RAG или нескольких подсказок."
88
  },
89
  "Phi-3-medium-4k-instruct": {
90
    "description": "Модель с 14B параметрами, демонстрирующая лучшее качество, чем Phi-3-mini, с акцентом на высококачественные, насыщенные рассуждениями данные."
91
  },
92
  "Phi-3-mini-128k-instruct": {
93
    "description": "Та же модель Phi-3-mini, но с большим размером контекста для RAG или нескольких подсказок."
94
  },
95
  "Phi-3-mini-4k-instruct": {
96
    "description": "Самая маленькая модель в семействе Phi-3. Оптимизирована как для качества, так и для низкой задержки."
97
  },
98
  "Phi-3-small-128k-instruct": {
99
    "description": "Та же модель Phi-3-small, но с большим размером контекста для RAG или нескольких подсказок."
100
  },
101
  "Phi-3-small-8k-instruct": {
102
    "description": "Модель с 7B параметрами, демонстрирующая лучшее качество, чем Phi-3-mini, с акцентом на высококачественные, насыщенные рассуждениями данные."
103
  },
104
  "Pro-128k": {
105
    "description": "Spark Pro-128K оснащен возможностями обработки контекста большого объема, способным обрабатывать до 128K контекстной информации, особенно подходит для анализа длинных текстов и обработки долгосрочных логических связей, обеспечивая плавную и последовательную логику и разнообразную поддержку ссылок в сложных текстовых коммуникациях."
106
  },
107
  "Qwen/Qwen1.5-110B-Chat": {
108
    "description": "Как тестовая версия Qwen2, Qwen1.5 использует большие объемы данных для достижения более точных диалоговых функций."
109
  },
110
  "Qwen/Qwen1.5-72B-Chat": {
111
    "description": "Qwen 1.5 Chat (72B) обеспечивает быстрые ответы и естественные диалоговые возможности, подходящие для многоязычной среды."
112
  },
113
  "Qwen/Qwen2-72B-Instruct": {
114
    "description": "Qwen2 — это передовая универсальная языковая модель, поддерживающая множество типов команд."
115
  },
116
  "Qwen/Qwen2.5-14B-Instruct": {
117
    "description": "Qwen2.5 — это новая серия крупных языковых моделей, предназначенная для оптимизации обработки инструктивных задач."
118
  },
119
  "Qwen/Qwen2.5-32B-Instruct": {
120
    "description": "Qwen2.5 — это новая серия крупных языковых моделей, предназначенная для оптимизации обработки инструктивных задач."
121
  },
122
  "Qwen/Qwen2.5-72B-Instruct": {
123
    "description": "Qwen2.5 — это новая серия крупных языковых моделей с более сильными способностями понимания и генерации."
124
  },
125
  "Qwen/Qwen2.5-7B-Instruct": {
126
    "description": "Qwen2.5 — это новая серия крупных языковых моделей, предназначенная для оптимизации обработки инструктивных задач."
127
  },
128
  "Qwen/Qwen2.5-Coder-7B-Instruct": {
129
    "description": "Qwen2.5-Coder сосредоточен на написании кода."
130
  },
131
  "Qwen/Qwen2.5-Math-72B-Instruct": {
132
    "description": "Qwen2.5-Math сосредоточен на решении математических задач, предоставляя профессиональные ответы на сложные вопросы."
133
  },
134
  "THUDM/glm-4-9b-chat": {
135
    "description": "GLM-4 9B — это открытая версия, обеспечивающая оптимизированный диалоговый опыт для приложений."
136
  },
137
  "abab5.5-chat": {
138
    "description": "Ориентирован на производственные сценарии, поддерживает обработку сложных задач и эффективную генерацию текста, подходит для профессиональных приложений."
139
  },
140
  "abab5.5s-chat": {
141
    "description": "Специально разработан для диалогов на китайском языке, обеспечивая высококачественную генерацию диалогов на китайском, подходит для различных приложений."
142
  },
143
  "abab6.5g-chat": {
144
    "description": "Специально разработан для многоязычных диалогов, поддерживает высококачественную генерацию диалогов на английском и других языках."
145
  },
146
  "abab6.5s-chat": {
147
    "description": "Подходит для широкого спектра задач обработки естественного языка, включая генерацию текста, диалоговые системы и т.д."
148
  },
149
  "abab6.5t-chat": {
150
    "description": "Оптимизирован для диалогов на китайском языке, обеспечивая плавную генерацию диалогов, соответствующую китайским языковым привычкам."
151
  },
152
  "accounts/fireworks/models/firefunction-v1": {
153
    "description": "Открытая модель вызова функций от Fireworks, обеспечивающая выдающиеся возможности выполнения команд и открытые настраиваемые функции."
154
  },
155
  "accounts/fireworks/models/firefunction-v2": {
156
    "description": "Firefunction-v2 от компании Fireworks — это высокопроизводительная модель вызова функций, разработанная на основе Llama-3 и оптимизированная для вызова функций, диалогов и выполнения команд."
157
  },
158
  "accounts/fireworks/models/firellava-13b": {
159
    "description": "fireworks-ai/FireLLaVA-13b — это визуальная языковая модель, способная одновременно обрабатывать изображения и текстовые вводы, обученная на высококачественных данных, подходящая для мультимодальных задач."
160
  },
161
  "accounts/fireworks/models/gemma2-9b-it": {
162
    "description": "Gemma 2 9B для команд, основанная на предыдущих технологиях Google, подходит для ответов на вопросы, резюмирования и вывода текста."
163
  },
164
  "accounts/fireworks/models/llama-v3-70b-instruct": {
165
    "description": "Модель Llama 3 70B для команд, специально оптимизированная для многоязычных диалогов и понимания естественного языка, превосходит большинство конкурентных моделей."
166
  },
167
  "accounts/fireworks/models/llama-v3-70b-instruct-hf": {
168
    "description": "Модель Llama 3 70B для команд (HF версия), результаты которой совпадают с официальной реализацией, подходит для высококачественных задач выполнения команд."
169
  },
170
  "accounts/fireworks/models/llama-v3-8b-instruct": {
171
    "description": "Модель Llama 3 8B для команд, оптимизированная для диалогов и многоязычных задач, демонстрирует выдающиеся и эффективные результаты."
172
  },
173
  "accounts/fireworks/models/llama-v3-8b-instruct-hf": {
174
    "description": "Модель Llama 3 8B для команд (HF версия), результаты которой совпадают с официальной реализацией, обладает высокой согласованностью и совместимостью между платформами."
175
  },
176
  "accounts/fireworks/models/llama-v3p1-405b-instruct": {
177
    "description": "Модель Llama 3.1 405B для команд, обладающая огромным количеством параметров, подходит для сложных задач и сценариев с высокой нагрузкой."
178
  },
179
  "accounts/fireworks/models/llama-v3p1-70b-instruct": {
180
    "description": "Модель Llama 3.1 70B для команд, обеспечивающая выдающиеся возможности понимания и генерации естественного языка, является идеальным выбором для диалоговых и аналитических задач."
181
  },
182
  "accounts/fireworks/models/llama-v3p1-8b-instruct": {
183
    "description": "Модель Llama 3.1 8B для команд, оптимизированная для многоязычных диалогов, способная превосходить большинство открытых и закрытых моделей по общим отраслевым стандартам."
184
  },
185
  "accounts/fireworks/models/mixtral-8x22b-instruct": {
186
    "description": "Mixtral MoE 8x22B для команд, с большим количеством параметров и архитектурой с несколькими экспертами, всесторонне поддерживает эффективную обработку сложных задач."
187
  },
188
  "accounts/fireworks/models/mixtral-8x7b-instruct": {
189
    "description": "Mixtral MoE 8x7B для команд, архитектура с несколькими экспертами обеспечивает эффективное выполнение и следование командам."
190
  },
191
  "accounts/fireworks/models/mixtral-8x7b-instruct-hf": {
192
    "description": "Mixtral MoE 8x7B для команд (HF версия), производительность которой совпадает с официальной реализацией, подходит для множества эффективных задач."
193
  },
194
  "accounts/fireworks/models/mythomax-l2-13b": {
195
    "description": "Модель MythoMax L2 13B, использующая новые технологии объединения, хорошо подходит для повествования и ролевых игр."
196
  },
197
  "accounts/fireworks/models/phi-3-vision-128k-instruct": {
198
    "description": "Phi 3 Vision для команд, легковесная мультимодальная модель, способная обрабатывать сложную визуальную и текстовую информацию, обладая высокой способностью к выводу."
199
  },
200
  "accounts/fireworks/models/starcoder-16b": {
201
    "description": "Модель StarCoder 15.5B, поддерживающая сложные задачи программирования, с улучшенными многоязычными возможностями, подходит для генерации и понимания сложного кода."
202
  },
203
  "accounts/fireworks/models/starcoder-7b": {
204
    "description": "Модель StarCoder 7B, обученная на более чем 80 языках программирования, обладает выдающимися способностями к заполнению кода и пониманию контекста."
205
  },
206
  "accounts/yi-01-ai/models/yi-large": {
207
    "description": "Модель Yi-Large, обладающая выдающимися возможностями обработки нескольких языков, подходит для различных задач генерации и понимания языка."
208
  },
209
  "ai21-jamba-1.5-large": {
210
    "description": "Многоязычная модель с 398B параметрами (94B активных), предлагающая контекстное окно длиной 256K, вызовы функций, структурированный вывод и основанное на фактах генерирование."
211
  },
212
  "ai21-jamba-1.5-mini": {
213
    "description": "Многоязычная модель с 52B параметрами (12B активных), предлагающая контекстное окно длиной 256K, вызовы функций, структурированный вывод и основанное на фактах генерирование."
214
  },
215
  "ai21-jamba-instruct": {
216
    "description": "Модель LLM на основе Mamba, предназначенная для достижения наилучших показателей производительности, качества и экономической эффективности."
217
  },
218
  "anthropic.claude-3-5-sonnet-20240620-v1:0": {
219
    "description": "Claude 3.5 Sonnet устанавливает новые отраслевые стандарты, превосходя модели конкурентов и Claude 3 Opus, демонстрируя отличные результаты в широком спектре оценок, при этом обладая скоростью и стоимостью наших моделей среднего уровня."
220
  },
221
  "anthropic.claude-3-haiku-20240307-v1:0": {
222
    "description": "Claude 3 Haiku — это самая быстрая и компактная модель от Anthropic, обеспечивающая почти мгновенную скорость ответа. Она может быстро отвечать на простые запросы и запросы. Клиенты смогут создать бесшовный AI-опыт, имитирующий человеческое взаимодействие. Claude 3 Haiku может обрабатывать изображения и возвращать текстовый вывод, имея контекстное окно в 200K."
223
  },
224
  "anthropic.claude-3-opus-20240229-v1:0": {
225
    "description": "Claude 3 Opus — это самый мощный AI-модель от Anthropic, обладающая передовыми характеристиками в области высоко сложных задач. Она может обрабатывать открытые подсказки и невидимые сценарии, демонстрируя отличную плавность и человеческое понимание. Claude 3 Opus демонстрирует передовые возможности генеративного AI. Claude 3 Opus может обрабатывать изображения и возвращать текстовый вывод, имея контекстное окно в 200K."
226
  },
227
  "anthropic.claude-3-sonnet-20240229-v1:0": {
228
    "description": "Claude 3 Sonnet от Anthropic достигает идеального баланса между интеллектом и скоростью — особенно подходит для корпоративных рабочих нагрузок. Он предлагает максимальную полезность по цене ниже конкурентов и разработан как надежный, высокопрочный основной механизм для масштабируемых AI-развертываний. Claude 3 Sonnet может обрабатывать изображения и возвращать текстовый вывод, имея контекстное окно в 200K."
229
  },
230
  "anthropic.claude-instant-v1": {
231
    "description": "Быстрая, экономичная и все еще очень мощная модель, способная обрабатывать широкий спектр задач, включая повседневные диалоги, текстовый анализ, резюме и вопросы к документам."
232
  },
233
  "anthropic.claude-v2": {
234
    "description": "Модель Anthropic демонстрирует высокие способности в широком спектре задач, от сложных диалогов и генерации креативного контента до детального следования инструкциям."
235
  },
236
  "anthropic.claude-v2:1": {
237
    "description": "Обновленная версия Claude 2, обладающая двойным контекстным окном и улучшениями в надежности, уровне галлюцинаций и точности на основе доказательств в длинных документах и контексте RAG."
238
  },
239
  "anthropic/claude-3-haiku": {
240
    "description": "Claude 3 Haiku — это самая быстрая и компактная модель от Anthropic, предназначенная для почти мгновенных ответов. Она обладает быстрой и точной направленной производительностью."
241
  },
242
  "anthropic/claude-3-opus": {
243
    "description": "Claude 3 Opus — это самая мощная модель от Anthropic для обработки высококомплексных задач. Она демонстрирует выдающиеся результаты по производительности, интеллекту, плавности и пониманию."
244
  },
245
  "anthropic/claude-3.5-sonnet": {
246
    "description": "Claude 3.5 Sonnet предлагает возможности, превосходящие Opus, и скорость, превышающую Sonnet, при этом сохраняя ту же цену. Sonnet особенно хорошо справляется с программированием, наукой о данных, визуальной обработкой и агентскими задачами."
247
  },
248
  "aya": {
249
    "description": "Aya 23 — это многоязычная модель, выпущенная Cohere, поддерживающая 23 языка, обеспечивая удобство для многоязычных приложений."
250
  },
251
  "aya:35b": {
252
    "description": "Aya 23 — это многоязычная модель, выпущенная Cohere, поддерживающая 23 языка, обеспечивая удобство для многоязычных приложений."
253
  },
254
  "charglm-3": {
255
    "description": "CharGLM-3 разработан для ролевых игр и эмоционального сопровождения, поддерживает сверхдлинную многократную память и персонализированные диалоги, имеет широкое применение."
256
  },
257
  "chatgpt-4o-latest": {
258
    "description": "ChatGPT-4o — это динамическая модель, которая обновляется в реальном времени, чтобы оставаться актуальной. Она сочетает в себе мощное понимание языка и генерацию, подходя для масштабных приложений, включая обслуживание клиентов, образование и техническую поддержку."
259
  },
260
  "claude-2.0": {
261
    "description": "Claude 2 предлагает ключевые улучшения для бизнеса, включая ведущие в отрасли 200K токенов контекста, значительное снижение частоты галлюцинаций модели, системные подсказки и новую тестовую функцию: вызов инструментов."
262
  },
263
  "claude-2.1": {
264
    "description": "Claude 2 предлагает ключевые улучшения для бизнеса, включая ведущие в отрасли 200K токенов контекста, значительное снижение частоты галлюцинаций модели, системные подсказки и новую тестовую функцию: вызов инструментов."
265
  },
266
  "claude-3-5-sonnet-20240620": {
267
    "description": "Claude 3.5 Sonnet предлагает возможности, превосходящие Opus, и скорость, быстрее Sonnet, при этом сохраняя ту же цену. Sonnet особенно хорош в программировании, науке о данных, визуальной обработке и задачах агентов."
268
  },
269
  "claude-3-haiku-20240307": {
270
    "description": "Claude 3 Haiku — это самая быстрая и компактная модель от Anthropic, предназначенная для достижения почти мгновенных ответов. Она обладает быстрой и точной направленной производительностью."
271
  },
272
  "claude-3-opus-20240229": {
273
    "description": "Claude 3 Opus — это самая мощная модель от Anthropic для обработки высококомплексных задач. Она демонстрирует выдающиеся результаты по производительности, интеллекту, плавности и пониманию."
274
  },
275
  "claude-3-sonnet-20240229": {
276
    "description": "Claude 3 Sonnet обеспечивает идеальный баланс между интеллектом и скоростью для корпоративных рабочих нагрузок. Он предлагает максимальную полезность по более низкой цене, надежен и подходит для масштабного развертывания."
277
  },
278
  "claude-instant-1.2": {
279
    "description": "Модель Anthropic для текстовой генерации с низкой задержкой и высокой пропускной способностью, поддерживающая генерацию сотен страниц текста."
280
  },
281
  "codegeex-4": {
282
    "description": "CodeGeeX-4 — это мощный AI помощник по программированию, поддерживающий интеллектуальные ответы и автозаполнение кода на различных языках программирования, повышая эффективность разработки."
283
  },
284
  "codegemma": {
285
    "description": "CodeGemma — это легковесная языковая модель, специально разработанная для различных задач программирования, поддерживающая быструю итерацию и интеграцию."
286
  },
287
  "codegemma:2b": {
288
    "description": "CodeGemma — это легковесная языковая модель, специально разработанная для различных задач программирования, поддерживающая быструю итерацию и интеграцию."
289
  },
290
  "codellama": {
291
    "description": "Code Llama — это LLM, сосредоточенная на генерации и обсуждении кода, поддерживающая широкий спектр языков программирования, подходит для среды разработчиков."
292
  },
293
  "codellama:13b": {
294
    "description": "Code Llama — это LLM, сосредоточенная на генерации и обсуждении кода, поддерживающая широкий спектр языков программирования, подходит для среды разработчиков."
295
  },
296
  "codellama:34b": {
297
    "description": "Code Llama — это LLM, сосредоточенная на генерации и обсуждении кода, поддерживающая широкий спектр языков программирования, подходит для среды разработчиков."
298
  },
299
  "codellama:70b": {
300
    "description": "Code Llama — это LLM, сосредоточенная на генерации и обсуждении кода, поддерживающая широкий спектр языков программирования, подходит для среды разработчиков."
301
  },
302
  "codeqwen": {
303
    "description": "CodeQwen1.5 — это крупномасштабная языковая модель, обученная на большом объёме кодовых данных, специально разработанная для решения сложных задач программирования."
304
  },
305
  "codestral": {
306
    "description": "Codestral — это первая модель кода от Mistral AI, обеспечивающая отличную поддержку для задач генерации кода."
307
  },
308
  "codestral-latest": {
309
    "description": "Codestral — это передовая генеративная модель, сосредоточенная на генерации кода, оптимизированная для промежуточного заполнения и задач дополнения кода."
310
  },
311
  "cognitivecomputations/dolphin-mixtral-8x22b": {
312
    "description": "Dolphin Mixtral 8x22B — это модель, разработанная для соблюдения инструкций, диалогов и программирования."
313
  },
314
  "cohere-command-r": {
315
    "description": "Command R — это масштабируемая генеративная модель, нацеленная на RAG и использование инструментов для обеспечения AI на уровне производства для предприятий."
316
  },
317
  "cohere-command-r-plus": {
318
    "description": "Command R+ — это модель, оптимизированная для RAG, предназначенная для решения задач корпоративного уровня."
319
  },
320
  "command-r": {
321
    "description": "Command R — это LLM, оптимизированная для диалогов и задач с длинным контекстом, особенно подходит для динамического взаимодействия и управления знаниями."
322
  },
323
  "command-r-plus": {
324
    "description": "Command R+ — это высокопроизводительная большая языковая модель, специально разработанная для реальных бизнес-сценариев и сложных приложений."
325
  },
326
  "databricks/dbrx-instruct": {
327
    "description": "DBRX Instruct предлагает высокую надежность в обработке команд, поддерживая приложения в различных отраслях."
328
  },
329
  "deepseek-ai/DeepSeek-V2.5": {
330
    "description": "DeepSeek V2.5 объединяет отличительные черты предыдущих версий, улучшая общие и кодировочные способности."
331
  },
332
  "deepseek-ai/deepseek-llm-67b-chat": {
333
    "description": "DeepSeek 67B — это передовая модель, обученная для высококомплексных диалогов."
334
  },
335
  "deepseek-chat": {
336
    "description": "Новая открытая модель, объединяющая общие и кодовые возможности, не только сохраняет общие диалоговые способности оригинальной модели Chat и мощные возможности обработки кода модели Coder, но и лучше согласуется с человеческими предпочтениями. Кроме того, DeepSeek-V2.5 значительно улучшила производительность в таких задачах, как написание текстов и следование инструкциям."
337
  },
338
  "deepseek-coder-v2": {
339
    "description": "DeepSeek Coder V2 — это открытая смешанная экспертная модель кода, показывающая отличные результаты в задачах кода, сопоставимая с GPT4-Turbo."
340
  },
341
  "deepseek-coder-v2:236b": {
342
    "description": "DeepSeek Coder V2 — это открытая смешанная экспертная модель кода, показывающая отличные результаты в задачах кода, сопоставимая с GPT4-Turbo."
343
  },
344
  "deepseek-v2": {
345
    "description": "DeepSeek V2 — это эффективная языковая модель Mixture-of-Experts, подходящая для экономически эффективных потребностей обработки."
346
  },
347
  "deepseek-v2:236b": {
348
    "description": "DeepSeek V2 236B — это модель кода DeepSeek, обеспечивающая мощные возможности генерации кода."
349
  },
350
  "deepseek/deepseek-chat": {
351
    "description": "Новая открытая модель, объединяющая общие и кодовые возможности, не только сохраняет общие диалоговые способности оригинальной модели Chat и мощные возможности обработки кода модели Coder, но и лучше соответствует человеческим предпочтениям. Кроме того, DeepSeek-V2.5 значительно улучшила свои результаты в задачах написания, следования инструкциям и других областях."
352
  },
353
  "emohaa": {
354
    "description": "Emohaa — это психологическая модель, обладающая профессиональными консультационными способностями, помогающая пользователям понимать эмоциональные проблемы."
355
  },
356
  "gemini-1.0-pro-001": {
357
    "description": "Gemini 1.0 Pro 001 (Тюнинг) предлагает стабильную и настраиваемую производительность, что делает её идеальным выбором для решения сложных задач."
358
  },
359
  "gemini-1.0-pro-002": {
360
    "description": "Gemini 1.0 Pro 002 (Тюнинг) предлагает выдающуюся поддержку многомодальности, сосредотачиваясь на эффективном решении сложных задач."
361
  },
362
  "gemini-1.0-pro-latest": {
363
    "description": "Gemini 1.0 Pro — это высокопроизводительная модель ИИ от Google, разработанная для масштабирования широкого спектра задач."
364
  },
365
  "gemini-1.5-flash-001": {
366
    "description": "Gemini 1.5 Flash 001 — это эффективная многомодальная модель, поддерживающая масштабирование для широкого спектра приложений."
367
  },
368
  "gemini-1.5-flash-002": {
369
    "description": "Gemini 1.5 Flash 002 — это эффективная мультимодальная модель, поддерживающая расширенные применения."
370
  },
371
  "gemini-1.5-flash-8b-exp-0924": {
372
    "description": "Gemini 1.5 Flash 8B 0924 — это последняя экспериментальная модель, которая демонстрирует значительное улучшение производительности как в текстовых, так и в мультимодальных задачах."
373
  },
374
  "gemini-1.5-flash-exp-0827": {
375
    "description": "Gemini 1.5 Flash 0827 предлагает оптимизированные многомодальные возможности обработки, подходящие для различных сложных задач."
376
  },
377
  "gemini-1.5-flash-latest": {
378
    "description": "Gemini 1.5 Flash — это последняя многомодальная модель ИИ от Google, обладающая высокой скоростью обработки и поддерживающая текстовые, графические и видео входы, что делает её эффективной для масштабирования различных задач."
379
  },
380
  "gemini-1.5-pro-001": {
381
    "description": "Gemini 1.5 Pro 001 — это масштабируемое решение для многомодального ИИ, поддерживающее широкий спектр сложных задач."
382
  },
383
  "gemini-1.5-pro-002": {
384
    "description": "Gemini 1.5 Pro 002 — это последняя модель, готовая к производству, которая обеспечивает более высокое качество вывода, особенно в математических задачах, длинных контекстах и визуальных задачах."
385
  },
386
  "gemini-1.5-pro-exp-0801": {
387
    "description": "Gemini 1.5 Pro 0801 предлагает выдающиеся возможности многомодальной обработки, обеспечивая большую гибкость для разработки приложений."
388
  },
389
  "gemini-1.5-pro-exp-0827": {
390
    "description": "Gemini 1.5 Pro 0827 сочетает в себе новейшие оптимизационные технологии, обеспечивая более эффективные возможности обработки многомодальных данных."
391
  },
392
  "gemini-1.5-pro-latest": {
393
    "description": "Gemini 1.5 Pro поддерживает до 2 миллионов токенов и является идеальным выбором для средних многомодальных моделей, обеспечивая многостороннюю поддержку для сложных задач."
394
  },
395
  "gemma-7b-it": {
396
    "description": "Gemma 7B подходит для обработки задач среднего и малого масштаба, обеспечивая экономическую эффективность."
397
  },
398
  "gemma2": {
399
    "description": "Gemma 2 — это высокоэффективная модель, выпущенная Google, охватывающая широкий спектр приложений от малых до сложных задач обработки данных."
400
  },
401
  "gemma2-9b-it": {
402
    "description": "Gemma 2 9B — это модель, оптимизированная для конкретных задач и интеграции инструментов."
403
  },
404
  "gemma2:27b": {
405
    "description": "Gemma 2 — это высокоэффективная модель, выпущенная Google, охватывающая широкий спектр приложений от малых до сложных задач обработки данных."
406
  },
407
  "gemma2:2b": {
408
    "description": "Gemma 2 — это высокоэффективная модель, выпущенная Google, охватывающая широкий спектр приложений от малых до сложных задач обработки данных."
409
  },
410
  "general": {
411
    "description": "Spark Lite — это легковесная большая языковая модель с крайне низкой задержкой и высокой эффективностью обработки, полностью бесплатная и открытая, поддерживающая функцию онлайн-поиска в реальном времени. Ее быстрая реакция делает ее выдающимся выбором для применения в низкопроизводительных устройствах и тонкой настройке моделей, обеспечивая пользователям отличное соотношение цены и качества, особенно в задачах на знание, генерацию контента и поисковых сценариях."
412
  },
413
  "generalv3": {
414
    "description": "Spark Pro — это высокопроизводительная большая языковая модель, оптимизированная для профессиональных областей, таких как математика, программирование, медицина и образование, поддерживающая сетевой поиск и встроенные плагины для погоды, даты и т.д. Оптимизированная модель демонстрирует выдающиеся результаты и высокую эффективность в сложных задачах на знание, понимании языка и высокоуровневом создании текстов, что делает ее идеальным выбором для профессиональных приложений."
415
  },
416
  "generalv3.5": {
417
    "description": "Spark3.5 Max — это самая полная версия, поддерживающая сетевой поиск и множество встроенных плагинов. Его полностью оптимизированные основные возможности, а также функции настройки системных ролей и вызовов функций делают его выдающимся и эффективным в различных сложных приложениях."
418
  },
419
  "glm-4": {
420
    "description": "GLM-4 — это старая флагманская версия, выпущенная в январе 2024 года, которая была заменена более мощной GLM-4-0520."
421
  },
422
  "glm-4-0520": {
423
    "description": "GLM-4-0520 — это последняя версия модели, специально разработанная для высоко сложных и разнообразных задач, демонстрирующая выдающиеся результаты."
424
  },
425
  "glm-4-air": {
426
    "description": "GLM-4-Air — это экономически эффективная версия, производительность которой близка к GLM-4, обеспечивая высокую скорость и доступную цену."
427
  },
428
  "glm-4-airx": {
429
    "description": "GLM-4-AirX предлагает эффективную версию GLM-4-Air, скорость вывода может достигать 2.6 раз быстрее."
430
  },
431
  "glm-4-alltools": {
432
    "description": "GLM-4-AllTools — это многофункциональная модель агента, оптимизированная для поддержки сложного планирования инструкций и вызовов инструментов, таких как веб-серфинг, интерпретация кода и генерация текста, подходящая для выполнения множества задач."
433
  },
434
  "glm-4-flash": {
435
    "description": "GLM-4-Flash — это идеальный выбор для обработки простых задач, с самой высокой скоростью и самой низкой ценой."
436
  },
437
  "glm-4-flashx": {
438
    "description": "GLM-4-FlashX — это улучшенная версия Flash с ультрабыстрой скоростью вывода."
439
  },
440
  "glm-4-long": {
441
    "description": "GLM-4-Long поддерживает сверхдлинные текстовые вводы, подходит для задач, требующих памяти, и обработки больших документов."
442
  },
443
  "glm-4-plus": {
444
    "description": "GLM-4-Plus, как флагман с высоким интеллектом, обладает мощными способностями обработки длинных текстов и сложных задач, с полным улучшением производительности."
445
  },
446
  "glm-4v": {
447
    "description": "GLM-4V предлагает мощные способности понимания и вывода изображений, поддерживает множество визуальных задач."
448
  },
449
  "glm-4v-plus": {
450
    "description": "GLM-4V-Plus обладает способностью понимать видео-контент и множество изображений, подходит для мультимодальных задач."
451
  },
452
  "google/gemini-flash-1.5": {
453
    "description": "Gemini 1.5 Flash предлагает оптимизированные возможности многомодальной обработки, подходящие для различных сложных задач."
454
  },
455
  "google/gemini-pro-1.5": {
456
    "description": "Gemini 1.5 Pro сочетает в себе новейшие технологии оптимизации, обеспечивая более эффективную обработку многомодальных данных."
457
  },
458
  "google/gemma-2-27b-it": {
459
    "description": "Gemma 2 продолжает концепцию легковесного и эффективного дизайна."
460
  },
461
  "google/gemma-2-2b-it": {
462
    "description": "Легковесная модель настройки инструкций от Google."
463
  },
464
  "google/gemma-2-9b-it": {
465
    "description": "Gemma 2 — это легковесная серия текстовых моделей с открытым исходным кодом от Google."
466
  },
467
  "google/gemma-2-9b-it:free": {
468
    "description": "Gemma 2 — это облегченная открытая текстовая модель от Google."
469
  },
470
  "google/gemma-2b-it": {
471
    "description": "Gemma Instruct (2B) предлагает базовые возможности обработки команд, подходящие для легковесных приложений."
472
  },
473
  "gpt-3.5-turbo": {
474
    "description": "GPT 3.5 Turbo подходит для различных задач генерации и понимания текста, в настоящее время ссылается на gpt-3.5-turbo-0125."
475
  },
476
  "gpt-3.5-turbo-0125": {
477
    "description": "GPT 3.5 Turbo подходит для различных задач генерации и понимания текста, в настоящее время ссылается на gpt-3.5-turbo-0125."
478
  },
479
  "gpt-3.5-turbo-1106": {
480
    "description": "GPT 3.5 Turbo подходит для различных задач генерации и понимания текста, в настоящее время ссылается на gpt-3.5-turbo-0125."
481
  },
482
  "gpt-3.5-turbo-instruct": {
483
    "description": "GPT 3.5 Turbo подходит для различных задач генерации и понимания текста, в настоящее время ссылается на gpt-3.5-turbo-0125."
484
  },
485
  "gpt-4": {
486
    "description": "GPT-4 предлагает более широкий контекстный диапазон, способный обрабатывать более длинные текстовые вводы, подходя для сценариев, требующих обширной интеграции информации и анализа данных."
487
  },
488
  "gpt-4-0125-preview": {
489
    "description": "Последняя модель GPT-4 Turbo обладает визуальными функциями. Теперь визуальные запросы могут использовать JSON-формат и вызовы функций. GPT-4 Turbo — это улучшенная версия, обеспечивающая экономически эффективную поддержку для мультимодальных задач. Она находит баланс между точностью и эффективностью, подходя для приложений, требующих взаимодействия в реальном времени."
490
  },
491
  "gpt-4-0613": {
492
    "description": "GPT-4 предлагает более широкий контекстный диапазон, способный обрабатывать более длинные текстовые вводы, подходя для сценариев, требующих обширной интеграции информации и анализа данных."
493
  },
494
  "gpt-4-1106-preview": {
495
    "description": "Последняя модель GPT-4 Turbo обладает визуальными функциями. Теперь визуальные запросы могут использовать JSON-формат и вызовы функций. GPT-4 Turbo — это улучшенная версия, обеспечивающая экономически эффективную поддержку для мультимодальных задач. Она находит баланс между точностью и эффективностью, подходя для приложений, требующих взаимодействия в реальном времени."
496
  },
497
  "gpt-4-1106-vision-preview": {
498
    "description": "Последняя модель GPT-4 Turbo обладает визуальными функциями. Теперь визуальные запросы могут использовать JSON-формат и вызовы функций. GPT-4 Turbo — это улучшенная версия, обеспечивающая экономически эффективную поддержку для мультимодальных задач. Она находит баланс между точностью и эффективностью, подходя для приложений, требующих взаимодействия в реальном времени."
499
  },
500
  "gpt-4-32k": {
501
    "description": "GPT-4 предлагает более широкий контекстный диапазон, способный обрабатывать более длинные текстовые вводы, подходя для сценариев, требующих обширной интеграции информации и анализа данных."
502
  },
503
  "gpt-4-32k-0613": {
504
    "description": "GPT-4 предлагает более широкий контекстный диапазон, способный обрабатывать более длинные текстовые вводы, подходя для сценариев, требующих обширной интеграции информации и анализа данных."
505
  },
506
  "gpt-4-turbo": {
507
    "description": "Последняя модель GPT-4 Turbo обладает визуальными функциями. Теперь визуальные запросы могут использовать JSON-формат и вызовы функций. GPT-4 Turbo — это улучшенная версия, обеспечивающая экономически эффективную поддержку для мультимодальных задач. Она находит баланс между точностью и эффективностью, подходя для приложений, требующих взаимодействия в реальном времени."
508
  },
509
  "gpt-4-turbo-2024-04-09": {
510
    "description": "Последняя модель GPT-4 Turbo обладает визуальными функциями. Теперь визуальные запросы могут использовать JSON-формат и вызовы функций. GPT-4 Turbo — это улучшенная версия, обеспечивающая экономически эффективную поддержку для мультимодальных задач. Она находит баланс между точностью и эффективностью, подходя для приложений, требующих взаимодействия в реальном времени."
511
  },
512
  "gpt-4-turbo-preview": {
513
    "description": "Последняя модель GPT-4 Turbo обладает визуальными функциями. Теперь визуальные запросы могут использовать JSON-формат и вызовы функций. GPT-4 Turbo — это улучшенная версия, обеспечивающая экономически эффективную поддержку для мультимодальных задач. Она находит баланс между точностью и эффективностью, подходя для приложений, требующих взаимодействия в реальном времени."
514
  },
515
  "gpt-4-vision-preview": {
516
    "description": "Последняя модель GPT-4 Turbo обладает визуальными функциями. Теперь визуальные запросы могут использовать JSON-формат и вызовы функций. GPT-4 Turbo — это улучшенная версия, обеспечивающая экономически эффективную поддержку для мультимодальных задач. Она находит баланс между точностью и эффективностью, подходя для приложений, требующих взаимодействия в реальном времени."
517
  },
518
  "gpt-4o": {
519
    "description": "ChatGPT-4o — это динамическая модель, которая обновляется в реальном времени, чтобы оставаться актуальной. Она сочетает в себе мощное понимание языка и генерацию, подходя для масштабных приложений, включая обслуживание клиентов, образование и техническую поддержку."
520
  },
521
  "gpt-4o-2024-05-13": {
522
    "description": "ChatGPT-4o — это динамическая модель, которая обновляется в реальном времени, чтобы оставаться актуальной. Она сочетает в себе мощное понимание языка и генерацию, подходя для масштабных приложений, включая обслуживание клиентов, образование и техническую поддержку."
523
  },
524
  "gpt-4o-2024-08-06": {
525
    "description": "ChatGPT-4o — это динамическая модель, которая обновляется в реальном времени, чтобы оставаться актуальной. Она сочетает в себе мощное понимание языка и генерацию, подходя для масштабных приложений, включая обслуживание клиентов, образование и техническую поддержку."
526
  },
527
  "gpt-4o-mini": {
528
    "description": "GPT-4o mini — это последняя модель, выпущенная OpenAI после GPT-4 Omni, поддерживающая ввод изображений и текстов с выводом текста. Как их самый продвинутый компактный модель, она значительно дешевле других недавних передовых моделей и более чем на 60% дешевле GPT-3.5 Turbo. Она сохраняет передовой уровень интеллекта при значительном соотношении цена-качество. GPT-4o mini набрала 82% на тесте MMLU и в настоящее время занимает более высокое место в предпочтениях чата по сравнению с GPT-4."
529
  },
530
  "gryphe/mythomax-l2-13b": {
531
    "description": "MythoMax l2 13B — это языковая модель, объединяющая креативность и интеллект, основанная на нескольких ведущих моделях."
532
  },
533
  "hunyuan-code": {
534
    "description": "Последняя модель генерации кода Hunyuan, обученная на базе 200B высококачественных данных кода, прошедшая полгода обучения на высококачественных данных SFT, с увеличенной длиной контекстного окна до 8K, занимает ведущие позиции по автоматическим оценочным показателям генерации кода на пяти языках; по десяти критериям оценки кода на пяти языках, производительность находится в первой группе."
535
  },
536
  "hunyuan-functioncall": {
537
    "description": "Последняя модель Hunyuan с архитектурой MOE FunctionCall, обученная на высококачественных данных FunctionCall, с контекстным окном до 32K, занимает лидирующие позиции по множеству оценочных показателей."
538
  },
539
  "hunyuan-lite": {
540
    "description": "Обновленная версия с MOE-структурой, контекстное окно составляет 256k, она опережает множество открытых моделей в оценках по NLP, коду, математике и другим областям."
541
  },
542
  "hunyuan-pro": {
543
    "description": "Модель длинного текста с параметрами уровня триллиона MOE-32K. Она достигает абсолютного лидерства на различных бенчмарках, обладает сложными инструкциями и выводом, имеет сложные математические способности и поддерживает вызовы функций, с акцентом на оптимизацию в области многоязычного перевода, финансов, права и медицины."
544
  },
545
  "hunyuan-role": {
546
    "description": "Последняя версия модели ролевого взаимодействия Hunyuan, выпущенная с официальной тонкой настройкой, основанная на модели Hunyuan и дополненная данными сценариев ролевого взаимодействия, демонстрирует лучшие базовые результаты в ролевых сценариях."
547
  },
548
  "hunyuan-standard": {
549
    "description": "Использует более оптимальную стратегию маршрутизации, одновременно смягчая проблемы с балансировкой нагрузки и сходимостью экспертов. В области длинных текстов показатель «найти иголку в стоге сена» достигает 99,9%. MOE-32K предлагает более высокую стоимость-эффективность, обеспечивая баланс между качеством и ценой, а также возможность обработки длинных текстовых вводов."
550
  },
551
  "hunyuan-standard-256K": {
552
    "description": "Использует более оптимальную стратегию маршрутизации, одновременно смягчая проблемы с балансировкой нагрузки и сходимостью экспертов. В области длинных текстов показатель «найти иголку в стоге сена» достигает 99,9%. MOE-256K делает дальнейший прорыв в длине и качестве, значительно расширяя допустимую длину ввода."
553
  },
554
  "hunyuan-turbo": {
555
    "description": "Предварительная версия нового поколения языковой модели Hunyuan, использующая совершенно новую структуру смешанной экспертной модели (MoE), которая обеспечивает более быструю эффективность вывода и более сильные результаты по сравнению с hunyuan-pro."
556
  },
557
  "hunyuan-vision": {
558
    "description": "Последняя многомодальная модель Hunyuan, поддерживающая ввод изображений и текста для генерации текстового контента."
559
  },
560
  "internlm/internlm2_5-20b-chat": {
561
    "description": "Инновационная открытая модель InternLM2.5, благодаря большому количеству параметров, повышает интеллектуальность диалогов."
562
  },
563
  "internlm/internlm2_5-7b-chat": {
564
    "description": "InternLM2.5 предлагает интеллектуальные решения для диалогов в различных сценариях."
565
  },
566
  "jamba-1.5-large": {},
567
  "jamba-1.5-mini": {},
568
  "llama-3.1-70b-instruct": {
569
    "description": "Модель Llama 3.1 70B для команд, обладающая 70B параметрами, обеспечивает выдающуюся производительность в задачах генерации текста и выполнения команд."
570
  },
571
  "llama-3.1-70b-versatile": {
572
    "description": "Llama 3.1 70B предлагает более мощные возможности ИИ вывода, подходит для сложных приложений, поддерживает огромное количество вычислительных процессов и гарантирует эффективность и точность."
573
  },
574
  "llama-3.1-8b-instant": {
575
    "description": "Llama 3.1 8B — это высокоэффективная модель, обеспечивающая быструю генерацию текста, идеально подходящая для приложений, требующих масштабной эффективности и экономичности."
576
  },
577
  "llama-3.1-8b-instruct": {
578
    "description": "Модель Llama 3.1 8B для команд, обладающая 8B параметрами, обеспечивает эффективное выполнение задач с указаниями и предлагает высококачественные возможности генерации текста."
579
  },
580
  "llama-3.1-sonar-huge-128k-online": {
581
    "description": "Модель Llama 3.1 Sonar Huge Online, обладающая 405B параметрами, поддерживает контекст длиной около 127,000 токенов, предназначена для сложных онлайн-чат-приложений."
582
  },
583
  "llama-3.1-sonar-large-128k-chat": {
584
    "description": "Модель Llama 3.1 Sonar Large Chat, обладающая 70B параметрами, поддерживает контекст длиной около 127,000 токенов, подходит для сложных оффлайн-чатов."
585
  },
586
  "llama-3.1-sonar-large-128k-online": {
587
    "description": "Модель Llama 3.1 Sonar Large Online, обладающая 70B параметрами, поддерживает контекст длиной около 127,000 токенов, подходит для задач с высокой нагрузкой и разнообразными чатами."
588
  },
589
  "llama-3.1-sonar-small-128k-chat": {
590
    "description": "Модель Llama 3.1 Sonar Small Chat, обладающая 8B параметрами, специально разработана для оффлайн-чатов и поддерживает контекст длиной около 127,000 токенов."
591
  },
592
  "llama-3.1-sonar-small-128k-online": {
593
    "description": "Модель Llama 3.1 Sonar Small Online, обладающая 8B параметрами, поддерживает контекст длиной около 127,000 токенов, специально разработана для онлайн-чатов и эффективно обрабатывает различные текстовые взаимодействия."
594
  },
595
  "llama-3.2-11b-vision-preview": {
596
    "description": "Llama 3.2 предназначена для обработки задач, сочетающих визуальные и текстовые данные. Она демонстрирует отличные результаты в задачах описания изображений и визуального вопросно-ответного взаимодействия, преодолевая разрыв между генерацией языка и визуальным выводом."
597
  },
598
  "llama-3.2-90b-vision-preview": {
599
    "description": "Llama 3.2 предназначена для обработки задач, сочетающих визуальные и текстовые данные. Она демонстрирует отличные результаты в задачах описания изображений и визуального вопросно-ответного взаимодействия, преодолевая разрыв между генерацией языка и визуальным выводом."
600
  },
601
  "llama3-70b-8192": {
602
    "description": "Meta Llama 3 70B предлагает непревзойдённые возможности обработки сложности, специально разработанные для высоких требований проектов."
603
  },
604
  "llama3-8b-8192": {
605
    "description": "Meta Llama 3 8B обеспечивает высококачественную производительность вывода, подходящую для многообразных приложений."
606
  },
607
  "llama3-groq-70b-8192-tool-use-preview": {
608
    "description": "Llama 3 Groq 70B Tool Use предлагает мощные возможности вызова инструментов, поддерживая эффективную обработку сложных задач."
609
  },
610
  "llama3-groq-8b-8192-tool-use-preview": {
611
    "description": "Llama 3 Groq 8B Tool Use — это модель, оптимизированная для эффективного использования инструментов, поддерживающая быструю параллельную обработку."
612
  },
613
  "llama3.1": {
614
    "description": "Llama 3.1 — это передовая модель, выпущенная Meta, поддерживающая до 405B параметров, применимая в сложных диалогах, многоязычном переводе и анализе данных."
615
  },
616
  "llama3.1:405b": {
617
    "description": "Llama 3.1 — это передовая модель, выпущенная Meta, поддерживающая до 405B параметров, применимая в сложных диалогах, многоязычном переводе и анализе данных."
618
  },
619
  "llama3.1:70b": {
620
    "description": "Llama 3.1 — это передовая модель, выпущенная Meta, поддерживающая до 405B параметров, применимая в сложных диалогах, многоязычном переводе и анализе данных."
621
  },
622
  "llava": {
623
    "description": "LLaVA — это многомодальная модель, объединяющая визуальный кодировщик и Vicuna, предназначенная для мощного понимания визуальной и языковой информации."
624
  },
625
  "llava-v1.5-7b-4096-preview": {
626
    "description": "LLaVA 1.5 7B предлагает возможности визуальной обработки, генерируя сложные выходные данные на основе визуальной информации."
627
  },
628
  "llava:13b": {
629
    "description": "LLaVA — это многомодальная модель, объединяющая визуальный кодировщик и Vicuna, предназначенная для мощного понимания визуальной и языковой информации."
630
  },
631
  "llava:34b": {
632
    "description": "LLaVA — это многомодальная модель, объединяющая визуальный кодировщик и Vicuna, предназначенная для мощного понимания визуальной и языковой информации."
633
  },
634
  "mathstral": {
635
    "description": "MathΣtral специально разработан для научных исследований и математического вывода, обеспечивая эффективные вычислительные возможности и интерпретацию результатов."
636
  },
637
  "meta-llama-3-70b-instruct": {
638
    "description": "Мощная модель с 70 миллиардами параметров, превосходящая в области рассуждений, кодирования и широких языковых приложений."
639
  },
640
  "meta-llama-3-8b-instruct": {
641
    "description": "Универсальная модель с 8 миллиардами параметров, оптимизированная для диалоговых и текстовых задач."
642
  },
643
  "meta-llama-3.1-405b-instruct": {
644
    "description": "Модели Llama 3.1, настроенные на инструкции, оптимизированы для многоязычных диалоговых случаев и превосходят многие доступные модели открытого и закрытого чата по общим отраслевым стандартам."
645
  },
646
  "meta-llama-3.1-70b-instruct": {
647
    "description": "Модели Llama 3.1, настроенные на инструкции, оптимизированы для многоязычных диалоговых случаев и превосходят многие доступные модели открытого и закрытого чата по общим отраслевым стандартам."
648
  },
649
  "meta-llama-3.1-8b-instruct": {
650
    "description": "Модели Llama 3.1, настроенные на инструкции, оптимизированы для многоязычных диалоговых случаев и превосходят многие доступные модели открытого и закрытого чата по общим отраслевым стандартам."
651
  },
652
  "meta-llama/Llama-2-13b-chat-hf": {
653
    "description": "LLaMA-2 Chat (13B) предлагает отличные возможности обработки языка и выдающийся опыт взаимодействия."
654
  },
655
  "meta-llama/Llama-2-7b-chat-hf": {
656
    "description": "Одна из лучших моделей для диалогов."
657
  },
658
  "meta-llama/Llama-3-70b-chat-hf": {
659
    "description": "LLaMA-3 Chat (70B) — мощная модель для чата, поддерживающая сложные диалоговые запросы."
660
  },
661
  "meta-llama/Llama-3-8b-chat-hf": {
662
    "description": "LLaMA-3 Chat (8B) предлагает многоязычную поддержку и охватывает широкий спектр областей знаний."
663
  },
664
  "meta-llama/Meta-Llama-3-70B-Instruct-Lite": {
665
    "description": "Llama 3 70B Instruct Lite подходит для сред, требующих высокой производительности и низкой задержки."
666
  },
667
  "meta-llama/Meta-Llama-3-70B-Instruct-Turbo": {
668
    "description": "Llama 3 70B Instruct Turbo обеспечивает выдающиеся возможности понимания и генерации языка, подходящие для самых требовательных вычислительных задач."
669
  },
670
  "meta-llama/Meta-Llama-3-8B-Instruct-Lite": {
671
    "description": "Llama 3 8B Instruct Lite подходит для ресурсов ограниченных сред, обеспечивая отличное соотношение производительности."
672
  },
673
  "meta-llama/Meta-Llama-3-8B-Instruct-Turbo": {
674
    "description": "Llama 3 8B Instruct Turbo — это высокоэффективная большая языковая модель, поддерживающая широкий спектр приложений."
675
  },
676
  "meta-llama/Meta-Llama-3.1-405B-Instruct": {
677
    "description": "LLaMA 3.1 405B — это мощная модель, основанная на предобучении и настройке инструкций."
678
  },
679
  "meta-llama/Meta-Llama-3.1-405B-Instruct-Turbo": {
680
    "description": "Модель Llama 3.1 Turbo 405B предлагает огромную поддержку контекста для обработки больших данных и демонстрирует выдающиеся результаты в масштабных приложениях искусственного интеллекта."
681
  },
682
  "meta-llama/Meta-Llama-3.1-70B-Instruct": {
683
    "description": "LLaMA 3.1 70B предлагает эффективную поддержку диалогов на нескольких языках."
684
  },
685
  "meta-llama/Meta-Llama-3.1-70B-Instruct-Turbo": {
686
    "description": "Модель Llama 3.1 70B была тщательно настроена для высоконагруженных приложений, квантованная до FP8 для повышения вычислительной мощности и точности, обеспечивая выдающиеся результаты в сложных сценариях."
687
  },
688
  "meta-llama/Meta-Llama-3.1-8B-Instruct": {
689
    "description": "LLaMA 3.1 предлагает поддержку нескольких языков и является одной из ведущих генеративных моделей в отрасли."
690
  },
691
  "meta-llama/Meta-Llama-3.1-8B-Instruct-Turbo": {
692
    "description": "Модель Llama 3.1 8B использует FP8-квантование и поддерживает до 131,072 контекстных токенов, являясь выдающейся среди открытых моделей, подходящей для сложных задач и превосходящей многие отраслевые стандарты."
693
  },
694
  "meta-llama/llama-3-70b-instruct": {
695
    "description": "Llama 3 70B Instruct оптимизирован для высококачественных диалоговых сцен и показывает отличные результаты в различных оценках."
696
  },
697
  "meta-llama/llama-3-8b-instruct": {
698
    "description": "Llama 3 8B Instruct оптимизирован для высококачественных диалоговых сцен, его производительность превосходит многие закрытые модели."
699
  },
700
  "meta-llama/llama-3.1-405b-instruct": {
701
    "description": "Llama 3.1 405B Instruct — это последняя версия от Meta, оптимизированная для генерации высококачественных диалогов, превосходящая многие ведущие закрытые модели."
702
  },
703
  "meta-llama/llama-3.1-70b-instruct": {
704
    "description": "Llama 3.1 70B Instruct разработан для высококачественных диалогов и показывает выдающиеся результаты в оценках, особенно в высокоинтерактивных сценах."
705
  },
706
  "meta-llama/llama-3.1-8b-instruct": {
707
    "description": "Llama 3.1 8B Instruct — это последняя версия от Meta, оптимизированная для высококачественных диалоговых сцен, превосходящая многие ведущие закрытые модели."
708
  },
709
  "meta-llama/llama-3.1-8b-instruct:free": {
710
    "description": "LLaMA 3.1 предлагает поддержку нескольких языков и является одной из ведущих генеративных моделей в отрасли."
711
  },
712
  "meta-llama/llama-3.2-11b-vision-instruct": {
713
    "description": "LLaMA 3.2 предназначена для обработки задач, сочетающих визуальные и текстовые данные. Она демонстрирует отличные результаты в задачах описания изображений и визуального вопросно-ответного взаимодействия, преодолевая разрыв между генерацией языка и визуальным выводом."
714
  },
715
  "meta-llama/llama-3.2-90b-vision-instruct": {
716
    "description": "LLaMA 3.2 предназначена для обработки задач, сочетающих визуальные и текстовые данные. Она демонстрирует отличные результаты в задачах описания изображений и визуального вопросно-ответного взаимодействия, преодолевая разрыв между генерацией языка и визуальным выводом."
717
  },
718
  "meta.llama3-1-405b-instruct-v1:0": {
719
    "description": "Meta Llama 3.1 405B Instruct — это самая большая и мощная модель в линейке Llama 3.1 Instruct, представляющая собой высокоразвёрнутую модель для диалогового вывода и генерации синтетических данных, также может использоваться в качестве основы для специализированного предобучения или дообучения в определённых областях. Многоязычные большие языковые модели (LLMs), предлагаемые Llama 3.1, представляют собой набор предобученных генеративных моделей с настройкой на инструкции, включая размеры 8B, 70B и 405B (вход/выход текста). Модели текста с настройкой на инструкции Llama 3.1 (8B, 70B, 405B) оптимизированы для многоязычных диалоговых случаев и превосходят многие доступные открытые модели чата в общепринятых отраслевых бенчмарках. Llama 3.1 предназначена для коммерческого и исследовательского использования на нескольких языках. Модели текста с настройкой на инструкции подходят для диалогов, похожих на помощников, в то время как предобученные модели могут адаптироваться к различным задачам генерации естественного языка. Модели Llama 3.1 также поддерживают использование их вывода для улучшения других моделей, включая генерацию синтетических данных и уточнение. Llama 3.1 является саморегрессионной языковой моделью, использующей оптимизированную архитектуру трансформеров. Настроенные версии используют контролируемое дообучение (SFT) и обучение с подкреплением с человеческой обратной связью (RLHF), чтобы соответствовать предпочтениям людей в отношении полезности и безопасности."
720
  },
721
  "meta.llama3-1-70b-instruct-v1:0": {
722
    "description": "Обновленная версия Meta Llama 3.1 70B Instruct, включающая расширенную длину контекста до 128K, многоязычность и улучшенные способности вывода. Многоязычные большие языковые модели (LLMs), предлагаемые Llama 3.1, представляют собой набор предобученных, настроенных на инструкции генеративных моделей, включая размеры 8B, 70B и 405B (ввод/вывод текста). Настроенные на инструкции текстовые модели (8B, 70B, 405B) оптимизированы для многоязычных диалоговых случаев и превосходят многие доступные открытые модели чата в общих отраслевых бенчмарках. Llama 3.1 предназначена для коммерческого и исследовательского использования на нескольких языках. Настроенные на инструкции текстовые модели подходят для диалогов, похожих на помощника, в то время как предобученные модели могут адаптироваться к различным задачам генерации естественного языка. Модели Llama 3.1 также поддерживают использование вывода своих моделей для улучшения других моделей, включая генерацию синтетических данных и уточнение. Llama 3.1 — это саморегрессионная языковая модель, использующая оптимизированную архитектуру трансформеров. Настроенные версии используют контролируемую донастройку (SFT) и обучение с подкреплением с человеческой обратной связью (RLHF), чтобы соответствовать человеческим предпочтениям по полезности и безопасности."
723
  },
724
  "meta.llama3-1-8b-instruct-v1:0": {
725
    "description": "Обновленная версия Meta Llama 3.1 8B Instruct, включающая расширенную длину контекста до 128K, многоязычность и улучшенные способности вывода. Многоязычные большие языковые модели (LLMs), предлагаемые Llama 3.1, представляют собой набор предобученных, настроенных на инструкции генеративных моделей, включая размеры 8B, 70B и 405B (ввод/вывод текста). Настроенные на инструкции текстовые модели (8B, 70B, 405B) оптимизированы для многоязычных диалоговых случаев и превосходят многие доступные открытые модели чата в общих отраслевых бенчмарках. Llama 3.1 предназначена для коммерческого и исследовательского использования на нескольких языках. Настроенные на инструкции текстовые модели подходят для диалогов, похожих на помощника, в то время как предобученные модели могут адаптироваться к различным задачам генерации естественного языка. Модели Llama 3.1 также поддерживают использование вывода своих моделей для улучшения других моделей, включая генерацию синтетических данных и уточнение. Llama 3.1 — это саморегрессионная языковая модель, использующая оптимизированную архитектуру трансформеров. Настроенные версии используют контролируемую донастройку (SFT) и обучение с подкреплением с человеческой обратной связью (RLHF), чтобы соответствовать человеческим предпочтениям по полезности и безопасности."
726
  },
727
  "meta.llama3-70b-instruct-v1:0": {
728
    "description": "Meta Llama 3 — это открытая большая языковая модель (LLM), ориентированная на разработчиков, исследователей и предприятия, предназначенная для помощи в создании, экспериментировании и ответственном масштабировании их идей по генеративному ИИ. В качестве части базовой системы для инноваций глобального сообщества она идеально подходит для создания контента, диалогового ИИ, понимания языка, НИОКР и корпоративных приложений."
729
  },
730
  "meta.llama3-8b-instruct-v1:0": {
731
    "description": "Meta Llama 3 — это открытая большая языковая модель (LLM), ориентированная на разработчиков, исследователей и предприятия, предназначенная для помощи в создании, экспериментировании и ответственном масштабировании их идей по генеративному ИИ. В качестве части базовой системы для инноваций глобального сообщества она идеально подходит для устройств с ограниченными вычислительными мощностями и ресурсами, а также для более быстрого времени обучения."
732
  },
733
  "microsoft/wizardlm 2-7b": {
734
    "description": "WizardLM 2 7B — это новая быстрая и легкая модель от Microsoft AI, производительность которой близка к 10-кратной производительности существующих открытых моделей."
735
  },
736
  "microsoft/wizardlm-2-8x22b": {
737
    "description": "WizardLM-2 8x22B — это передовая модель Wizard от Microsoft, демонстрирующая исключительно конкурентоспособные результаты."
738
  },
739
  "minicpm-v": {
740
    "description": "MiniCPM-V — это новое поколение мультимодальной большой модели от OpenBMB, обладающее выдающимися возможностями OCR и мультимодального понимания, поддерживающее широкий спектр приложений."
741
  },
742
  "mistral": {
743
    "description": "Mistral — это 7B модель, выпущенная Mistral AI, подходящая для разнообразных языковых задач."
744
  },
745
  "mistral-large": {
746
    "description": "Mixtral Large — это флагманская модель от Mistral, объединяющая возможности генерации кода, математики и вывода, поддерживающая контекстное окно 128k."
747
  },
748
  "mistral-large-2407": {
749
    "description": "Mistral Large (2407) — это продвинутая модель языка (LLM) с современными способностями рассуждения, знаний и кодирования."
750
  },
751
  "mistral-large-latest": {
752
    "description": "Mistral Large — это флагманская большая модель, хорошо подходящая для многоязычных задач, сложного вывода и генерации кода, идеальный выбор для высококлассных приложений."
753
  },
754
  "mistral-nemo": {
755
    "description": "Mistral Nemo, разработанный в сотрудничестве между Mistral AI и NVIDIA, является высокоэффективной 12B моделью."
756
  },
757
  "mistral-small": {
758
    "description": "Mistral Small может использоваться для любых языковых задач, требующих высокой эффективности и низкой задержки."
759
  },
760
  "mistral-small-latest": {
761
    "description": "Mistral Small — это экономически эффективный, быстрый и надежный вариант для таких случаев, как перевод, резюме и анализ настроений."
762
  },
763
  "mistralai/Mistral-7B-Instruct-v0.1": {
764
    "description": "Mistral (7B) Instruct известен своей высокой производительностью и подходит для множества языковых задач."
765
  },
766
  "mistralai/Mistral-7B-Instruct-v0.2": {
767
    "description": "Mistral 7B — это модель с настройкой по запросу, предлагающая оптимизированные ответы на задачи."
768
  },
769
  "mistralai/Mistral-7B-Instruct-v0.3": {
770
    "description": "Mistral (7B) Instruct v0.3 обеспечивает эффективные вычислительные возможности и понимание естественного языка, подходящие для широкого спектра приложений."
771
  },
772
  "mistralai/Mixtral-8x22B-Instruct-v0.1": {
773
    "description": "Mixtral-8x22B Instruct (141B) — это супер большая языковая модель, поддерживающая крайне высокие требования к обработке."
774
  },
775
  "mistralai/Mixtral-8x7B-Instruct-v0.1": {
776
    "description": "Mixtral 8x7B — это предобученная модель разреженных смешанных экспертов, предназначенная для универсальных текстовых задач."
777
  },
778
  "mistralai/mistral-7b-instruct": {
779
    "description": "Mistral 7B Instruct — это высокопроизводительная модель стандартов отрасли, оптимизированная для скорости и поддержки длинного контекста."
780
  },
781
  "mistralai/mistral-nemo": {
782
    "description": "Mistral Nemo — это модель с 7.3B параметрами, поддерживающая несколько языков и высокопроизводительное программирование."
783
  },
784
  "mixtral": {
785
    "description": "Mixtral — это экспертная модель от Mistral AI, обладающая открытыми весами и поддерживающая генерацию кода и понимание языка."
786
  },
787
  "mixtral-8x7b-32768": {
788
    "description": "Mixtral 8x7B предлагает высокую отказоустойчивость параллельной обработки, подходящей для сложных задач."
789
  },
790
  "mixtral:8x22b": {
791
    "description": "Mixtral — это экспертная модель от Mistral AI, обладающая открытыми весами и поддерживающая генерацию кода и понимание языка."
792
  },
793
  "moonshot-v1-128k": {
794
    "description": "Moonshot V1 128K — это модель с возможностями обработки сверхдлинного контекста, подходящая для генерации очень длинных текстов, удовлетворяющая требованиям сложных задач генерации, способная обрабатывать до 128 000 токенов, идеально подходящая для научных исследований, академических и крупных документальных приложений."
795
  },
796
  "moonshot-v1-32k": {
797
    "description": "Moonshot V1 32K предлагает возможности обработки контекста средней длины, способная обрабатывать 32 768 токенов, особенно подходит для генерации различных длинных документов и сложных диалогов, применяется в создании контента, генерации отчетов и диалоговых систем."
798
  },
799
  "moonshot-v1-8k": {
800
    "description": "Moonshot V1 8K специально разработан для генерации коротких текстов, обладая высокой производительностью обработки, способный обрабатывать 8 192 токена, идеально подходит для кратких диалогов, стенографирования и быстрой генерации контента."
801
  },
802
  "nousresearch/hermes-2-pro-llama-3-8b": {
803
    "description": "Hermes 2 Pro Llama 3 8B — это обновленная версия Nous Hermes 2, содержащая последние внутренние разработанные наборы данных."
804
  },
805
  "o1-mini": {
806
    "description": "o1-mini — это быстрое и экономичное модель вывода, разработанная для программирования, математики и научных приложений. Модель имеет контекст 128K и срок знания до октября 2023 года."
807
  },
808
  "o1-preview": {
809
    "description": "o1 — это новая модель вывода от OpenAI, подходящая для сложных задач, требующих обширных общих знаний. Модель имеет контекст 128K и срок знания до октября 2023 года."
810
  },
811
  "open-codestral-mamba": {
812
    "description": "Codestral Mamba — это языковая модель Mamba 2, сосредоточенная на генерации кода, обеспечивающая мощную поддержку для сложных задач по коду и выводу."
813
  },
814
  "open-mistral-7b": {
815
    "description": "Mistral 7B — это компактная, но высокопроизводительная модель, хорошо подходящая для пакетной обработки и простых задач, таких как классификация и генерация текста, обладающая хорошими возможностями вывода."
816
  },
817
  "open-mistral-nemo": {
818
    "description": "Mistral Nemo — это 12B модель, разработанная в сотрудничестве с Nvidia, обеспечивающая выдающиеся возможности вывода и кодирования, легко интегрируемая и заменяемая."
819
  },
820
  "open-mixtral-8x22b": {
821
    "description": "Mixtral 8x22B — это более крупная экспертная модель, сосредоточенная на сложных задачах, предлагающая выдающиеся возможности вывода и более высокую пропускную способность."
822
  },
823
  "open-mixtral-8x7b": {
824
    "description": "Mixtral 8x7B — это разреженная экспертная модель, использующая несколько параметров для повышения скорости вывода, подходит для обработки многоязычных и кодовых задач."
825
  },
826
  "openai/gpt-4o": {
827
    "description": "ChatGPT-4o — это динамическая модель, которая обновляется в реальном времени, чтобы оставаться актуальной. Она сочетает в себе мощные способности понимания и генерации языка, подходит для масштабных приложений, включая обслуживание клиентов, образование и техническую поддержку."
828
  },
829
  "openai/gpt-4o-mini": {
830
    "description": "GPT-4o mini — это последняя модель от OpenAI, выпущенная после GPT-4 Omni, поддерживающая ввод изображений и текста с выводом текста. Как их самый продвинутый компактный модель, она значительно дешевле других недавних передовых моделей и более чем на 60% дешевле GPT-3.5 Turbo. Она сохраняет передовой уровень интеллекта при значительном соотношении цена-качество. GPT-4o mini набрала 82% в тесте MMLU и в настоящее время занимает более высокое место по предпочтениям в чате, чем GPT-4."
831
  },
832
  "openai/o1-mini": {
833
    "description": "o1-mini — это быстрое и экономичное модель вывода, разработанная для программирования, математики и научных приложений. Модель имеет контекст 128K и срок знания до октября 2023 года."
834
  },
835
  "openai/o1-preview": {
836
    "description": "o1 — это новая модель вывода от OpenAI, подходящая для сложных задач, требующих обширных общих знаний. Модель имеет контекст 128K и срок знания до октября 2023 года."
837
  },
838
  "openchat/openchat-7b": {
839
    "description": "OpenChat 7B — это открытая языковая модель, оптимизированная с помощью стратегии \"C-RLFT (условное обучение с подкреплением)\"."
840
  },
841
  "openrouter/auto": {
842
    "description": "В зависимости от длины контекста, темы и сложности ваш запрос будет отправлен в Llama 3 70B Instruct, Claude 3.5 Sonnet (саморегулирующийся) или GPT-4o."
843
  },
844
  "phi3": {
845
    "description": "Phi-3 — это легковесная открытая модель, выпущенная Microsoft, подходящая для эффективной интеграции и масштабного вывода знаний."
846
  },
847
  "phi3:14b": {
848
    "description": "Phi-3 — это легковесная открытая модель, выпущенная Microsoft, подходящая для эффективной интеграции и масштабного вывода знаний."
849
  },
850
  "pixtral-12b-2409": {
851
    "description": "Модель Pixtral демонстрирует мощные способности в задачах графиков и понимания изображений, вопросов и ответов по документам, многомодального вывода и соблюдения инструкций, способная обрабатывать изображения в естественном разрешении и соотношении сторон, а также обрабатывать произвольное количество изображений в контекстном окне длиной до 128K токенов."
852
  },
853
  "qwen-coder-turbo-latest": {
854
    "description": "Модель кода Tongyi Qwen."
855
  },
856
  "qwen-long": {
857
    "description": "Qwen — это сверхмасштабная языковая модель, поддерживающая длинный контекст текста и диалоговые функции на основе длинных документов и нескольких документов."
858
  },
859
  "qwen-math-plus-latest": {
860
    "description": "Математическая модель Tongyi Qwen, специально разработанная для решения математических задач."
861
  },
862
  "qwen-math-turbo-latest": {
863
    "description": "Математическая модель Tongyi Qwen, специально разработанная для решения математических задач."
864
  },
865
  "qwen-max-latest": {
866
    "description": "Модель языка Tongyi Qwen с уровнем масштабирования в триллионы, поддерживающая ввод на различных языках, включая китайский и английский, является API моделью, лежащей в основе продукта Tongyi Qwen 2.5."
867
  },
868
  "qwen-plus-latest": {
869
    "description": "Улучшенная версия модели языка Tongyi Qwen, поддерживающая ввод на различных языках, включая китайский и английский."
870
  },
871
  "qwen-turbo-latest": {
872
    "description": "Модель языка Tongyi Qwen, поддерживающая ввод на различных языках, включая китайский и английский."
873
  },
874
  "qwen-vl-chat-v1": {
875
    "description": "Qwen VL поддерживает гибкие способы взаимодействия, включая многократные изображения, многократные вопросы и ответы, а также творческие способности."
876
  },
877
  "qwen-vl-max-latest": {
878
    "description": "Супер масштабная визуально-языковая модель Tongyi Qianwen. По сравнению с улучшенной версией, еще больше повышает способности визуального вывода и соблюдения инструкций, обеспечивая более высокий уровень визуального восприятия и когнитивных способностей."
879
  },
880
  "qwen-vl-plus-latest": {
881
    "description": "Улучшенная версия масштабной визуально-языковой модели Tongyi Qianwen. Значительно повышает способность распознавания деталей и текста, поддерживает разрешение более миллиона пикселей и изображения с произвольным соотношением сторон."
882
  },
883
  "qwen-vl-v1": {
884
    "description": "Инициализированная языковой моделью Qwen-7B, добавлена модель изображения, предобученная модель с разрешением входного изображения 448."
885
  },
886
  "qwen/qwen-2-7b-instruct:free": {
887
    "description": "Qwen2 — это новая серия крупных языковых моделей с более сильными возможностями понимания и генерации."
888
  },
889
  "qwen2": {
890
    "description": "Qwen2 — это новое поколение крупномасштабной языковой модели от Alibaba, обеспечивающее отличные результаты для разнообразных приложений."
891
  },
892
  "qwen2.5-14b-instruct": {
893
    "description": "Модель Tongyi Qwen 2.5 с открытым исходным кодом объемом 14B."
894
  },
895
  "qwen2.5-32b-instruct": {
896
    "description": "Модель Tongyi Qwen 2.5 с открытым исходным кодом объемом 32B."
897
  },
898
  "qwen2.5-72b-instruct": {
899
    "description": "Модель Tongyi Qwen 2.5 с открытым исходным кодом объемом 72B."
900
  },
901
  "qwen2.5-7b-instruct": {
902
    "description": "Модель Tongyi Qwen 2.5 с открытым исходным кодом объемом 7B."
903
  },
904
  "qwen2.5-coder-1.5b-instruct": {
905
    "description": "Открытая версия модели кода Tongyi Qwen."
906
  },
907
  "qwen2.5-coder-7b-instruct": {
908
    "description": "Открытая версия модели кода Tongyi Qwen."
909
  },
910
  "qwen2.5-math-1.5b-instruct": {
911
    "description": "Модель Qwen-Math с мощными способностями решения математических задач."
912
  },
913
  "qwen2.5-math-72b-instruct": {
914
    "description": "Модель Qwen-Math с мощными способностями решения математических задач."
915
  },
916
  "qwen2.5-math-7b-instruct": {
917
    "description": "Модель Qwen-Math с мощными способностями решения математических задач."
918
  },
919
  "qwen2:0.5b": {
920
    "description": "Qwen2 — это новое поколение крупномасштабной языковой модели от Alibaba, обеспечивающее отличные результаты для разнообразных приложений."
921
  },
922
  "qwen2:1.5b": {
923
    "description": "Qwen2 — это новое поколение крупномасштабной языковой модели от Alibaba, обеспечивающее отличные результаты для разнообразных приложений."
924
  },
925
  "qwen2:72b": {
926
    "description": "Qwen2 — это новое поколение крупномасштабной языковой модели от Alibaba, обеспечивающее отличные результаты для разнообразных приложений."
927
  },
928
  "solar-1-mini-chat": {
929
    "description": "Solar Mini — это компактная LLM, производительность которой превосходит GPT-3.5, обладая мощными многоязычными возможностями, поддерживает английский и корейский языки, предлагая эффективное и компактное решение."
930
  },
931
  "solar-1-mini-chat-ja": {
932
    "description": "Solar Mini (Ja) расширяет возможности Solar Mini, сосредоточиваясь на японском языке, при этом сохраняя высокую эффективность и выдающуюся производительность в использовании английского и корейского языков."
933
  },
934
  "solar-pro": {
935
    "description": "Solar Pro — это высокоинтеллектуальная LLM, выпущенная Upstage, сосредоточенная на способности следовать инструкциям на одном GPU, с оценкой IFEval выше 80. В настоящее время поддерживает английский язык, официальная версия запланирована на ноябрь 2024 года, с расширением языковой поддержки и длины контекста."
936
  },
937
  "step-1-128k": {
938
    "description": "Балансирует производительность и стоимость, подходит для общих сценариев."
939
  },
940
  "step-1-256k": {
941
    "description": "Обладает сверхдлинной способностью обработки контекста, особенно подходит для анализа длинных документов."
942
  },
943
  "step-1-32k": {
944
    "description": "Поддерживает диалоги средней длины, подходит для различных приложений."
945
  },
946
  "step-1-8k": {
947
    "description": "Маленькая модель, подходящая для легковесных задач."
948
  },
949
  "step-1-flash": {
950
    "description": "Высокоскоростная модель, подходящая для реального времени диалогов."
951
  },
952
  "step-1v-32k": {
953
    "description": "Поддерживает визуальный ввод, улучшая мультимодальный опыт взаимодействия."
954
  },
955
  "step-1v-8k": {
956
    "description": "Небольшая визуальная модель, подходящая для базовых задач с текстом и изображениями."
957
  },
958
  "step-2-16k": {
959
    "description": "Поддерживает масштабные взаимодействия контекста, подходит для сложных диалоговых сценариев."
960
  },
961
  "taichu_llm": {
962
    "description": "Модель языка TaiChu обладает выдающимися способностями к пониманию языка, а также к созданию текстов, ответам на вопросы, программированию, математическим вычислениям, логическому выводу, анализу эмоций и резюмированию текстов. Инновационно сочетает предобучение на больших данных с богатством многопоточных знаний, постоянно совершенствуя алгоритмические технологии и поглощая новые знания о словах, структуре, грамматике и семантике из огромных объемов текстовых данных, обеспечивая пользователям более удобную информацию и услуги, а также более интеллектуальный опыт."
963
  },
964
  "togethercomputer/StripedHyena-Nous-7B": {
965
    "description": "StripedHyena Nous (7B) обеспечивает повышенные вычислительные возможности благодаря эффективным стратегиям и архитектуре модели."
966
  },
967
  "upstage/SOLAR-10.7B-Instruct-v1.0": {
968
    "description": "Upstage SOLAR Instruct v1 (11B) подходит для детализированных командных задач, обеспечивая отличные возможности обработки языка."
969
  },
970
  "wizardlm2": {
971
    "description": "WizardLM 2 — это языковая модель, предоставляемая Microsoft AI, которая особенно хорошо проявляет себя в сложных диалогах, многоязычных задачах, выводе и интеллектуальных помощниках."
972
  },
973
  "wizardlm2:8x22b": {
974
    "description": "WizardLM 2 — это языковая модель, предоставляемая Microsoft AI, которая особенно хорошо проявляет себя в сложных диалогах, многоязычных задачах, выводе и интеллектуальных помощниках."
975
  },
976
  "yi-large": {
977
    "description": "Совершенно новая модель с триллионом параметров, обеспечивающая выдающиеся возможности для вопросов и ответов, а также генерации текста."
978
  },
979
  "yi-large-fc": {
980
    "description": "На основе модели yi-large поддерживает и усиливает возможности вызова инструментов, подходит для различных бизнес-сценариев, требующих создания агентов или рабочих процессов."
981
  },
982
  "yi-large-preview": {
983
    "description": "Начальная версия, рекомендуется использовать yi-large (новую версию)."
984
  },
985
  "yi-large-rag": {
986
    "description": "Высококлассный сервис на основе модели yi-large, объединяющий технологии поиска и генерации для предоставления точных ответов и услуг по поиску информации в реальном времени."
987
  },
988
  "yi-large-turbo": {
989
    "description": "Высокая стоимость и выдающаяся производительность. Балансировка высокой точности на основе производительности, скорости вывода и затрат."
990
  },
991
  "yi-medium": {
992
    "description": "Модель среднего размера с улучшенной настройкой, сбалансированная по возможностям и стоимости. Глубокая оптимизация способности следовать указаниям."
993
  },
994
  "yi-medium-200k": {
995
    "description": "200K сверхдлинное окно контекста, обеспечивающее глубокое понимание и генерацию длинных текстов."
996
  },
997
  "yi-spark": {
998
    "description": "Маленькая и мощная, легковесная и быстрая модель. Обеспечивает улучшенные математические вычисления и возможности написания кода."
999
  },
1000
  "yi-vision": {
1001
    "description": "Модель для сложных визуальных задач, обеспечивающая высокую производительность в понимании и анализе изображений."
1002
  }
1003
}
1004

Использование cookies

Мы используем файлы cookie в соответствии с Политикой конфиденциальности и Политикой использования cookies.

Нажимая кнопку «Принимаю», Вы даете АО «СберТех» согласие на обработку Ваших персональных данных в целях совершенствования нашего веб-сайта и Сервиса GitVerse, а также повышения удобства их использования.

Запретить использование cookies Вы можете самостоятельно в настройках Вашего браузера.