lobe-chat

Форк
0
/
models.json 
1003 строки · 85.6 Кб
1
{
2
  "01-ai/Yi-1.5-34B-Chat-16K": {
3
    "description": "Yi-1.5 34B, avec un ensemble d'échantillons d'entraînement riche, offre des performances supérieures dans les applications sectorielles."
4
  },
5
  "01-ai/Yi-1.5-9B-Chat-16K": {
6
    "description": "Yi-1.5 9B supporte 16K Tokens, offrant une capacité de génération de langage efficace et fluide."
7
  },
8
  "360gpt-pro": {
9
    "description": "360GPT Pro, en tant que membre important de la série de modèles AI de 360, répond à des applications variées de traitement de texte avec une efficacité élevée, supportant la compréhension de longs textes et les dialogues multi-tours."
10
  },
11
  "360gpt-turbo": {
12
    "description": "360GPT Turbo offre de puissantes capacités de calcul et de dialogue, avec une excellente compréhension sémantique et une efficacité de génération, ce qui en fait une solution idéale pour les entreprises et les développeurs."
13
  },
14
  "360gpt-turbo-responsibility-8k": {
15
    "description": "360GPT Turbo Responsibility 8K met l'accent sur la sécurité sémantique et l'orientation vers la responsabilité, conçu pour des scénarios d'application exigeant une sécurité de contenu élevée, garantissant l'exactitude et la robustesse de l'expérience utilisateur."
16
  },
17
  "360gpt2-pro": {
18
    "description": "360GPT2 Pro est un modèle avancé de traitement du langage naturel lancé par la société 360, offrant d'excellentes capacités de génération et de compréhension de texte, en particulier dans le domaine de la création et de la génération."
19
  },
20
  "4.0Ultra": {
21
    "description": "Spark4.0 Ultra est la version la plus puissante de la série de grands modèles Xinghuo, améliorant la compréhension et la capacité de résumé du contenu textuel tout en mettant à jour le lien de recherche en ligne. C'est une solution complète pour améliorer la productivité au bureau et répondre avec précision aux besoins, représentant un produit intelligent de premier plan dans l'industrie."
22
  },
23
  "Baichuan2-Turbo": {
24
    "description": "Utilise une technologie d'amélioration de recherche pour relier complètement le grand modèle aux connaissances sectorielles et aux connaissances du web. Supporte le téléchargement de divers documents tels que PDF, Word, et l'entrée d'URL, permettant une acquisition d'informations rapide et complète, avec des résultats précis et professionnels."
25
  },
26
  "Baichuan3-Turbo": {
27
    "description": "Optimisé pour des scénarios d'entreprise à haute fréquence, avec des améliorations significatives et un excellent rapport qualité-prix. Par rapport au modèle Baichuan2, la création de contenu a augmenté de 20%, les questions-réponses de 17%, et les capacités de jeu de rôle de 40%. Les performances globales surpassent celles de GPT-3.5."
28
  },
29
  "Baichuan3-Turbo-128k": {
30
    "description": "Doté d'une fenêtre de contexte ultra-longue de 128K, optimisé pour des scénarios d'entreprise à haute fréquence, avec des améliorations significatives et un excellent rapport qualité-prix. Par rapport au modèle Baichuan2, la création de contenu a augmenté de 20%, les questions-réponses de 17%, et les capacités de jeu de rôle de 40%. Les performances globales surpassent celles de GPT-3.5."
31
  },
32
  "Baichuan4": {
33
    "description": "Le modèle est le meilleur en Chine, surpassant les modèles étrangers dans des tâches en chinois telles que l'encyclopédie, les longs textes et la création. Il possède également des capacités multimodales de pointe, avec d'excellentes performances dans plusieurs évaluations de référence."
34
  },
35
  "ERNIE-3.5-128K": {
36
    "description": "Modèle de langage à grande échelle de pointe développé par Baidu, couvrant une vaste quantité de corpus en chinois et en anglais, avec de puissantes capacités générales, capable de répondre à la plupart des exigences en matière de dialogue, de questions-réponses, de création de contenu et d'applications de plugins ; prend en charge l'intégration automatique avec le plugin de recherche Baidu, garantissant la pertinence des informations de réponse."
37
  },
38
  "ERNIE-3.5-8K": {
39
    "description": "Modèle de langage à grande échelle de pointe développé par Baidu, couvrant une vaste quantité de corpus en chinois et en anglais, avec de puissantes capacités générales, capable de répondre à la plupart des exigences en matière de dialogue, de questions-réponses, de création de contenu et d'applications de plugins ; prend en charge l'intégration automatique avec le plugin de recherche Baidu, garantissant la pertinence des informations de réponse."
40
  },
41
  "ERNIE-3.5-8K-Preview": {
42
    "description": "Modèle de langage à grande échelle de pointe développé par Baidu, couvrant une vaste quantité de corpus en chinois et en anglais, avec de puissantes capacités générales, capable de répondre à la plupart des exigences en matière de dialogue, de questions-réponses, de création de contenu et d'applications de plugins ; prend en charge l'intégration automatique avec le plugin de recherche Baidu, garantissant la pertinence des informations de réponse."
43
  },
44
  "ERNIE-4.0-8K-Latest": {
45
    "description": "Modèle de langage ultra-large de premier plan développé par Baidu, ayant réalisé une mise à niveau complète des capacités par rapport à ERNIE 3.5, largement applicable à des scénarios de tâches complexes dans divers domaines ; prend en charge l'intégration automatique avec le plugin de recherche Baidu, garantissant l'actualité des informations de réponse."
46
  },
47
  "ERNIE-4.0-8K-Preview": {
48
    "description": "Modèle de langage ultra-large de premier plan développé par Baidu, ayant réalisé une mise à niveau complète des capacités par rapport à ERNIE 3.5, largement applicable à des scénarios de tâches complexes dans divers domaines ; prend en charge l'intégration automatique avec le plugin de recherche Baidu, garantissant l'actualité des informations de réponse."
49
  },
50
  "ERNIE-4.0-Turbo-8K": {
51
    "description": "Modèle de langage ultra-large de premier plan développé par Baidu, offrant d'excellentes performances globales, largement applicable à des scénarios de tâches complexes dans divers domaines ; prend en charge l'intégration automatique avec le plugin de recherche Baidu, garantissant l'actualité des informations de réponse. Par rapport à ERNIE 4.0, il offre de meilleures performances."
52
  },
53
  "ERNIE-4.0-Turbo-8K-Preview": {
54
    "description": "Modèle de langage ultra-large de premier plan développé par Baidu, offrant d'excellentes performances globales, largement applicable à des scénarios de tâches complexes dans divers domaines ; prend en charge l'intégration automatique avec le plugin de recherche Baidu, garantissant l'actualité des informations de réponse. Par rapport à ERNIE 4.0, il offre de meilleures performances."
55
  },
56
  "ERNIE-Character-8K": {
57
    "description": "Modèle de langage pour scénarios verticaux développé par Baidu, adapté aux applications telles que les NPC de jeux, les dialogues de service client, et les jeux de rôle, avec des styles de personnages plus distincts et cohérents, une meilleure capacité à suivre les instructions et des performances d'inférence supérieures."
58
  },
59
  "ERNIE-Lite-Pro-128K": {
60
    "description": "Modèle de langage léger développé par Baidu, alliant d'excellentes performances du modèle et efficacité d'inférence, offrant de meilleures performances que ERNIE Lite, adapté à l'inférence sur des cartes d'accélération AI à faible puissance de calcul."
61
  },
62
  "ERNIE-Speed-128K": {
63
    "description": "Modèle de langage haute performance développé par Baidu, publié en 2024, avec d'excellentes capacités générales, adapté comme modèle de base pour un ajustement fin, permettant de mieux traiter les problèmes de scénarios spécifiques, tout en offrant d'excellentes performances d'inférence."
64
  },
65
  "ERNIE-Speed-Pro-128K": {
66
    "description": "Modèle de langage haute performance développé par Baidu, publié en 2024, avec d'excellentes capacités générales, offrant de meilleures performances que ERNIE Speed, adapté comme modèle de base pour un ajustement fin, permettant de mieux traiter les problèmes de scénarios spécifiques, tout en offrant d'excellentes performances d'inférence."
67
  },
68
  "Gryphe/MythoMax-L2-13b": {
69
    "description": "MythoMax-L2 (13B) est un modèle innovant, adapté à des applications dans plusieurs domaines et à des tâches complexes."
70
  },
71
  "Max-32k": {
72
    "description": "Spark Max 32K est équipé d'une grande capacité de traitement de contexte, offrant une meilleure compréhension du contexte et des capacités de raisonnement logique, prenant en charge des entrées textuelles de 32K tokens, adapté à la lecture de longs documents, aux questions-réponses sur des connaissances privées et à d'autres scénarios."
73
  },
74
  "Nous-Hermes-2-Mixtral-8x7B-DPO": {
75
    "description": "Hermes 2 Mixtral 8x7B DPO est une fusion de modèles hautement flexible, visant à offrir une expérience créative exceptionnelle."
76
  },
77
  "NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": {
78
    "description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) est un modèle d'instructions de haute précision, adapté aux calculs complexes."
79
  },
80
  "NousResearch/Nous-Hermes-2-Yi-34B": {
81
    "description": "Nous Hermes-2 Yi (34B) offre une sortie linguistique optimisée et des possibilités d'application diversifiées."
82
  },
83
  "Phi-3-5-mini-instruct": {
84
    "description": "Rafraîchissement du modèle Phi-3-mini."
85
  },
86
  "Phi-3-medium-128k-instruct": {
87
    "description": "Même modèle Phi-3-medium, mais avec une taille de contexte plus grande pour RAG ou un prompt à quelques exemples."
88
  },
89
  "Phi-3-medium-4k-instruct": {
90
    "description": "Un modèle de 14 milliards de paramètres, prouvant une meilleure qualité que Phi-3-mini, avec un accent sur des données denses en raisonnement de haute qualité."
91
  },
92
  "Phi-3-mini-128k-instruct": {
93
    "description": "Même modèle Phi-3-mini, mais avec une taille de contexte plus grande pour RAG ou un prompt à quelques exemples."
94
  },
95
  "Phi-3-mini-4k-instruct": {
96
    "description": "Le plus petit membre de la famille Phi-3. Optimisé pour la qualité et la faible latence."
97
  },
98
  "Phi-3-small-128k-instruct": {
99
    "description": "Même modèle Phi-3-small, mais avec une taille de contexte plus grande pour RAG ou un prompt à quelques exemples."
100
  },
101
  "Phi-3-small-8k-instruct": {
102
    "description": "Un modèle de 7 milliards de paramètres, prouvant une meilleure qualité que Phi-3-mini, avec un accent sur des données denses en raisonnement de haute qualité."
103
  },
104
  "Pro-128k": {
105
    "description": "Spark Pro-128K est configuré avec une capacité de traitement de contexte exceptionnel, capable de gérer jusqu'à 128K d'informations contextuelles, particulièrement adapté pour l'analyse complète et le traitement des relations logiques à long terme dans des contenus longs, offrant une logique fluide et cohérente ainsi qu'un support varié pour les références dans des communications textuelles complexes."
106
  },
107
  "Qwen/Qwen1.5-110B-Chat": {
108
    "description": "En tant que version bêta de Qwen2, Qwen1.5 utilise des données à grande échelle pour réaliser des fonctionnalités de dialogue plus précises."
109
  },
110
  "Qwen/Qwen1.5-72B-Chat": {
111
    "description": "Qwen 1.5 Chat (72B) offre des réponses rapides et des capacités de dialogue naturel, adapté aux environnements multilingues."
112
  },
113
  "Qwen/Qwen2-72B-Instruct": {
114
    "description": "Qwen2 est un modèle de langage général avancé, prenant en charge divers types d'instructions."
115
  },
116
  "Qwen/Qwen2.5-14B-Instruct": {
117
    "description": "Qwen2.5 est une toute nouvelle série de modèles de langage à grande échelle, conçue pour optimiser le traitement des tâches d'instruction."
118
  },
119
  "Qwen/Qwen2.5-32B-Instruct": {
120
    "description": "Qwen2.5 est une toute nouvelle série de modèles de langage à grande échelle, conçue pour optimiser le traitement des tâches d'instruction."
121
  },
122
  "Qwen/Qwen2.5-72B-Instruct": {
123
    "description": "Qwen2.5 est une toute nouvelle série de modèles de langage à grande échelle, avec une capacité de compréhension et de génération améliorée."
124
  },
125
  "Qwen/Qwen2.5-7B-Instruct": {
126
    "description": "Qwen2.5 est une toute nouvelle série de modèles de langage à grande échelle, conçue pour optimiser le traitement des tâches d'instruction."
127
  },
128
  "Qwen/Qwen2.5-Coder-7B-Instruct": {
129
    "description": "Qwen2.5-Coder se concentre sur la rédaction de code."
130
  },
131
  "Qwen/Qwen2.5-Math-72B-Instruct": {
132
    "description": "Qwen2.5-Math se concentre sur la résolution de problèmes dans le domaine des mathématiques, fournissant des réponses professionnelles pour des questions de haute difficulté."
133
  },
134
  "THUDM/glm-4-9b-chat": {
135
    "description": "GLM-4 9B est une version open source, offrant une expérience de dialogue optimisée pour les applications de conversation."
136
  },
137
  "abab5.5-chat": {
138
    "description": "Orienté vers des scénarios de productivité, prenant en charge le traitement de tâches complexes et la génération de texte efficace, adapté aux applications professionnelles."
139
  },
140
  "abab5.5s-chat": {
141
    "description": "Conçu pour des scénarios de dialogue en chinois, offrant une capacité de génération de dialogues en chinois de haute qualité, adaptée à divers scénarios d'application."
142
  },
143
  "abab6.5g-chat": {
144
    "description": "Conçu pour des dialogues de personnages multilingues, prenant en charge la génération de dialogues de haute qualité en anglais et dans d'autres langues."
145
  },
146
  "abab6.5s-chat": {
147
    "description": "Adapté à une large gamme de tâches de traitement du langage naturel, y compris la génération de texte, les systèmes de dialogue, etc."
148
  },
149
  "abab6.5t-chat": {
150
    "description": "Optimisé pour des scénarios de dialogue en chinois, offrant une capacité de génération de dialogues fluide et conforme aux habitudes d'expression en chinois."
151
  },
152
  "accounts/fireworks/models/firefunction-v1": {
153
    "description": "Le modèle d'appel de fonction open source de Fireworks offre d'excellentes capacités d'exécution d'instructions et des caractéristiques personnalisables."
154
  },
155
  "accounts/fireworks/models/firefunction-v2": {
156
    "description": "Firefunction-v2, récemment lancé par Fireworks, est un modèle d'appel de fonction performant, développé sur la base de Llama-3 et optimisé pour des scénarios tels que les appels de fonction, les dialogues et le suivi d'instructions."
157
  },
158
  "accounts/fireworks/models/firellava-13b": {
159
    "description": "fireworks-ai/FireLLaVA-13b est un modèle de langage visuel capable de recevoir simultanément des entrées d'images et de texte, entraîné sur des données de haute qualité, adapté aux tâches multimodales."
160
  },
161
  "accounts/fireworks/models/gemma2-9b-it": {
162
    "description": "Le modèle d'instructions Gemma 2 9B, basé sur la technologie antérieure de Google, est adapté à diverses tâches de génération de texte telles que la réponse aux questions, le résumé et le raisonnement."
163
  },
164
  "accounts/fireworks/models/llama-v3-70b-instruct": {
165
    "description": "Le modèle d'instructions Llama 3 70B est optimisé pour les dialogues multilingues et la compréhension du langage naturel, surpassant la plupart des modèles concurrents."
166
  },
167
  "accounts/fireworks/models/llama-v3-70b-instruct-hf": {
168
    "description": "Le modèle d'instructions Llama 3 70B (version HF) est conforme aux résultats de l'implémentation officielle, adapté aux tâches de suivi d'instructions de haute qualité."
169
  },
170
  "accounts/fireworks/models/llama-v3-8b-instruct": {
171
    "description": "Le modèle d'instructions Llama 3 8B est optimisé pour les dialogues et les tâches multilingues, offrant des performances exceptionnelles et efficaces."
172
  },
173
  "accounts/fireworks/models/llama-v3-8b-instruct-hf": {
174
    "description": "Le modèle d'instructions Llama 3 8B (version HF) est conforme aux résultats de l'implémentation officielle, offrant une grande cohérence et une compatibilité multiplateforme."
175
  },
176
  "accounts/fireworks/models/llama-v3p1-405b-instruct": {
177
    "description": "Le modèle d'instructions Llama 3.1 405B, avec des paramètres de très grande échelle, est adapté aux tâches complexes et au suivi d'instructions dans des scénarios à forte charge."
178
  },
179
  "accounts/fireworks/models/llama-v3p1-70b-instruct": {
180
    "description": "Le modèle d'instructions Llama 3.1 70B offre une compréhension et une génération de langage exceptionnelles, idéal pour les tâches de dialogue et d'analyse."
181
  },
182
  "accounts/fireworks/models/llama-v3p1-8b-instruct": {
183
    "description": "Le modèle d'instructions Llama 3.1 8B est optimisé pour les dialogues multilingues, capable de surpasser la plupart des modèles open source et fermés sur des benchmarks industriels courants."
184
  },
185
  "accounts/fireworks/models/mixtral-8x22b-instruct": {
186
    "description": "Le modèle d'instructions Mixtral MoE 8x22B, avec des paramètres à grande échelle et une architecture multi-experts, prend en charge efficacement le traitement de tâches complexes."
187
  },
188
  "accounts/fireworks/models/mixtral-8x7b-instruct": {
189
    "description": "Le modèle d'instructions Mixtral MoE 8x7B, avec une architecture multi-experts, offre un suivi et une exécution d'instructions efficaces."
190
  },
191
  "accounts/fireworks/models/mixtral-8x7b-instruct-hf": {
192
    "description": "Le modèle d'instructions Mixtral MoE 8x7B (version HF) offre des performances conformes à l'implémentation officielle, adapté à divers scénarios de tâches efficaces."
193
  },
194
  "accounts/fireworks/models/mythomax-l2-13b": {
195
    "description": "Le modèle MythoMax L2 13B, combinant des techniques de fusion novatrices, excelle dans la narration et le jeu de rôle."
196
  },
197
  "accounts/fireworks/models/phi-3-vision-128k-instruct": {
198
    "description": "Le modèle d'instructions Phi 3 Vision est un modèle multimodal léger, capable de traiter des informations visuelles et textuelles complexes, avec une forte capacité de raisonnement."
199
  },
200
  "accounts/fireworks/models/starcoder-16b": {
201
    "description": "Le modèle StarCoder 15.5B prend en charge des tâches de programmation avancées, avec des capacités multilingues améliorées, adapté à la génération et à la compréhension de code complexes."
202
  },
203
  "accounts/fireworks/models/starcoder-7b": {
204
    "description": "Le modèle StarCoder 7B est entraîné sur plus de 80 langages de programmation, offrant d'excellentes capacités de complétion de code et de compréhension contextuelle."
205
  },
206
  "accounts/yi-01-ai/models/yi-large": {
207
    "description": "Le modèle Yi-Large offre d'excellentes capacités de traitement multilingue, adapté à diverses tâches de génération et de compréhension de langage."
208
  },
209
  "ai21-jamba-1.5-large": {
210
    "description": "Un modèle multilingue de 398 milliards de paramètres (94 milliards actifs), offrant une fenêtre de contexte longue de 256K, des appels de fonction, une sortie structurée et une génération ancrée."
211
  },
212
  "ai21-jamba-1.5-mini": {
213
    "description": "Un modèle multilingue de 52 milliards de paramètres (12 milliards actifs), offrant une fenêtre de contexte longue de 256K, des appels de fonction, une sortie structurée et une génération ancrée."
214
  },
215
  "ai21-jamba-instruct": {
216
    "description": "Un modèle LLM basé sur Mamba de qualité production pour atteindre des performances, une qualité et une efficacité de coût de premier ordre."
217
  },
218
  "anthropic.claude-3-5-sonnet-20240620-v1:0": {
219
    "description": "Claude 3.5 Sonnet élève les normes de l'industrie, surpassant les modèles concurrents et Claude 3 Opus, avec d'excellentes performances dans une large gamme d'évaluations, tout en offrant la vitesse et le coût de nos modèles de niveau intermédiaire."
220
  },
221
  "anthropic.claude-3-haiku-20240307-v1:0": {
222
    "description": "Claude 3 Haiku est le modèle le plus rapide et le plus compact d'Anthropic, offrant une vitesse de réponse quasi instantanée. Il peut répondre rapidement à des requêtes et demandes simples. Les clients pourront construire une expérience AI transparente imitant l'interaction humaine. Claude 3 Haiku peut traiter des images et retourner des sorties textuelles, avec une fenêtre contextuelle de 200K."
223
  },
224
  "anthropic.claude-3-opus-20240229-v1:0": {
225
    "description": "Claude 3 Opus est le modèle AI le plus puissant d'Anthropic, avec des performances de pointe sur des tâches hautement complexes. Il peut traiter des invites ouvertes et des scénarios non vus, avec une fluidité et une compréhension humaine exceptionnelles. Claude 3 Opus démontre les possibilités de génération AI à la pointe. Claude 3 Opus peut traiter des images et retourner des sorties textuelles, avec une fenêtre contextuelle de 200K."
226
  },
227
  "anthropic.claude-3-sonnet-20240229-v1:0": {
228
    "description": "Claude 3 Sonnet d'Anthropic atteint un équilibre idéal entre intelligence et vitesse, particulièrement adapté aux charges de travail d'entreprise. Il offre une utilité maximale à un prix inférieur à celui des concurrents, conçu pour être un modèle fiable et durable, adapté aux déploiements AI à grande échelle. Claude 3 Sonnet peut traiter des images et retourner des sorties textuelles, avec une fenêtre contextuelle de 200K."
229
  },
230
  "anthropic.claude-instant-v1": {
231
    "description": "Un modèle rapide, économique et toujours très capable, capable de traiter une série de tâches, y compris des conversations quotidiennes, l'analyse de texte, le résumé et les questions-réponses sur des documents."
232
  },
233
  "anthropic.claude-v2": {
234
    "description": "Anthropic a démontré une grande capacité dans une large gamme de tâches, allant des dialogues complexes à la génération de contenu créatif, en passant par le suivi détaillé des instructions."
235
  },
236
  "anthropic.claude-v2:1": {
237
    "description": "Version mise à jour de Claude 2, avec une fenêtre contextuelle doublée, ainsi que des améliorations en fiabilité, taux d'hallucination et précision basée sur des preuves dans des documents longs et des contextes RAG."
238
  },
239
  "anthropic/claude-3-haiku": {
240
    "description": "Claude 3 Haiku est le modèle le plus rapide et le plus compact d'Anthropic, conçu pour offrir des réponses quasi instantanées. Il présente des performances directionnelles rapides et précises."
241
  },
242
  "anthropic/claude-3-opus": {
243
    "description": "Claude 3 Opus est le modèle le plus puissant d'Anthropic pour traiter des tâches hautement complexes. Il excelle en termes de performance, d'intelligence, de fluidité et de compréhension."
244
  },
245
  "anthropic/claude-3.5-sonnet": {
246
    "description": "Claude 3.5 Sonnet offre des capacités supérieures à celles d'Opus et une vitesse plus rapide que Sonnet, tout en maintenant le même prix que Sonnet. Sonnet excelle particulièrement dans la programmation, la science des données, le traitement visuel et les tâches d'agent."
247
  },
248
  "aya": {
249
    "description": "Aya 23 est un modèle multilingue lancé par Cohere, prenant en charge 23 langues, facilitant les applications linguistiques diversifiées."
250
  },
251
  "aya:35b": {
252
    "description": "Aya 23 est un modèle multilingue lancé par Cohere, prenant en charge 23 langues, facilitant les applications linguistiques diversifiées."
253
  },
254
  "charglm-3": {
255
    "description": "CharGLM-3 est conçu pour le jeu de rôle et l'accompagnement émotionnel, prenant en charge une mémoire multi-tours ultra-longue et des dialogues personnalisés, avec des applications variées."
256
  },
257
  "chatgpt-4o-latest": {
258
    "description": "ChatGPT-4o est un modèle dynamique, mis à jour en temps réel pour rester à jour avec la dernière version. Il combine une compréhension et une génération de langage puissantes, adapté à des scénarios d'application à grande échelle, y compris le service client, l'éducation et le support technique."
259
  },
260
  "claude-2.0": {
261
    "description": "Claude 2 offre des avancées clés pour les entreprises, y compris un contexte de 200K jetons, une réduction significative du taux d'illusion du modèle, des invites système et une nouvelle fonctionnalité de test : l'appel d'outils."
262
  },
263
  "claude-2.1": {
264
    "description": "Claude 2 offre des avancées clés pour les entreprises, y compris un contexte de 200K jetons, une réduction significative du taux d'illusion du modèle, des invites système et une nouvelle fonctionnalité de test : l'appel d'outils."
265
  },
266
  "claude-3-5-sonnet-20240620": {
267
    "description": "Claude 3.5 Sonnet offre des capacités dépassant celles d'Opus et une vitesse plus rapide que Sonnet, tout en maintenant le même prix que Sonnet. Sonnet excelle particulièrement dans la programmation, la science des données, le traitement visuel et les tâches d'agent."
268
  },
269
  "claude-3-haiku-20240307": {
270
    "description": "Claude 3 Haiku est le modèle le plus rapide et le plus compact d'Anthropic, conçu pour des réponses quasi instantanées. Il présente des performances directionnelles rapides et précises."
271
  },
272
  "claude-3-opus-20240229": {
273
    "description": "Claude 3 Opus est le modèle le plus puissant d'Anthropic pour traiter des tâches hautement complexes. Il excelle en performance, intelligence, fluidité et compréhension."
274
  },
275
  "claude-3-sonnet-20240229": {
276
    "description": "Claude 3 Sonnet offre un équilibre idéal entre intelligence et vitesse pour les charges de travail d'entreprise. Il fournit une utilité maximale à un coût inférieur, fiable et adapté à un déploiement à grande échelle."
277
  },
278
  "claude-instant-1.2": {
279
    "description": "Le modèle d'Anthropic est conçu pour une génération de texte à faible latence et à haut débit, prenant en charge la génération de centaines de pages de texte."
280
  },
281
  "codegeex-4": {
282
    "description": "CodeGeeX-4 est un puissant assistant de programmation AI, prenant en charge des questions intelligentes et l'achèvement de code dans divers langages de programmation, améliorant l'efficacité du développement."
283
  },
284
  "codegemma": {
285
    "description": "CodeGemma est un modèle de langage léger dédié à différentes tâches de programmation, prenant en charge une itération et une intégration rapides."
286
  },
287
  "codegemma:2b": {
288
    "description": "CodeGemma est un modèle de langage léger dédié à différentes tâches de programmation, prenant en charge une itération et une intégration rapides."
289
  },
290
  "codellama": {
291
    "description": "Code Llama est un LLM axé sur la génération et la discussion de code, combinant un large support de langages de programmation, adapté aux environnements de développement."
292
  },
293
  "codellama:13b": {
294
    "description": "Code Llama est un LLM axé sur la génération et la discussion de code, combinant un large support de langages de programmation, adapté aux environnements de développement."
295
  },
296
  "codellama:34b": {
297
    "description": "Code Llama est un LLM axé sur la génération et la discussion de code, combinant un large support de langages de programmation, adapté aux environnements de développement."
298
  },
299
  "codellama:70b": {
300
    "description": "Code Llama est un LLM axé sur la génération et la discussion de code, combinant un large support de langages de programmation, adapté aux environnements de développement."
301
  },
302
  "codeqwen": {
303
    "description": "CodeQwen1.5 est un modèle de langage à grande échelle entraîné sur une grande quantité de données de code, conçu pour résoudre des tâches de programmation complexes."
304
  },
305
  "codestral": {
306
    "description": "Codestral est le premier modèle de code de Mistral AI, offrant un excellent soutien pour les tâches de génération de code."
307
  },
308
  "codestral-latest": {
309
    "description": "Codestral est un modèle de génération de pointe axé sur la génération de code, optimisé pour les tâches de remplissage intermédiaire et de complétion de code."
310
  },
311
  "cognitivecomputations/dolphin-mixtral-8x22b": {
312
    "description": "Dolphin Mixtral 8x22B est un modèle conçu pour le suivi des instructions, le dialogue et la programmation."
313
  },
314
  "cohere-command-r": {
315
    "description": "Command R est un modèle génératif évolutif ciblant RAG et l'utilisation d'outils pour permettre une IA à l'échelle de la production pour les entreprises."
316
  },
317
  "cohere-command-r-plus": {
318
    "description": "Command R+ est un modèle optimisé RAG de pointe conçu pour traiter des charges de travail de niveau entreprise."
319
  },
320
  "command-r": {
321
    "description": "Command R est un LLM optimisé pour les tâches de dialogue et de long contexte, particulièrement adapté à l'interaction dynamique et à la gestion des connaissances."
322
  },
323
  "command-r-plus": {
324
    "description": "Command R+ est un modèle de langage de grande taille à haute performance, conçu pour des scénarios d'entreprise réels et des applications complexes."
325
  },
326
  "databricks/dbrx-instruct": {
327
    "description": "DBRX Instruct offre des capacités de traitement d'instructions hautement fiables, prenant en charge des applications dans divers secteurs."
328
  },
329
  "deepseek-ai/DeepSeek-V2.5": {
330
    "description": "DeepSeek V2.5 intègre les excellentes caractéristiques des versions précédentes, renforçant les capacités générales et de codage."
331
  },
332
  "deepseek-ai/deepseek-llm-67b-chat": {
333
    "description": "DeepSeek 67B est un modèle avancé formé pour des dialogues de haute complexité."
334
  },
335
  "deepseek-chat": {
336
    "description": "Un nouveau modèle open source qui fusionne des capacités générales et de code, conservant non seulement la capacité de dialogue général du modèle Chat d'origine et la puissante capacité de traitement de code du modèle Coder, mais s'alignant également mieux sur les préférences humaines. De plus, DeepSeek-V2.5 a réalisé des améliorations significatives dans plusieurs domaines tels que les tâches d'écriture et le suivi des instructions."
337
  },
338
  "deepseek-coder-v2": {
339
    "description": "DeepSeek Coder V2 est un modèle de code open source de type expert mixte, performant dans les tâches de code, rivalisant avec GPT4-Turbo."
340
  },
341
  "deepseek-coder-v2:236b": {
342
    "description": "DeepSeek Coder V2 est un modèle de code open source de type expert mixte, performant dans les tâches de code, rivalisant avec GPT4-Turbo."
343
  },
344
  "deepseek-v2": {
345
    "description": "DeepSeek V2 est un modèle de langage Mixture-of-Experts efficace, adapté aux besoins de traitement économique."
346
  },
347
  "deepseek-v2:236b": {
348
    "description": "DeepSeek V2 236B est le modèle de code de conception de DeepSeek, offrant de puissantes capacités de génération de code."
349
  },
350
  "deepseek/deepseek-chat": {
351
    "description": "Un nouveau modèle open source fusionnant des capacités générales et de codage, qui non seulement conserve les capacités de dialogue général du modèle Chat d'origine et la puissante capacité de traitement de code du modèle Coder, mais s'aligne également mieux sur les préférences humaines. De plus, DeepSeek-V2.5 a également réalisé des améliorations significatives dans plusieurs domaines tels que les tâches d'écriture et le suivi d'instructions."
352
  },
353
  "emohaa": {
354
    "description": "Emohaa est un modèle psychologique, doté de compétences de conseil professionnel, aidant les utilisateurs à comprendre les problèmes émotionnels."
355
  },
356
  "gemini-1.0-pro-001": {
357
    "description": "Gemini 1.0 Pro 001 (Ajustement) offre des performances stables et ajustables, ce qui en fait un choix idéal pour des solutions de tâches complexes."
358
  },
359
  "gemini-1.0-pro-002": {
360
    "description": "Gemini 1.0 Pro 002 (Ajustement) offre un excellent soutien multimodal, se concentrant sur la résolution efficace de tâches complexes."
361
  },
362
  "gemini-1.0-pro-latest": {
363
    "description": "Gemini 1.0 Pro est le modèle d'IA haute performance de Google, conçu pour une large extension des tâches."
364
  },
365
  "gemini-1.5-flash-001": {
366
    "description": "Gemini 1.5 Flash 001 est un modèle multimodal efficace, prenant en charge l'extension d'applications variées."
367
  },
368
  "gemini-1.5-flash-002": {
369
    "description": "Gemini 1.5 Flash 002 est un modèle multimodal efficace, prenant en charge une large gamme d'applications."
370
  },
371
  "gemini-1.5-flash-8b-exp-0924": {
372
    "description": "Gemini 1.5 Flash 8B 0924 est le dernier modèle expérimental, offrant des améliorations significatives en termes de performance dans les cas d'utilisation textuels et multimodaux."
373
  },
374
  "gemini-1.5-flash-exp-0827": {
375
    "description": "Gemini 1.5 Flash 0827 offre des capacités de traitement multimodal optimisées, adaptées à divers scénarios de tâches complexes."
376
  },
377
  "gemini-1.5-flash-latest": {
378
    "description": "Gemini 1.5 Flash est le dernier modèle d'IA multimodal de Google, doté de capacités de traitement rapide, prenant en charge les entrées de texte, d'images et de vidéos, adapté à une large gamme de tâches pour une extension efficace."
379
  },
380
  "gemini-1.5-pro-001": {
381
    "description": "Gemini 1.5 Pro 001 est une solution d'IA multimodale extensible, prenant en charge une large gamme de tâches complexes."
382
  },
383
  "gemini-1.5-pro-002": {
384
    "description": "Gemini 1.5 Pro 002 est le dernier modèle prêt pour la production, offrant une qualité de sortie supérieure, avec des améliorations notables dans les domaines des mathématiques, des contextes longs et des tâches visuelles."
385
  },
386
  "gemini-1.5-pro-exp-0801": {
387
    "description": "Gemini 1.5 Pro 0801 offre d'excellentes capacités de traitement multimodal, apportant une plus grande flexibilité au développement d'applications."
388
  },
389
  "gemini-1.5-pro-exp-0827": {
390
    "description": "Gemini 1.5 Pro 0827 combine les dernières technologies d'optimisation, offrant une capacité de traitement de données multimodales plus efficace."
391
  },
392
  "gemini-1.5-pro-latest": {
393
    "description": "Gemini 1.5 Pro prend en charge jusqu'à 2 millions de tokens, ce qui en fait un choix idéal pour un modèle multimodal de taille moyenne, adapté à un soutien polyvalent pour des tâches complexes."
394
  },
395
  "gemma-7b-it": {
396
    "description": "Gemma 7B est adapté au traitement de tâches de taille moyenne, alliant coût et efficacité."
397
  },
398
  "gemma2": {
399
    "description": "Gemma 2 est un modèle efficace lancé par Google, couvrant une variété de scénarios d'application allant des petites applications au traitement de données complexes."
400
  },
401
  "gemma2-9b-it": {
402
    "description": "Gemma 2 9B est un modèle optimisé pour des tâches spécifiques et l'intégration d'outils."
403
  },
404
  "gemma2:27b": {
405
    "description": "Gemma 2 est un modèle efficace lancé par Google, couvrant une variété de scénarios d'application allant des petites applications au traitement de données complexes."
406
  },
407
  "gemma2:2b": {
408
    "description": "Gemma 2 est un modèle efficace lancé par Google, couvrant une variété de scénarios d'application allant des petites applications au traitement de données complexes."
409
  },
410
  "general": {
411
    "description": "Spark Lite est un modèle de langage léger, offrant une latence extrêmement faible et une capacité de traitement efficace, entièrement gratuit et ouvert, supportant une fonction de recherche en temps réel. Sa rapidité de réponse le rend exceptionnel dans les applications d'inférence sur des appareils à faible puissance de calcul et dans l'ajustement des modèles, offrant aux utilisateurs un excellent rapport coût-efficacité et une expérience intelligente, en particulier dans les scénarios de questions-réponses, de génération de contenu et de recherche."
412
  },
413
  "generalv3": {
414
    "description": "Spark Pro est un modèle de langage de haute performance optimisé pour des domaines professionnels, se concentrant sur les mathématiques, la programmation, la médecine, l'éducation, etc., et supportant la recherche en ligne ainsi que des plugins intégrés pour la météo, la date, etc. Son modèle optimisé affiche d'excellentes performances et une efficacité dans des tâches complexes de questions-réponses, de compréhension linguistique et de création de textes de haut niveau, en faisant un choix idéal pour des applications professionnelles."
415
  },
416
  "generalv3.5": {
417
    "description": "Spark3.5 Max est la version la plus complète, supportant la recherche en ligne et de nombreux plugins intégrés. Ses capacités centrales entièrement optimisées, ainsi que la définition des rôles système et la fonction d'appel de fonctions, lui permettent d'exceller dans divers scénarios d'application complexes."
418
  },
419
  "glm-4": {
420
    "description": "GLM-4 est l'ancienne version phare publiée en janvier 2024, actuellement remplacée par le plus puissant GLM-4-0520."
421
  },
422
  "glm-4-0520": {
423
    "description": "GLM-4-0520 est la dernière version du modèle, conçue pour des tâches hautement complexes et diversifiées, avec des performances exceptionnelles."
424
  },
425
  "glm-4-air": {
426
    "description": "GLM-4-Air est une version économique, offrant des performances proches de GLM-4, avec une rapidité et un prix abordable."
427
  },
428
  "glm-4-airx": {
429
    "description": "GLM-4-AirX offre une version efficace de GLM-4-Air, avec une vitesse d'inférence pouvant atteindre 2,6 fois celle de la version standard."
430
  },
431
  "glm-4-alltools": {
432
    "description": "GLM-4-AllTools est un modèle d'agent multifonctionnel, optimisé pour prendre en charge la planification d'instructions complexes et les appels d'outils, tels que la navigation sur le web, l'interprétation de code et la génération de texte, adapté à l'exécution de multiples tâches."
433
  },
434
  "glm-4-flash": {
435
    "description": "GLM-4-Flash est le choix idéal pour traiter des tâches simples, avec la vitesse la plus rapide et le prix le plus avantageux."
436
  },
437
  "glm-4-flashx": {
438
    "description": "GLM-4-FlashX est une version améliorée de Flash, offrant une vitesse d'inférence ultra-rapide."
439
  },
440
  "glm-4-long": {
441
    "description": "GLM-4-Long prend en charge des entrées de texte ultra-longues, adapté aux tâches de mémoire et au traitement de documents à grande échelle."
442
  },
443
  "glm-4-plus": {
444
    "description": "GLM-4-Plus, en tant que modèle phare de haute intelligence, possède de puissantes capacités de traitement de longs textes et de tâches complexes, avec des performances globalement améliorées."
445
  },
446
  "glm-4v": {
447
    "description": "GLM-4V offre de puissantes capacités de compréhension et de raisonnement d'image, prenant en charge diverses tâches visuelles."
448
  },
449
  "glm-4v-plus": {
450
    "description": "GLM-4V-Plus possède la capacité de comprendre le contenu vidéo et plusieurs images, adapté aux tâches multimodales."
451
  },
452
  "google/gemini-flash-1.5": {
453
    "description": "Gemini 1.5 Flash propose des capacités de traitement multimodal optimisées, adaptées à divers scénarios de tâches complexes."
454
  },
455
  "google/gemini-pro-1.5": {
456
    "description": "Gemini 1.5 Pro combine les dernières technologies d'optimisation pour offrir une capacité de traitement de données multimodales plus efficace."
457
  },
458
  "google/gemma-2-27b-it": {
459
    "description": "Gemma 2 poursuit le concept de conception légère et efficace."
460
  },
461
  "google/gemma-2-2b-it": {
462
    "description": "Modèle d'optimisation des instructions léger de Google."
463
  },
464
  "google/gemma-2-9b-it": {
465
    "description": "Gemma 2 est une série de modèles de texte open source allégés de Google."
466
  },
467
  "google/gemma-2-9b-it:free": {
468
    "description": "Gemma 2 est une série de modèles de texte open source allégés de Google."
469
  },
470
  "google/gemma-2b-it": {
471
    "description": "Gemma Instruct (2B) offre des capacités de traitement d'instructions de base, adapté aux applications légères."
472
  },
473
  "gpt-3.5-turbo": {
474
    "description": "GPT 3.5 Turbo, adapté à diverses tâches de génération et de compréhension de texte, pointe actuellement vers gpt-3.5-turbo-0125."
475
  },
476
  "gpt-3.5-turbo-0125": {
477
    "description": "GPT 3.5 Turbo, adapté à diverses tâches de génération et de compréhension de texte, pointe actuellement vers gpt-3.5-turbo-0125."
478
  },
479
  "gpt-3.5-turbo-1106": {
480
    "description": "GPT 3.5 Turbo, adapté à diverses tâches de génération et de compréhension de texte, pointe actuellement vers gpt-3.5-turbo-0125."
481
  },
482
  "gpt-3.5-turbo-instruct": {
483
    "description": "GPT 3.5 Turbo, adapté à diverses tâches de génération et de compréhension de texte, pointe actuellement vers gpt-3.5-turbo-0125."
484
  },
485
  "gpt-4": {
486
    "description": "GPT-4 offre une fenêtre contextuelle plus grande, capable de traiter des entrées textuelles plus longues, adapté aux scénarios nécessitant une intégration d'informations étendue et une analyse de données."
487
  },
488
  "gpt-4-0125-preview": {
489
    "description": "Le dernier modèle GPT-4 Turbo dispose de fonctionnalités visuelles. Désormais, les requêtes visuelles peuvent être effectuées en utilisant le mode JSON et les appels de fonction. GPT-4 Turbo est une version améliorée, offrant un soutien rentable pour les tâches multimodales. Il trouve un équilibre entre précision et efficacité, adapté aux applications nécessitant des interactions en temps réel."
490
  },
491
  "gpt-4-0613": {
492
    "description": "GPT-4 offre une fenêtre contextuelle plus grande, capable de traiter des entrées textuelles plus longues, adapté aux scénarios nécessitant une intégration d'informations étendue et une analyse de données."
493
  },
494
  "gpt-4-1106-preview": {
495
    "description": "Le dernier modèle GPT-4 Turbo dispose de fonctionnalités visuelles. Désormais, les requêtes visuelles peuvent être effectuées en utilisant le mode JSON et les appels de fonction. GPT-4 Turbo est une version améliorée, offrant un soutien rentable pour les tâches multimodales. Il trouve un équilibre entre précision et efficacité, adapté aux applications nécessitant des interactions en temps réel."
496
  },
497
  "gpt-4-1106-vision-preview": {
498
    "description": "Le dernier modèle GPT-4 Turbo dispose de fonctionnalités visuelles. Désormais, les requêtes visuelles peuvent être effectuées en utilisant le mode JSON et les appels de fonction. GPT-4 Turbo est une version améliorée, offrant un soutien rentable pour les tâches multimodales. Il trouve un équilibre entre précision et efficacité, adapté aux applications nécessitant des interactions en temps réel."
499
  },
500
  "gpt-4-32k": {
501
    "description": "GPT-4 offre une fenêtre contextuelle plus grande, capable de traiter des entrées textuelles plus longues, adapté aux scénarios nécessitant une intégration d'informations étendue et une analyse de données."
502
  },
503
  "gpt-4-32k-0613": {
504
    "description": "GPT-4 offre une fenêtre contextuelle plus grande, capable de traiter des entrées textuelles plus longues, adapté aux scénarios nécessitant une intégration d'informations étendue et une analyse de données."
505
  },
506
  "gpt-4-turbo": {
507
    "description": "Le dernier modèle GPT-4 Turbo dispose de fonctionnalités visuelles. Désormais, les requêtes visuelles peuvent être effectuées en utilisant le mode JSON et les appels de fonction. GPT-4 Turbo est une version améliorée, offrant un soutien rentable pour les tâches multimodales. Il trouve un équilibre entre précision et efficacité, adapté aux applications nécessitant des interactions en temps réel."
508
  },
509
  "gpt-4-turbo-2024-04-09": {
510
    "description": "Le dernier modèle GPT-4 Turbo dispose de fonctionnalités visuelles. Désormais, les requêtes visuelles peuvent être effectuées en utilisant le mode JSON et les appels de fonction. GPT-4 Turbo est une version améliorée, offrant un soutien rentable pour les tâches multimodales. Il trouve un équilibre entre précision et efficacité, adapté aux applications nécessitant des interactions en temps réel."
511
  },
512
  "gpt-4-turbo-preview": {
513
    "description": "Le dernier modèle GPT-4 Turbo dispose de fonctionnalités visuelles. Désormais, les requêtes visuelles peuvent être effectuées en utilisant le mode JSON et les appels de fonction. GPT-4 Turbo est une version améliorée, offrant un soutien rentable pour les tâches multimodales. Il trouve un équilibre entre précision et efficacité, adapté aux applications nécessitant des interactions en temps réel."
514
  },
515
  "gpt-4-vision-preview": {
516
    "description": "Le dernier modèle GPT-4 Turbo dispose de fonctionnalités visuelles. Désormais, les requêtes visuelles peuvent être effectuées en utilisant le mode JSON et les appels de fonction. GPT-4 Turbo est une version améliorée, offrant un soutien rentable pour les tâches multimodales. Il trouve un équilibre entre précision et efficacité, adapté aux applications nécessitant des interactions en temps réel."
517
  },
518
  "gpt-4o": {
519
    "description": "ChatGPT-4o est un modèle dynamique, mis à jour en temps réel pour rester à jour avec la dernière version. Il combine une compréhension et une génération de langage puissantes, adapté à des scénarios d'application à grande échelle, y compris le service client, l'éducation et le support technique."
520
  },
521
  "gpt-4o-2024-05-13": {
522
    "description": "ChatGPT-4o est un modèle dynamique, mis à jour en temps réel pour rester à jour avec la dernière version. Il combine une compréhension et une génération de langage puissantes, adapté à des scénarios d'application à grande échelle, y compris le service client, l'éducation et le support technique."
523
  },
524
  "gpt-4o-2024-08-06": {
525
    "description": "ChatGPT-4o est un modèle dynamique, mis à jour en temps réel pour rester à jour avec la dernière version. Il combine une compréhension et une génération de langage puissantes, adapté à des scénarios d'application à grande échelle, y compris le service client, l'éducation et le support technique."
526
  },
527
  "gpt-4o-mini": {
528
    "description": "GPT-4o mini est le dernier modèle lancé par OpenAI après le GPT-4 Omni, prenant en charge les entrées multimodales et produisant des sorties textuelles. En tant que leur modèle compact le plus avancé, il est beaucoup moins cher que d'autres modèles de pointe récents et coûte plus de 60 % de moins que le GPT-3.5 Turbo. Il maintient une intelligence de pointe tout en offrant un rapport qualité-prix significatif. Le GPT-4o mini a obtenu un score de 82 % au test MMLU et se classe actuellement au-dessus du GPT-4 en termes de préférences de chat."
529
  },
530
  "gryphe/mythomax-l2-13b": {
531
    "description": "MythoMax l2 13B est un modèle linguistique combinant créativité et intelligence, intégrant plusieurs modèles de pointe."
532
  },
533
  "hunyuan-code": {
534
    "description": "Dernier modèle de génération de code Hunyuan, formé sur un modèle de base avec 200B de données de code de haute qualité, entraîné pendant six mois avec des données SFT de haute qualité, avec une longueur de fenêtre contextuelle augmentée à 8K, se classant parmi les meilleurs sur les indicateurs d'évaluation automatique de génération de code dans cinq langages ; en première ligne des évaluations de qualité humaine sur dix aspects de tâches de code dans cinq langages."
535
  },
536
  "hunyuan-functioncall": {
537
    "description": "Dernier modèle FunctionCall de l'architecture MOE Hunyuan, formé sur des données FunctionCall de haute qualité, avec une fenêtre contextuelle atteignant 32K, se classant parmi les meilleurs sur plusieurs dimensions d'évaluation."
538
  },
539
  "hunyuan-lite": {
540
    "description": "Mise à niveau vers une structure MOE, avec une fenêtre contextuelle de 256k, en tête de nombreux modèles open source dans les évaluations NLP, code, mathématiques, industrie, etc."
541
  },
542
  "hunyuan-pro": {
543
    "description": "Modèle de long texte MOE-32K avec un milliard de paramètres. Atteint un niveau de performance absolument supérieur sur divers benchmarks, capable de traiter des instructions complexes et de raisonner, avec des capacités mathématiques avancées, prenant en charge les appels de fonction, optimisé pour des domaines tels que la traduction multilingue, le droit financier et médical."
544
  },
545
  "hunyuan-role": {
546
    "description": "Dernier modèle de jeu de rôle Hunyuan, un modèle de jeu de rôle affiné et formé par l'équipe officielle de Hunyuan, basé sur le modèle Hunyuan et des ensembles de données de scénarios de jeu de rôle, offrant de meilleures performances de base dans les scénarios de jeu de rôle."
547
  },
548
  "hunyuan-standard": {
549
    "description": "Utilise une stratégie de routage améliorée tout en atténuant les problèmes d'équilibrage de charge et de convergence des experts. Pour les longs textes, l'indice de recherche atteint 99,9 %. MOE-32K offre un meilleur rapport qualité-prix, équilibrant efficacité et coût tout en permettant le traitement des entrées de longs textes."
550
  },
551
  "hunyuan-standard-256K": {
552
    "description": "Utilise une stratégie de routage améliorée tout en atténuant les problèmes d'équilibrage de charge et de convergence des experts. Pour les longs textes, l'indice de recherche atteint 99,9 %. MOE-256K franchit de nouvelles étapes en termes de longueur et d'efficacité, élargissant considérablement la longueur d'entrée possible."
553
  },
554
  "hunyuan-turbo": {
555
    "description": "Version préliminaire du nouveau modèle de langage de génération Hunyuan, utilisant une nouvelle structure de modèle d'experts mixtes (MoE), offrant une efficacité d'inférence plus rapide et de meilleures performances par rapport à Hunyuan-Pro."
556
  },
557
  "hunyuan-vision": {
558
    "description": "Dernier modèle multimodal Hunyuan, prenant en charge l'entrée d'images et de textes pour générer du contenu textuel."
559
  },
560
  "internlm/internlm2_5-20b-chat": {
561
    "description": "Le modèle open source innovant InternLM2.5 améliore l'intelligence des dialogues grâce à un grand nombre de paramètres."
562
  },
563
  "internlm/internlm2_5-7b-chat": {
564
    "description": "InternLM2.5 fournit des solutions de dialogue intelligent dans divers scénarios."
565
  },
566
  "jamba-1.5-large": {},
567
  "jamba-1.5-mini": {},
568
  "llama-3.1-70b-instruct": {
569
    "description": "Le modèle Llama 3.1 70B Instruct, avec 70B de paramètres, offre des performances exceptionnelles dans la génération de texte et les tâches d'instructions."
570
  },
571
  "llama-3.1-70b-versatile": {
572
    "description": "Llama 3.1 70B offre une capacité de raisonnement AI plus puissante, adaptée aux applications complexes, prenant en charge un traitement de calcul intensif tout en garantissant efficacité et précision."
573
  },
574
  "llama-3.1-8b-instant": {
575
    "description": "Llama 3.1 8B est un modèle à haute performance, offrant une capacité de génération de texte rapide, particulièrement adapté aux scénarios d'application nécessitant une efficacité à grande échelle et un rapport coût-efficacité."
576
  },
577
  "llama-3.1-8b-instruct": {
578
    "description": "Le modèle Llama 3.1 8B Instruct, avec 8B de paramètres, prend en charge l'exécution efficace des tâches d'instructions visuelles, offrant d'excellentes capacités de génération de texte."
579
  },
580
  "llama-3.1-sonar-huge-128k-online": {
581
    "description": "Le modèle Llama 3.1 Sonar Huge Online, avec 405B de paramètres, prend en charge une longueur de contexte d'environ 127 000 jetons, conçu pour des applications de chat en ligne complexes."
582
  },
583
  "llama-3.1-sonar-large-128k-chat": {
584
    "description": "Le modèle Llama 3.1 Sonar Large Chat, avec 70B de paramètres, prend en charge une longueur de contexte d'environ 127 000 jetons, adapté aux tâches de chat hors ligne complexes."
585
  },
586
  "llama-3.1-sonar-large-128k-online": {
587
    "description": "Le modèle Llama 3.1 Sonar Large Online, avec 70B de paramètres, prend en charge une longueur de contexte d'environ 127 000 jetons, adapté aux tâches de chat à haute capacité et diversifiées."
588
  },
589
  "llama-3.1-sonar-small-128k-chat": {
590
    "description": "Le modèle Llama 3.1 Sonar Small Chat, avec 8B de paramètres, est conçu pour le chat hors ligne, prenant en charge une longueur de contexte d'environ 127 000 jetons."
591
  },
592
  "llama-3.1-sonar-small-128k-online": {
593
    "description": "Le modèle Llama 3.1 Sonar Small Online, avec 8B de paramètres, prend en charge une longueur de contexte d'environ 127 000 jetons, conçu pour le chat en ligne, capable de traiter efficacement diverses interactions textuelles."
594
  },
595
  "llama-3.2-11b-vision-preview": {
596
    "description": "Llama 3.2 est conçu pour traiter des tâches combinant des données visuelles et textuelles. Il excelle dans des tâches telles que la description d'images et les questions-réponses visuelles, comblant le fossé entre la génération de langage et le raisonnement visuel."
597
  },
598
  "llama-3.2-90b-vision-preview": {
599
    "description": "Llama 3.2 est conçu pour traiter des tâches combinant des données visuelles et textuelles. Il excelle dans des tâches telles que la description d'images et les questions-réponses visuelles, comblant le fossé entre la génération de langage et le raisonnement visuel."
600
  },
601
  "llama3-70b-8192": {
602
    "description": "Meta Llama 3 70B offre une capacité de traitement de complexité inégalée, sur mesure pour des projets exigeants."
603
  },
604
  "llama3-8b-8192": {
605
    "description": "Meta Llama 3 8B offre d'excellentes performances de raisonnement, adaptées à des besoins d'application variés."
606
  },
607
  "llama3-groq-70b-8192-tool-use-preview": {
608
    "description": "Llama 3 Groq 70B Tool Use offre de puissantes capacités d'appel d'outils, prenant en charge le traitement efficace de tâches complexes."
609
  },
610
  "llama3-groq-8b-8192-tool-use-preview": {
611
    "description": "Llama 3 Groq 8B Tool Use est un modèle optimisé pour une utilisation efficace des outils, prenant en charge un calcul parallèle rapide."
612
  },
613
  "llama3.1": {
614
    "description": "Llama 3.1 est le modèle de pointe lancé par Meta, prenant en charge jusqu'à 405B de paramètres, applicable dans les domaines des dialogues complexes, de la traduction multilingue et de l'analyse de données."
615
  },
616
  "llama3.1:405b": {
617
    "description": "Llama 3.1 est le modèle de pointe lancé par Meta, prenant en charge jusqu'à 405B de paramètres, applicable dans les domaines des dialogues complexes, de la traduction multilingue et de l'analyse de données."
618
  },
619
  "llama3.1:70b": {
620
    "description": "Llama 3.1 est le modèle de pointe lancé par Meta, prenant en charge jusqu'à 405B de paramètres, applicable dans les domaines des dialogues complexes, de la traduction multilingue et de l'analyse de données."
621
  },
622
  "llava": {
623
    "description": "LLaVA est un modèle multimodal combinant un encodeur visuel et Vicuna, utilisé pour une compréhension puissante du visuel et du langage."
624
  },
625
  "llava-v1.5-7b-4096-preview": {
626
    "description": "LLaVA 1.5 7B offre une capacité de traitement visuel intégrée, générant des sorties complexes à partir d'entrées d'informations visuelles."
627
  },
628
  "llava:13b": {
629
    "description": "LLaVA est un modèle multimodal combinant un encodeur visuel et Vicuna, utilisé pour une compréhension puissante du visuel et du langage."
630
  },
631
  "llava:34b": {
632
    "description": "LLaVA est un modèle multimodal combinant un encodeur visuel et Vicuna, utilisé pour une compréhension puissante du visuel et du langage."
633
  },
634
  "mathstral": {
635
    "description": "MathΣtral est conçu pour la recherche scientifique et le raisonnement mathématique, offrant des capacités de calcul efficaces et des interprétations de résultats."
636
  },
637
  "meta-llama-3-70b-instruct": {
638
    "description": "Un puissant modèle de 70 milliards de paramètres excelling dans le raisonnement, le codage et les applications linguistiques larges."
639
  },
640
  "meta-llama-3-8b-instruct": {
641
    "description": "Un modèle polyvalent de 8 milliards de paramètres optimisé pour les tâches de dialogue et de génération de texte."
642
  },
643
  "meta-llama-3.1-405b-instruct": {
644
    "description": "Les modèles textuels uniquement ajustés par instruction Llama 3.1 sont optimisés pour les cas d'utilisation de dialogue multilingue et surpassent de nombreux modèles de chat open source et fermés disponibles sur les benchmarks industriels courants."
645
  },
646
  "meta-llama-3.1-70b-instruct": {
647
    "description": "Les modèles textuels uniquement ajustés par instruction Llama 3.1 sont optimisés pour les cas d'utilisation de dialogue multilingue et surpassent de nombreux modèles de chat open source et fermés disponibles sur les benchmarks industriels courants."
648
  },
649
  "meta-llama-3.1-8b-instruct": {
650
    "description": "Les modèles textuels uniquement ajustés par instruction Llama 3.1 sont optimisés pour les cas d'utilisation de dialogue multilingue et surpassent de nombreux modèles de chat open source et fermés disponibles sur les benchmarks industriels courants."
651
  },
652
  "meta-llama/Llama-2-13b-chat-hf": {
653
    "description": "LLaMA-2 Chat (13B) offre d'excellentes capacités de traitement du langage et une expérience interactive exceptionnelle."
654
  },
655
  "meta-llama/Llama-2-7b-chat-hf": {
656
    "description": "L'un des meilleurs modèles de conversation."
657
  },
658
  "meta-llama/Llama-3-70b-chat-hf": {
659
    "description": "LLaMA-3 Chat (70B) est un modèle de chat puissant, prenant en charge des besoins de dialogue complexes."
660
  },
661
  "meta-llama/Llama-3-8b-chat-hf": {
662
    "description": "LLaMA-3 Chat (8B) offre un support multilingue, couvrant un large éventail de connaissances."
663
  },
664
  "meta-llama/Meta-Llama-3-70B-Instruct-Lite": {
665
    "description": "Llama 3 70B Instruct Lite est adapté aux environnements nécessitant une haute performance et une faible latence."
666
  },
667
  "meta-llama/Meta-Llama-3-70B-Instruct-Turbo": {
668
    "description": "Llama 3 70B Instruct Turbo offre une compréhension et une génération de langage exceptionnelles, adapté aux tâches de calcul les plus exigeantes."
669
  },
670
  "meta-llama/Meta-Llama-3-8B-Instruct-Lite": {
671
    "description": "Llama 3 8B Instruct Lite est adapté aux environnements à ressources limitées, offrant un excellent équilibre de performance."
672
  },
673
  "meta-llama/Meta-Llama-3-8B-Instruct-Turbo": {
674
    "description": "Llama 3 8B Instruct Turbo est un modèle de langage à haute performance, prenant en charge une large gamme de scénarios d'application."
675
  },
676
  "meta-llama/Meta-Llama-3.1-405B-Instruct": {
677
    "description": "LLaMA 3.1 405B est un modèle puissant pour le pré-entraînement et l'ajustement des instructions."
678
  },
679
  "meta-llama/Meta-Llama-3.1-405B-Instruct-Turbo": {
680
    "description": "Le modèle Llama 3.1 Turbo 405B offre un support de contexte de très grande capacité pour le traitement de grandes données, se distinguant dans les applications d'intelligence artificielle à très grande échelle."
681
  },
682
  "meta-llama/Meta-Llama-3.1-70B-Instruct": {
683
    "description": "LLaMA 3.1 70B offre un support de dialogue efficace en plusieurs langues."
684
  },
685
  "meta-llama/Meta-Llama-3.1-70B-Instruct-Turbo": {
686
    "description": "Le modèle Llama 3.1 70B est finement ajusté pour des applications à forte charge, quantifié en FP8 pour offrir une capacité de calcul et une précision plus efficaces, garantissant des performances exceptionnelles dans des scénarios complexes."
687
  },
688
  "meta-llama/Meta-Llama-3.1-8B-Instruct": {
689
    "description": "LLaMA 3.1 offre un support multilingue, étant l'un des modèles génératifs les plus avancés de l'industrie."
690
  },
691
  "meta-llama/Meta-Llama-3.1-8B-Instruct-Turbo": {
692
    "description": "Le modèle Llama 3.1 8B utilise la quantification FP8, prenant en charge jusqu'à 131 072 jetons de contexte, se distinguant parmi les modèles open source, adapté aux tâches complexes, surpassant de nombreux benchmarks industriels."
693
  },
694
  "meta-llama/llama-3-70b-instruct": {
695
    "description": "Llama 3 70B Instruct est optimisé pour des scénarios de dialogue de haute qualité, affichant d'excellentes performances dans diverses évaluations humaines."
696
  },
697
  "meta-llama/llama-3-8b-instruct": {
698
    "description": "Llama 3 8B Instruct optimise les scénarios de dialogue de haute qualité, avec des performances supérieures à de nombreux modèles fermés."
699
  },
700
  "meta-llama/llama-3.1-405b-instruct": {
701
    "description": "Llama 3.1 405B Instruct est la dernière version lancée par Meta, optimisée pour générer des dialogues de haute qualité, surpassant de nombreux modèles fermés de premier plan."
702
  },
703
  "meta-llama/llama-3.1-70b-instruct": {
704
    "description": "Llama 3.1 70B Instruct est conçu pour des dialogues de haute qualité, se distinguant dans les évaluations humaines, particulièrement adapté aux scénarios d'interaction élevée."
705
  },
706
  "meta-llama/llama-3.1-8b-instruct": {
707
    "description": "Llama 3.1 8B Instruct est la dernière version lancée par Meta, optimisée pour des scénarios de dialogue de haute qualité, surpassant de nombreux modèles fermés de premier plan."
708
  },
709
  "meta-llama/llama-3.1-8b-instruct:free": {
710
    "description": "LLaMA 3.1 offre un support multilingue et est l'un des modèles génératifs les plus avancés de l'industrie."
711
  },
712
  "meta-llama/llama-3.2-11b-vision-instruct": {
713
    "description": "LLaMA 3.2 est conçu pour traiter des tâches combinant des données visuelles et textuelles. Il excelle dans des tâches telles que la description d'images et les questions-réponses visuelles, comblant le fossé entre la génération de langage et le raisonnement visuel."
714
  },
715
  "meta-llama/llama-3.2-90b-vision-instruct": {
716
    "description": "LLaMA 3.2 est conçu pour traiter des tâches combinant des données visuelles et textuelles. Il excelle dans des tâches telles que la description d'images et les questions-réponses visuelles, comblant le fossé entre la génération de langage et le raisonnement visuel."
717
  },
718
  "meta.llama3-1-405b-instruct-v1:0": {
719
    "description": "Meta Llama 3.1 405B Instruct est le modèle le plus grand et le plus puissant du modèle Llama 3.1 Instruct. C'est un modèle de génération de données de dialogue et de raisonnement hautement avancé, qui peut également servir de base pour un pré-entraînement ou un ajustement fin spécialisé dans des domaines spécifiques. Les modèles de langage multilingues (LLMs) fournis par Llama 3.1 sont un ensemble de modèles génératifs pré-entraînés et ajustés par instructions, comprenant des tailles de 8B, 70B et 405B (entrée/sortie de texte). Les modèles de texte ajustés par instructions de Llama 3.1 (8B, 70B, 405B) sont optimisés pour des cas d'utilisation de dialogue multilingue et ont surpassé de nombreux modèles de chat open source disponibles dans des benchmarks industriels courants. Llama 3.1 est conçu pour des usages commerciaux et de recherche dans plusieurs langues. Les modèles de texte ajustés par instructions conviennent aux chats de type assistant, tandis que les modèles pré-entraînés peuvent s'adapter à diverses tâches de génération de langage naturel. Le modèle Llama 3.1 prend également en charge l'amélioration d'autres modèles en utilisant sa sortie, y compris la génération de données synthétiques et le raffinement. Llama 3.1 est un modèle de langage autoregressif utilisant une architecture de transformateur optimisée. Les versions ajustées utilisent un ajustement fin supervisé (SFT) et un apprentissage par renforcement avec retour humain (RLHF) pour répondre aux préférences humaines en matière d'utilité et de sécurité."
720
  },
721
  "meta.llama3-1-70b-instruct-v1:0": {
722
    "description": "Meta Llama 3.1 70B Instruct est une version mise à jour, incluant une longueur de contexte étendue de 128K, une multilinguisme et des capacités de raisonnement améliorées. Les modèles de langage à grande échelle (LLMs) fournis par Llama 3.1 sont un ensemble de modèles génératifs pré-entraînés et ajustés par instruction, comprenant des tailles de 8B, 70B et 405B (entrée/sortie de texte). Les modèles de texte ajustés par instruction de Llama 3.1 (8B, 70B, 405B) sont optimisés pour des cas d'utilisation de dialogue multilingue et ont surpassé de nombreux modèles de chat open source disponibles dans des benchmarks industriels courants. Llama 3.1 est conçu pour des usages commerciaux et de recherche dans plusieurs langues. Les modèles de texte ajustés par instruction sont adaptés aux chats de type assistant, tandis que les modèles pré-entraînés peuvent s'adapter à diverses tâches de génération de langage naturel. Le modèle Llama 3.1 prend également en charge l'utilisation de ses sorties pour améliorer d'autres modèles, y compris la génération de données synthétiques et le raffinement. Llama 3.1 est un modèle de langage autoregressif utilisant une architecture de transformateur optimisée. La version ajustée utilise un affinement supervisé (SFT) et un apprentissage par renforcement avec retour humain (RLHF) pour répondre aux préférences humaines en matière d'utilité et de sécurité."
723
  },
724
  "meta.llama3-1-8b-instruct-v1:0": {
725
    "description": "Meta Llama 3.1 8B Instruct est une version mise à jour, incluant une longueur de contexte étendue de 128K, une multilinguisme et des capacités de raisonnement améliorées. Les modèles de langage à grande échelle (LLMs) fournis par Llama 3.1 sont un ensemble de modèles génératifs pré-entraînés et ajustés par instruction, comprenant des tailles de 8B, 70B et 405B (entrée/sortie de texte). Les modèles de texte ajustés par instruction de Llama 3.1 (8B, 70B, 405B) sont optimisés pour des cas d'utilisation de dialogue multilingue et ont surpassé de nombreux modèles de chat open source disponibles dans des benchmarks industriels courants. Llama 3.1 est conçu pour des usages commerciaux et de recherche dans plusieurs langues. Les modèles de texte ajustés par instruction sont adaptés aux chats de type assistant, tandis que les modèles pré-entraînés peuvent s'adapter à diverses tâches de génération de langage naturel. Le modèle Llama 3.1 prend également en charge l'utilisation de ses sorties pour améliorer d'autres modèles, y compris la génération de données synthétiques et le raffinement. Llama 3.1 est un modèle de langage autoregressif utilisant une architecture de transformateur optimisée. La version ajustée utilise un affinement supervisé (SFT) et un apprentissage par renforcement avec retour humain (RLHF) pour répondre aux préférences humaines en matière d'utilité et de sécurité."
726
  },
727
  "meta.llama3-70b-instruct-v1:0": {
728
    "description": "Meta Llama 3 est un modèle de langage ouvert (LLM) destiné aux développeurs, chercheurs et entreprises, conçu pour les aider à construire, expérimenter et étendre de manière responsable leurs idées d'IA générative. En tant que partie intégrante d'un système de base pour l'innovation de la communauté mondiale, il est particulièrement adapté à la création de contenu, à l'IA de dialogue, à la compréhension du langage, à la recherche et aux applications d'entreprise."
729
  },
730
  "meta.llama3-8b-instruct-v1:0": {
731
    "description": "Meta Llama 3 est un modèle de langage ouvert (LLM) destiné aux développeurs, chercheurs et entreprises, conçu pour les aider à construire, expérimenter et étendre de manière responsable leurs idées d'IA générative. En tant que partie intégrante d'un système de base pour l'innovation de la communauté mondiale, il est particulièrement adapté aux appareils à capacité de calcul et de ressources limitées, ainsi qu'à des temps d'entraînement plus rapides."
732
  },
733
  "microsoft/wizardlm 2-7b": {
734
    "description": "WizardLM 2 7B est le dernier modèle léger et rapide de Microsoft AI, offrant des performances proches de dix fois celles des modèles leaders open source existants."
735
  },
736
  "microsoft/wizardlm-2-8x22b": {
737
    "description": "WizardLM-2 8x22B est le modèle Wizard le plus avancé de Microsoft AI, montrant des performances extrêmement compétitives."
738
  },
739
  "minicpm-v": {
740
    "description": "MiniCPM-V est un nouveau modèle multimodal de nouvelle génération lancé par OpenBMB, offrant d'excellentes capacités de reconnaissance OCR et de compréhension multimodale, prenant en charge une large gamme d'applications."
741
  },
742
  "mistral": {
743
    "description": "Mistral est le modèle 7B lancé par Mistral AI, adapté aux besoins variés de traitement du langage."
744
  },
745
  "mistral-large": {
746
    "description": "Mixtral Large est le modèle phare de Mistral, combinant des capacités de génération de code, de mathématiques et de raisonnement, prenant en charge une fenêtre de contexte de 128k."
747
  },
748
  "mistral-large-2407": {
749
    "description": "Mistral Large (2407) est un modèle de langage avancé (LLM) avec des capacités de raisonnement, de connaissance et de codage à la pointe de la technologie."
750
  },
751
  "mistral-large-latest": {
752
    "description": "Mistral Large est le modèle phare, excellent pour les tâches multilingues, le raisonnement complexe et la génération de code, idéal pour des applications haut de gamme."
753
  },
754
  "mistral-nemo": {
755
    "description": "Mistral Nemo, développé en collaboration entre Mistral AI et NVIDIA, est un modèle de 12B à performance efficace."
756
  },
757
  "mistral-small": {
758
    "description": "Mistral Small peut être utilisé pour toute tâche basée sur le langage nécessitant une haute efficacité et une faible latence."
759
  },
760
  "mistral-small-latest": {
761
    "description": "Mistral Small est une option rentable, rapide et fiable, adaptée aux cas d'utilisation tels que la traduction, le résumé et l'analyse des sentiments."
762
  },
763
  "mistralai/Mistral-7B-Instruct-v0.1": {
764
    "description": "Mistral (7B) Instruct est réputé pour ses performances élevées, adapté à diverses tâches linguistiques."
765
  },
766
  "mistralai/Mistral-7B-Instruct-v0.2": {
767
    "description": "Mistral 7B est un modèle fine-tuné à la demande, offrant des réponses optimisées pour les tâches."
768
  },
769
  "mistralai/Mistral-7B-Instruct-v0.3": {
770
    "description": "Mistral (7B) Instruct v0.3 offre une capacité de calcul efficace et une compréhension du langage naturel, adapté à un large éventail d'applications."
771
  },
772
  "mistralai/Mixtral-8x22B-Instruct-v0.1": {
773
    "description": "Mixtral-8x22B Instruct (141B) est un super grand modèle de langage, prenant en charge des besoins de traitement extrêmement élevés."
774
  },
775
  "mistralai/Mixtral-8x7B-Instruct-v0.1": {
776
    "description": "Mixtral 8x7B est un modèle de mélange d'experts pré-entraîné, utilisé pour des tâches textuelles générales."
777
  },
778
  "mistralai/mistral-7b-instruct": {
779
    "description": "Mistral 7B Instruct est un modèle standard de l'industrie, alliant optimisation de la vitesse et support de longs contextes."
780
  },
781
  "mistralai/mistral-nemo": {
782
    "description": "Mistral Nemo est un modèle de 7,3 milliards de paramètres, offrant un support multilingue et une programmation haute performance."
783
  },
784
  "mixtral": {
785
    "description": "Mixtral est le modèle d'expert de Mistral AI, avec des poids open source, offrant un soutien dans la génération de code et la compréhension du langage."
786
  },
787
  "mixtral-8x7b-32768": {
788
    "description": "Mixtral 8x7B offre une capacité de calcul parallèle à haute tolérance aux pannes, adaptée aux tâches complexes."
789
  },
790
  "mixtral:8x22b": {
791
    "description": "Mixtral est le modèle d'expert de Mistral AI, avec des poids open source, offrant un soutien dans la génération de code et la compréhension du langage."
792
  },
793
  "moonshot-v1-128k": {
794
    "description": "Moonshot V1 128K est un modèle doté d'une capacité de traitement de contexte ultra-long, adapté à la génération de textes très longs, répondant aux besoins de tâches de génération complexes, capable de traiter jusqu'à 128 000 tokens, idéal pour la recherche, l'académie et la génération de documents volumineux."
795
  },
796
  "moonshot-v1-32k": {
797
    "description": "Moonshot V1 32K offre une capacité de traitement de contexte de longueur moyenne, capable de traiter 32 768 tokens, particulièrement adapté à la génération de divers documents longs et de dialogues complexes, utilisé dans la création de contenu, la génération de rapports et les systèmes de dialogue."
798
  },
799
  "moonshot-v1-8k": {
800
    "description": "Moonshot V1 8K est conçu pour des tâches de génération de courts textes, avec des performances de traitement efficaces, capable de traiter 8 192 tokens, idéal pour des dialogues courts, des prises de notes et une génération rapide de contenu."
801
  },
802
  "nousresearch/hermes-2-pro-llama-3-8b": {
803
    "description": "Hermes 2 Pro Llama 3 8B est une version améliorée de Nous Hermes 2, intégrant les derniers ensembles de données développés en interne."
804
  },
805
  "o1-mini": {
806
    "description": "o1-mini est un modèle de raisonnement rapide et économique conçu pour les applications de programmation, de mathématiques et de sciences. Ce modèle dispose d'un contexte de 128K et d'une date limite de connaissance en octobre 2023."
807
  },
808
  "o1-preview": {
809
    "description": "o1 est le nouveau modèle de raisonnement d'OpenAI, adapté aux tâches complexes nécessitant une vaste connaissance générale. Ce modèle dispose d'un contexte de 128K et d'une date limite de connaissance en octobre 2023."
810
  },
811
  "open-codestral-mamba": {
812
    "description": "Codestral Mamba est un modèle de langage Mamba 2 axé sur la génération de code, offrant un soutien puissant pour des tâches avancées de codage et de raisonnement."
813
  },
814
  "open-mistral-7b": {
815
    "description": "Mistral 7B est un modèle compact mais performant, excellent pour le traitement par lots et les tâches simples, telles que la classification et la génération de texte, avec de bonnes capacités de raisonnement."
816
  },
817
  "open-mistral-nemo": {
818
    "description": "Mistral Nemo est un modèle de 12B développé en collaboration avec Nvidia, offrant d'excellentes performances de raisonnement et de codage, facile à intégrer et à remplacer."
819
  },
820
  "open-mixtral-8x22b": {
821
    "description": "Mixtral 8x22B est un modèle d'expert plus grand, axé sur des tâches complexes, offrant d'excellentes capacités de raisonnement et un débit plus élevé."
822
  },
823
  "open-mixtral-8x7b": {
824
    "description": "Mixtral 8x7B est un modèle d'expert épars, utilisant plusieurs paramètres pour améliorer la vitesse de raisonnement, adapté au traitement de tâches multilingues et de génération de code."
825
  },
826
  "openai/gpt-4o": {
827
    "description": "ChatGPT-4o est un modèle dynamique, mis à jour en temps réel pour rester à jour avec la dernière version. Il combine une compréhension et une génération de langage puissantes, adapté à des scénarios d'application à grande échelle, y compris le service client, l'éducation et le support technique."
828
  },
829
  "openai/gpt-4o-mini": {
830
    "description": "GPT-4o mini est le dernier modèle d'OpenAI lancé après GPT-4 Omni, prenant en charge les entrées d'images et de texte et produisant du texte en sortie. En tant que leur modèle compact le plus avancé, il est beaucoup moins cher que d'autres modèles de pointe récents et coûte plus de 60 % de moins que GPT-3.5 Turbo. Il maintient une intelligence de pointe tout en offrant un rapport qualité-prix significatif. GPT-4o mini a obtenu un score de 82 % au test MMLU et se classe actuellement au-dessus de GPT-4 en termes de préférences de chat."
831
  },
832
  "openai/o1-mini": {
833
    "description": "o1-mini est un modèle de raisonnement rapide et économique conçu pour les applications de programmation, de mathématiques et de sciences. Ce modèle dispose d'un contexte de 128K et d'une date limite de connaissance en octobre 2023."
834
  },
835
  "openai/o1-preview": {
836
    "description": "o1 est le nouveau modèle de raisonnement d'OpenAI, adapté aux tâches complexes nécessitant une vaste connaissance générale. Ce modèle dispose d'un contexte de 128K et d'une date limite de connaissance en octobre 2023."
837
  },
838
  "openchat/openchat-7b": {
839
    "description": "OpenChat 7B est une bibliothèque de modèles linguistiques open source, affinée par la stratégie de 'C-RLFT (Conditionnal Reinforcement Learning Fine-Tuning)'."
840
  },
841
  "openrouter/auto": {
842
    "description": "En fonction de la longueur du contexte, du sujet et de la complexité, votre demande sera envoyée à Llama 3 70B Instruct, Claude 3.5 Sonnet (auto-régulé) ou GPT-4o."
843
  },
844
  "phi3": {
845
    "description": "Phi-3 est un modèle ouvert léger lancé par Microsoft, adapté à une intégration efficace et à un raisonnement de connaissances à grande échelle."
846
  },
847
  "phi3:14b": {
848
    "description": "Phi-3 est un modèle ouvert léger lancé par Microsoft, adapté à une intégration efficace et à un raisonnement de connaissances à grande échelle."
849
  },
850
  "pixtral-12b-2409": {
851
    "description": "Le modèle Pixtral montre de puissantes capacités dans des tâches telles que la compréhension des graphiques et des images, le questionnement de documents, le raisonnement multimodal et le respect des instructions, capable d'ingérer des images à résolution naturelle et à rapport d'aspect, tout en traitant un nombre quelconque d'images dans une fenêtre de contexte longue allant jusqu'à 128K tokens."
852
  },
853
  "qwen-coder-turbo-latest": {
854
    "description": "Le modèle de code Tongyi Qwen."
855
  },
856
  "qwen-long": {
857
    "description": "Qwen est un modèle de langage à grande échelle, prenant en charge un contexte de texte long, ainsi que des fonctionnalités de dialogue basées sur des documents longs et multiples."
858
  },
859
  "qwen-math-plus-latest": {
860
    "description": "Le modèle de langage Tongyi Qwen pour les mathématiques, spécialement conçu pour résoudre des problèmes mathématiques."
861
  },
862
  "qwen-math-turbo-latest": {
863
    "description": "Le modèle de langage Tongyi Qwen pour les mathématiques, spécialement conçu pour résoudre des problèmes mathématiques."
864
  },
865
  "qwen-max-latest": {
866
    "description": "Le modèle de langage à grande échelle Tongyi Qwen de niveau milliard, prenant en charge des entrées en chinois, en anglais et dans d'autres langues, actuellement le modèle API derrière la version produit Tongyi Qwen 2.5."
867
  },
868
  "qwen-plus-latest": {
869
    "description": "La version améliorée du modèle de langage à grande échelle Tongyi Qwen, prenant en charge des entrées en chinois, en anglais et dans d'autres langues."
870
  },
871
  "qwen-turbo-latest": {
872
    "description": "Le modèle de langage à grande échelle Tongyi Qwen, prenant en charge des entrées en chinois, en anglais et dans d'autres langues."
873
  },
874
  "qwen-vl-chat-v1": {
875
    "description": "Qwen VL prend en charge des modes d'interaction flexibles, y compris la capacité de poser des questions à plusieurs images, des dialogues multi-tours, et plus encore."
876
  },
877
  "qwen-vl-max-latest": {
878
    "description": "Modèle de langage visuel à très grande échelle Tongyi Qianwen. Par rapport à la version améliorée, il améliore encore les capacités de raisonnement visuel et de suivi des instructions, offrant un niveau de perception visuelle et de cognition plus élevé."
879
  },
880
  "qwen-vl-plus-latest": {
881
    "description": "Version améliorée du modèle de langage visuel à grande échelle Tongyi Qianwen. Amélioration significative des capacités de reconnaissance des détails et de reconnaissance de texte, prenant en charge des résolutions d'image de plus d'un million de pixels et des rapports d'aspect de n'importe quelle taille."
882
  },
883
  "qwen-vl-v1": {
884
    "description": "Initialisé avec le modèle de langage Qwen-7B, ajoutant un modèle d'image, un modèle pré-entraîné avec une résolution d'entrée d'image de 448."
885
  },
886
  "qwen/qwen-2-7b-instruct:free": {
887
    "description": "Qwen2 est une toute nouvelle série de modèles de langage de grande taille, offrant des capacités de compréhension et de génération plus puissantes."
888
  },
889
  "qwen2": {
890
    "description": "Qwen2 est le nouveau modèle de langage à grande échelle d'Alibaba, offrant d'excellentes performances pour des besoins d'application diversifiés."
891
  },
892
  "qwen2.5-14b-instruct": {
893
    "description": "Le modèle de 14B de Tongyi Qwen 2.5, open source."
894
  },
895
  "qwen2.5-32b-instruct": {
896
    "description": "Le modèle de 32B de Tongyi Qwen 2.5, open source."
897
  },
898
  "qwen2.5-72b-instruct": {
899
    "description": "Le modèle de 72B de Tongyi Qwen 2.5, open source."
900
  },
901
  "qwen2.5-7b-instruct": {
902
    "description": "Le modèle de 7B de Tongyi Qwen 2.5, open source."
903
  },
904
  "qwen2.5-coder-1.5b-instruct": {
905
    "description": "Version open source du modèle de code Tongyi Qwen."
906
  },
907
  "qwen2.5-coder-7b-instruct": {
908
    "description": "Version open source du modèle de code Tongyi Qwen."
909
  },
910
  "qwen2.5-math-1.5b-instruct": {
911
    "description": "Le modèle Qwen-Math possède de puissantes capacités de résolution de problèmes mathématiques."
912
  },
913
  "qwen2.5-math-72b-instruct": {
914
    "description": "Le modèle Qwen-Math possède de puissantes capacités de résolution de problèmes mathématiques."
915
  },
916
  "qwen2.5-math-7b-instruct": {
917
    "description": "Le modèle Qwen-Math possède de puissantes capacités de résolution de problèmes mathématiques."
918
  },
919
  "qwen2:0.5b": {
920
    "description": "Qwen2 est le nouveau modèle de langage à grande échelle d'Alibaba, offrant d'excellentes performances pour des besoins d'application diversifiés."
921
  },
922
  "qwen2:1.5b": {
923
    "description": "Qwen2 est le nouveau modèle de langage à grande échelle d'Alibaba, offrant d'excellentes performances pour des besoins d'application diversifiés."
924
  },
925
  "qwen2:72b": {
926
    "description": "Qwen2 est le nouveau modèle de langage à grande échelle d'Alibaba, offrant d'excellentes performances pour des besoins d'application diversifiés."
927
  },
928
  "solar-1-mini-chat": {
929
    "description": "Solar Mini est un LLM compact, surpassant GPT-3.5, avec de puissantes capacités multilingues, supportant l'anglais et le coréen, offrant une solution efficace et compacte."
930
  },
931
  "solar-1-mini-chat-ja": {
932
    "description": "Solar Mini (Ja) étend les capacités de Solar Mini, se concentrant sur le japonais tout en maintenant une efficacité et des performances exceptionnelles en anglais et en coréen."
933
  },
934
  "solar-pro": {
935
    "description": "Solar Pro est un LLM hautement intelligent lancé par Upstage, axé sur la capacité de suivi des instructions sur un seul GPU, avec un score IFEval supérieur à 80. Actuellement, il supporte l'anglais, et la version officielle est prévue pour novembre 2024, avec une extension du support linguistique et de la longueur du contexte."
936
  },
937
  "step-1-128k": {
938
    "description": "Équilibre entre performance et coût, adapté à des scénarios généraux."
939
  },
940
  "step-1-256k": {
941
    "description": "Capacité de traitement de contexte ultra long, particulièrement adapté à l'analyse de documents longs."
942
  },
943
  "step-1-32k": {
944
    "description": "Prend en charge des dialogues de longueur moyenne, adapté à divers scénarios d'application."
945
  },
946
  "step-1-8k": {
947
    "description": "Modèle de petite taille, adapté aux tâches légères."
948
  },
949
  "step-1-flash": {
950
    "description": "Modèle à haute vitesse, adapté aux dialogues en temps réel."
951
  },
952
  "step-1v-32k": {
953
    "description": "Prend en charge les entrées visuelles, améliorant l'expérience d'interaction multimodale."
954
  },
955
  "step-1v-8k": {
956
    "description": "Modèle visuel compact, adapté aux tâches de base en texte et image."
957
  },
958
  "step-2-16k": {
959
    "description": "Prend en charge des interactions contextuelles à grande échelle, adapté aux scénarios de dialogue complexes."
960
  },
961
  "taichu_llm": {
962
    "description": "Le modèle de langage Taichu Zidong possède une forte capacité de compréhension linguistique ainsi que des compétences en création de texte, questions-réponses, programmation, calcul mathématique, raisonnement logique, analyse des sentiments, et résumé de texte. Il combine de manière innovante le pré-entraînement sur de grandes données avec des connaissances riches provenant de multiples sources, en perfectionnant continuellement la technologie algorithmique et en intégrant de nouvelles connaissances sur le vocabulaire, la structure, la grammaire et le sens à partir de vastes ensembles de données textuelles, offrant aux utilisateurs des informations et des services plus pratiques ainsi qu'une expérience plus intelligente."
963
  },
964
  "togethercomputer/StripedHyena-Nous-7B": {
965
    "description": "StripedHyena Nous (7B) offre une capacité de calcul améliorée grâce à des stratégies et une architecture de modèle efficaces."
966
  },
967
  "upstage/SOLAR-10.7B-Instruct-v1.0": {
968
    "description": "Upstage SOLAR Instruct v1 (11B) est adapté aux tâches d'instructions détaillées, offrant d'excellentes capacités de traitement du langage."
969
  },
970
  "wizardlm2": {
971
    "description": "WizardLM 2 est un modèle de langage proposé par Microsoft AI, particulièrement performant dans les domaines des dialogues complexes, du multilinguisme, du raisonnement et des assistants intelligents."
972
  },
973
  "wizardlm2:8x22b": {
974
    "description": "WizardLM 2 est un modèle de langage proposé par Microsoft AI, particulièrement performant dans les domaines des dialogues complexes, du multilinguisme, du raisonnement et des assistants intelligents."
975
  },
976
  "yi-large": {
977
    "description": "Un modèle de nouvelle génération avec des milliards de paramètres, offrant des capacités de question-réponse et de génération de texte exceptionnelles."
978
  },
979
  "yi-large-fc": {
980
    "description": "Basé sur le modèle yi-large, il prend en charge et renforce les capacités d'appel d'outils, adapté à divers scénarios d'affaires nécessitant la création d'agents ou de workflows."
981
  },
982
  "yi-large-preview": {
983
    "description": "Version préliminaire, il est recommandé d'utiliser yi-large (nouvelle version)."
984
  },
985
  "yi-large-rag": {
986
    "description": "Un service de haut niveau basé sur le modèle yi-large, combinant des techniques de recherche et de génération pour fournir des réponses précises, avec un service de recherche d'informations en temps réel sur le web."
987
  },
988
  "yi-large-turbo": {
989
    "description": "Un excellent rapport qualité-prix avec des performances exceptionnelles. Optimisé pour un équilibre de haute précision en fonction des performances, de la vitesse de raisonnement et des coûts."
990
  },
991
  "yi-medium": {
992
    "description": "Modèle de taille moyenne, optimisé et ajusté, offrant un équilibre de capacités et un bon rapport qualité-prix. Optimisation approfondie des capacités de suivi des instructions."
993
  },
994
  "yi-medium-200k": {
995
    "description": "Fenêtre de contexte ultra longue de 200K, offrant une compréhension et une génération de texte en profondeur."
996
  },
997
  "yi-spark": {
998
    "description": "Petit mais puissant, un modèle léger et rapide. Offre des capacités renforcées en calcul mathématique et en rédaction de code."
999
  },
1000
  "yi-vision": {
1001
    "description": "Modèle pour des tâches visuelles complexes, offrant des capacités de compréhension et d'analyse d'images de haute performance."
1002
  }
1003
}
1004

Использование cookies

Мы используем файлы cookie в соответствии с Политикой конфиденциальности и Политикой использования cookies.

Нажимая кнопку «Принимаю», Вы даете АО «СберТех» согласие на обработку Ваших персональных данных в целях совершенствования нашего веб-сайта и Сервиса GitVerse, а также повышения удобства их использования.

Запретить использование cookies Вы можете самостоятельно в настройках Вашего браузера.