NVIDIA s’associe à Mistral AI pour accélérer le développement d’une nouvelle gamme de modèles ouverts

La nouvelle gamme Mistral 3, qui comprend des modèles de pointe et des modèles compacts, est optimisée pour les plateformes NVIDIA, permettant ainsi à Mistral AI de concrétiser sa vision d'une intelligence distribuée du cloud à l’embarqué.
by Kari Briski

Aujourd’hui, Mistral AI annonce la sortie de la gamme Mistral 3, composée de modèles multilingues et multimodaux open source, optimisés pour les supercalculateurs et les plateformes embarquées de NVIDIA.

Mistral Large 3 est un modèle de type « mixture of experts » (MoE) – au lieu d’activer tous les neurones pour chaque token, il n’active que les parties du modèle qui ont le plus d’impact. Il en résulte une efficacité qui offre une large couverture sans gaspillage, une exactitude sans compromis et rend l’IA d’entreprise non plus seulement envisageable, mais aussi réaliste.

Les nouveaux modèles de Mistral AI offrent une précision et une efficacité de pointe pour l’IA d’entreprise. Ils seront disponibles partout, du cloud au centre de données en passant par l’embarqué, à partir du mardi 2 décembre.

Avec 41 milliards de paramètres actifs, 675 milliards de paramètres au total et une grande fenêtre contextuelle de 256 Ko, Mistral Large 3 offre une large couverture, une efficacité et une adaptabilité pensées pour les charges de travail IA des entreprises.

En combinant les systèmes NVIDIA GB200 NVL72 et l’architecture MoE de Mistral AI, les entreprises peuvent déployer et faire évoluer efficacement des modèles IA massifs, tout en bénéficiant d’un parallélisme avancé et d’optimisations matérielles.

Cette combinaison fait de cette annonce un pas vers l’ère de ce que Mistral AI appelle « l’intelligence distribuée », comblant le fossé entre les avancées de la recherche et les applications concrètes.

L’architecture MoE du modèle libère tout le potentiel de performance du parallélisme d’experts à grande échelle en exploitant le domaine de mémoire cohérent de NVIDIA NVLink et en utilisant des optimisations de parallélisation des experts à grande échelle.

Ces avantages s’ajoutent à NVFP4, un format basse précision maintenant la qualité du résultat, et aux optimisations de NVIDIA Dynamo pour la désagrégation des contextualisation et génération (Prefill-decode Dissagregation), garantissant ainsi des performances optimales pour l’entraînement et l’inférence à grande échelle.

Sur le GB200 NVL72, Mistral Large 3 a atteint un gain de performance 10 fois supérieur à celui de la génération précédente H200. Ce gain générationnel se traduit par une meilleure expérience utilisateur, un coût par token réduit et une efficacité énergétique accrue.

Mistral AI ne se contente pas de repousser l’état de l’art en matière de modèles de langage de pointe, elle a également lancé neuf petits modèles de langage qui aident les développeurs à utiliser l’IA partout.

La suite compacte Ministral 3 est optimisée pour fonctionner sur les plateformes embarquées de NVIDIA, notamment NVIDIA Spark, les PC et ordinateurs portables RTX et les appareils NVIDIA Jetson.

Afin d’offrir des performances optimales, NVIDIA collabore avec les meilleurs frameworks d’IA tels que Llama.cpp et Ollama pour offrir des performances optimales sur les GPU NVIDIA embarquées.

Désormais, les développeurs et les passionnés peuvent essayer la suite Ministral 3 via Llama.cpp et Ollama pour bénéficier d’une IA rapide et efficace à la pointe de la technologie.

La gamme de modèles Mistral 3 est accessible à tous, ce qui permet aux chercheurs et aux développeurs du monde entier d’expérimenter, de personnaliser et d’accélérer l’innovation en matière d’IA, tout en démocratisant l’accès aux technologies de pointe.

En reliant les modèles Mistral AI aux outils open source NVIDIA NeMo pour le développement du cycle de vie des agents IA (Data Designer, Customizer, Guardrails et NeMo Agent Toolkit), les entreprises peuvent personnaliser davantage ces modèles en fonction de leurs propres cas d’utilisation, accélérant le passage du prototype à la production.

Afin d’augmenter le niveau d’efficacité, du cloud à l’embarqué, NVIDIA a optimisé les frameworks d’inférence, notamment NVIDIA TensorRT-LLM, SGLang et vLLM pour la gamme de modèles Mistral 3.

Mistral 3 est disponible dès aujourd’hui sur les principales plateformes open source et chez les principaux fournisseurs de services cloud. De plus, les modèles devraient bientôt pouvoir être déployés en tant que microservices NVIDIA NIM.

Où que l’IA doive aller, ces modèles sont prêts.

Consultez la notice d’information du logiciel.