Alors que l’IA devient de plus en plus complexe, les créateurs de modèles s’appuient sur NVIDIA

Le GPT-5.2 d'OpenAI et d'autres modèles de pointe tirent parti de la pile technologique de NVIDIA pour faire progresser l'IA.
by NVIDIA Writers

En dévoilant ce qu’il décrit comme les séries de modèles les plus performantes à ce jour pour le travail de connaissance professionnel, OpenAI a lancé GPT-5.2 aujourd’hui. Le modèle a été entraîné et déployé sur l’infrastructure NVIDIA, notamment les systèmes NVIDIA Hopper et GB200 NVL72.

GPT-5.2 atteint le meilleur score pour des benchmarks industriels tels que GPQA-Diamond, AIME 2025 et Tau2 Telecom. Sur les principaux benchmarks ciblant les compétences nécessaires pour développer l’AGI, tels que ARC-AGI-2, GPT-5.2 établit la barre pour des performances de pointe.

Il s’agit du dernier exemple de la façon dont les principaux créateurs d’IA s’entraînent et déploient à grande échelle sur l’infrastructure d’IA complète de NVIDIA.

Pré-entraînement : la base de l’intelligence.

Les modèles d’IA deviennent plus capables grâce à trois lois de mise à l’échelle : le pré-entraînement, le post-entraînement et la mise à l’échelle pendant le test.

Les modèles de raisonnement, qui appliquent le calcul pendant l’inférence pour traiter des requêtes complexes à l’aide de plusieurs réseaux travaillant ensemble, sont désormais partout.

Mais le pré-entraînement et le post-entraînement restent la base de l’intelligence. Ils sont essentiels pour rendre les modèles de raisonnement plus intelligents et plus utiles.

Et pour y arriver, il faut une grande échelle. L’entraînement de modèles de pointe à partir de zéro n’est pas une mince affaire.

Il faut des dizaines de milliers, voire des centaines de milliers, de GPU travaillant efficacement ensemble.

Ce niveau d’échelle exige l’excellence dans de nombreuses dimensions. Il nécessite des accélérateurs de pointe, une mise en réseau avancée sur des architectures évolutives, extensibles et de plus en plus interconnectées, ainsi qu’une pile logicielle entièrement optimisée. En bref, une plateforme d’infrastructure spécialement conçue pour offrir des performances à grande échelle.

Par rapport à l’architecture NVIDIA Hopper, les systèmes NVIDIA GB200 NVL72 ont offert des performances d’entraînement 3 fois plus rapides sur le plus grand modèle testé dans les derniers benchmarks industriels MLPerf Training, et des performances par dollar presque 2 fois supérieures.

Le NVIDIA GB300 NVL72 offre une vitesse plus de 4 fois supérieure à celle de NVIDIA Hopper.

Ces gains de performances aident les développeurs d’IA à raccourcir les cycles de développement et à déployer de nouveaux modèles plus rapidement.

Preuve dans les modèles de toutes les modalités.

La majorité des grands modèles linguistiques actuels ont été entraînés sur les plateformes NVIDIA.

L’IA ne concerne pas seulement le texte.

NVIDIA prend en charge le développement de l’IA dans plusieurs modalités, notamment la génération de parole, d’images et de vidéo, ainsi que des domaines émergents tels que la biologie et la robotique.

Par exemple, des modèles tels que l’Evo 2 décodent des séquences génétiques, OpenFold3 prédit des structures protéiques 3D et Boltz-2 simule les interactions médicamenteuses, aidant les chercheurs à identifier plus rapidement des candidats prometteurs.

Du côté clinique, les modèles de synthèse NVIDIA Clara génèrent des images médicales réalistes pour le dépistage et le diagnostic avancés sans exposer les données des patients.

Des entreprises telles que Runway et Inworld s’entraînent sur l’infrastructure NVIDIA.

La semaine dernière, Runway a annoncé Gen-4.5, un nouveau modèle de génération vidéo de pointe qui est actuellement le modèle vidéo le plus noté au monde, selon le classement de l’analyse artificielle.

Désormais optimisé pour NVIDIA Blackwell, Gen-4.5 a été entièrement développé sur des GPU NVIDIA pour la recherche et le développement initiaux, le pré-entraînement, le post-entraînement et l’inférence.

Runway a également annoncé GWM-1, un modèle de monde général de pointe entraîné sur NVIDIA Blackwell et conçu pour simuler la réalité en temps réel. Il est interactif, contrôlable et polyvalent, avec des applications dans les jeux vidéo, l’éducation, la science, le divertissement et la robotique.

Les benchmarks montrent pourquoi.

MLPerf est la référence standard du secteur pour les performances d’entraînement. Lors du dernier cycle, NVIDIA a soumis des résultats sur les sept benchmarks MLPerf Training 5.1, montrant d’excellentes performances et une polyvalence. C’était la seule plateforme à être présentée dans toutes les catégories.

La capacité de NVIDIA à prendre en charge diverses charges de travail d’IA aide les centres de données à utiliser les ressources plus efficacement.

C’est pourquoi des laboratoires d’IA tels que Black Forest Labs, Cohere, Mistral, OpenAI, Reflection et Thinking Machines Lab s’entraînent tous sur la plateforme NVIDIA Blackwell.

NVIDIA Blackwell dans les Clouds et les Data Centers

NVIDIA Blackwell est largement disponible auprès des principaux fournisseurs de services cloud, des néo-clouds et des fabricants de serveurs.

NVIDIA Blackwell Ultra, qui offre des améliorations supplémentaires en matière de calcul, de mémoire et d’architecture, est désormais déployé par des fabricants de serveurs et des fournisseurs de services cloud.

Les principaux fournisseurs de services cloud et les partenaires cloud de NVIDIA, notamment Amazon Web Services, CoreWeave, Google Cloud, Lambda, Microsoft Azure, Nebius, Oracle Cloud Infrastructure et Together AI, pour n’en nommer que quelques-uns, offrent déjà des instances basées sur NVIDIA Blackwell, garantissant des performances évolutives alors que la mise à l’échelle du pré-entraînement se poursuit.

Des modèles de pointe à l’IA quotidienne, l’avenir est construit sur NVIDIA.

En savoir plus sur la plateforme NVIDIA Blackwell.