CoreWeave est devenu aujourd’hui l’un des premiers fournisseurs de Cloud à exploiter des systèmes NVIDIA GB200 NVL72 à grande échelle pour les clients. Les entreprises d’IA de pointe Cohere, IBM et Mistral AI les utilisent déjà pour entraîner et déployer des modèles et des applications d’IA de nouvelle génération.
CoreWeave, le premier fournisseur de services Cloud à mettre des GPU NVIDIA Grace Blackwell à la disposition du public, a déjà obtenu des résultats incroyables sur des benchmarks MLPerf avec NVIDIA GB200 NVL72, une puissante plateforme de calcul accéléré à l’échelle du rack conçue pour le raisonnement et les agents d’IA. Les clients de CoreWeave ont désormais accès à des milliers de GPU NVIDIA Blackwell.
« Nous travaillons en étroite collaboration avec NVIDIA pour fournir rapidement aux clients les solutions les plus récentes et les plus puissantes pour l’entraînement de modèles d’IA et les services d »inférence », explique Mike Intrator, PDG de CoreWeave. « Grâce aux nouveaux systèmes Grace Blackwell à l’échelle du rack, nombre de nos clients seront les premiers à découvrir les avantages et les performances des innovateurs de l’IA à grande échelle. »

La mise en service pour les clients de fournisseurs de services Cloud tels que CoreWeave est en cours. Les systèmes qui s’appuient sur le GPU NVIDIA Grace Blackwell sont en production et transforment les Data Centers du Cloud en usines d’IA capables de fournir des renseignements à grande échelle et de convertir les données brutes en informations en temps réel avec rapidité, précision et efficacité.
Les principales entreprises d’IA du monde entier mettent désormais en œuvre les capacités de GB200 NVL72 dans des applications d’IA, l’IA agentique et le développement de modèles de pointe.
Agents d’IA personnalisés
Cohere utilise ses superpuces Grace Blackwell pour aider à développer des applications d’IA d’entreprise sécurisées qui s’appuient sur des techniques de recherche et de développement de modèles de pointe. Sa plateforme d’IA d’entreprise, North, permet aux équipes de développer des agents d’IA personnalisés permettant d’automatiser en toute sécurité les workflows d’entreprise, de faire émerger des informations en temps réel, et bien plus encore.
Grâce à NVIDIA GB200 NVL72 sur CoreWeave, Cohere bénéficie déjà de performances jusqu’à 3 fois supérieures à celles des GPU NVIDIA Hopper de la génération précédente dans l’entraînement de modèles à 100 milliards de paramètres, et ce, même sans optimisation spécifique des GPU Blackwell.
Grâce à d’autres optimisations tirant parti de la grande mémoire unifiée de GB200 NVL72, de la précision FP4 et d’un domaine NVIDIA NVLink à 72 GPU (chaque GPU étant connecté aux autres pour fonctionner de concert), Cohere bénéficie d’un débit considérablement plus élevé tout en réduisant les délais d’obtention des premiers jetons et des suivants, offrant ainsi une inférence plus performante et plus rentable.
« Grâce à notre accès à certains des premiers systèmes NVIDIA GB200 NVL72 dans le Cloud, nous sommes satisfaits de la facilité avec laquelle nos charges de travail peuvent être transférées sur l’architecture NVIDIA Grace Blackwell », explique Autumn Moulder, vice-présidente de l’ingénierie chez Cohere. « Cela nous permet d’accroître considérablement l’efficacité des performances sur l’ensemble de notre pile, qu’il s’agisse de notre application spécialisée North intégrée qui s’exécute sur un seul GPU Blackwell ou de la mise à l’échelle des tâches d’entraînement sur des milliers d’entre eux. Nous sommes impatients d’atteindre des performances encore supérieures grâce à d’autres optimisations prévues prochainement. »
Modèles d’IA pour les entreprises
IBM utilise un des premiers déploiements de systèmes NVIDIA GB200 NVL72, pouvant atteindre des milliers de GPU Blackwell sur CoreWeave, pour entraîner ses modèles Granite de nouvelle génération, une série de modèles d’IA à code source ouvert prêts pour l’entreprise. Les modèles Granite offrent des performances de pointe tout en maximisant la sécurité, la vitesse et la rentabilité. La famille de modèles Granite est prise en charge par un robuste écosystème de partenaires qui inclut les principales entreprises de logiciels qui intègrent de grands modèles de langage à leurs technologies.
Les modèles Granite sont à la base de solutions telles qu’IBM watsonx Orchestrate, qui permet aux entreprises de créer et de déployer de puissants agents d’IA qui automatisent et accélèrent les workflows dans l’ensemble de l’entreprise.
Le déploiement NVIDIA GB200 NVL72 de CoreWeave pour IBM permet également d’exploiter IBM Storage Scale System, qui offre un stockage hautes performances exceptionnel destiné à l’IA. Les clients de CoreWeave peuvent accéder à la plateforme de stockage d’IBM au sein des environnements dédiés et de la plateforme Cloud d’IA de CoreWeave.
« Nous sommes enthousiasmés par l’accélération que NVIDIA GB200 NVL72 peut apporter à l’entraînement de notre famille de modèles Granite », déclare Sriram Raghavan, vice-président de l’IA chez IBM Research. « Cette collaboration avec CoreWeave va renforcer les capacités d’IBM et contribuera à développer des modèles avancés, hautes performances et rentables permettant d’alimenter les applications d’entreprise et d’IA agentique avec IBM watsonx. »
Ressources de calcul à grande échelle
Mistral AI dispose désormais de ses mille premiers GPU Blackwell pour développer la nouvelle génération de modèles d’IA open source.
Mistral AI, société parisienne leader de l’IA open source, utilise l’infrastructure de CoreWeave, désormais équipée de GB200 NVL72, pour accélérer le développement de ses modèles de langage. Mistral a besoin de ressources informatiques rapides et évolutives pour offrir de puissantes capacités de raisonnement avec des modèles tels que Mistral Large.
Pour entraîner et déployer efficacement ces modèles, Mistral AI a besoin d’un fournisseur Cloud offrant de grands clusters de GPU hautes performances, un réseau NVIDIA Quantum InfiniBand et une gestion fiable de l’infrastructure. L’expérience de CoreWeave en matière de déploiement de GPU NVIDIA à grande échelle et offrant une fiabilité et une résilience de pointe grâce à des outils tels que CoreWeave Mission Control répondait à ces exigences.
« Nous avons immédiatement constaté une amélioration de 200 % des performances d’entraînement de modèles denses dès l’installation et sans aucune optimisation supplémentaire », explique Timothée Lacroix, cofondateur et directeur de la technologie chez Mistral AI. « Les nouvelles possibilités qu’offre NVIDIA GB200 NVL72 en matière de développement de modèles et d’inférence sont très prometteuses. »
Un nombre croissant d’instances Blackwell
Outre ses solutions client à long terme, CoreWeave offre des instances avec NVIDIA NVLink à l’échelle du rack sur 72 GPU NVIDIA Blackwell et 36 CPU NVIDIA Grace, pouvant atteindre 110 000 GPU avec un réseau NVIDIA Quantum-2 InfiniBand.
Ces instances sont accélérées par la plateforme de calcul accéléré à l’échelle du rack NVIDIA GB200 NVL72 et fournissent l’évolutivité et les performances nécessaires pour développer et déployer la nouvelle génération de modèles et d’agents de raisonnement basés sur l’IA.