À mesure que les applications natives de l’IA s’étendent à un plus grand nombre d’utilisateurs, d’agents et d’appareils, les réseaux de télécommunications deviennent le prochain terrain d’action pour la distribution de l’IA.
Lors de la NVIDIA GTC 2026, les principaux opérateurs aux États-Unis et en Asie ont montré que cette évolution était en cours en annonçant des grilles d’IA — distribuées et interconnectées à l’échelle mondiale Une infrastructure d’IA — en utilisant leur empreinte sur le réseau pour alimenter et monétiser de nouveaux services d’IA sur l’Edge distribué.
Différents opérateurs empruntent des chemins différents. Beaucoup commencent par activer des sites à l’Edge filaires existants en tant que réseaux d’IA qu’ils peuvent monétiser dès aujourd’hui. D’autres exploitent l’ AI-RAN — une technologie qui permet l’intégration complète de l’IA au réseau d’accès radio — comme plateforme de charge de travail et d’inférence à l’Edge sur le même réseau.
Les opérateurs de télécommunications et les fournisseurs de Cloud distribué exploitent l’une des infrastructures les plus vastes au monde : environ 100 000 Data Centers de réseaux distribués dans le monde entier, couvrant des hubs régionaux, des bureaux de commutation mobiles et des bureaux centraux, avec une puissance de réserve suffisante pour offrir plus de 100 gigawatts de nouvelle capacité d’IA au fil du temps.
Les grilles d’IA transforment ces ressources immobilières, cette puissance et cette connectivité existantes en une plateforme de calcul géographiquement distribuée exécutant l’inférence d’IA au plus près des utilisateurs, des appareils et des données, et bénéficiant d’une meilleure adéquation entre la réponse et le coût par jeton. Il ne s’agit pas que d’une mise à niveau de l’infrastructure, mais d’un changement structurel dans la façon dont l’IA est fournie, plaçant les réseaux de télécommunications au centre de la mise à l’échelle de l’IA plutôt que de n’agir que comme transporteurs.
Les opérateurs mondiaux transforment leurs réseaux distribués en grilles d’IA
Avec six opérateurs majeurs, les réseaux d’IA passent du concept à la réalité.
AT&T, leader de l’IoT connecté avec plus de 100 millions de connexions sur des milliers de types d’appareils, s’associe à Cisco et NVIDIA pour créer une grille d’IA pour l’IoT. En exécutant l’IA sur un cœur IoT dédié et en plaçant l’inférence d’IA au plus près du lieu de création des données, AT&T peut prendre en charge des applications critiques en temps réel, telles que les cas d’utilisation de sécurité publique avec Linker Vision, ce qui permet une détection, une alerte et une réponse plus rapides tout en contribuant à maintenir le contrôle des informations sensibles par le client à l’Edge du réseau.
« La mise à l’échelle de services d’IA hautement sécurisés et accessibles pour les entreprises et les développeurs constitue un pilier essentiel de notre stratégie de connectivité IoT », a annoncé Shawn Hakl, Vice-président senior du développement produit chez AT&T Business. « En combinant la connectivité pour entreprise d’AT&T, les capacités de calcul d’IA localisée et la sécurité Zero-Trust, tout en collaborant avec les membres du programme NVIDIA Inception et en exploitant la grille d’IA de Cisco avec l’infrastructure de NVIDIA et la Cisco Mobility Services Platform, nous rapprochons l’inférence d’IA en temps réel de l’endroit où les données sont générées — accélérant la transformation numérique et débloquant de nouvelles opportunités commerciales. »
Comcast transforme l’une des plus grandes empreintes haut débit à faible latence des États-Unis en une grille d’IA pour offrir des expériences hyper-personnalisées en temps réel. En travaillant avec NVIDIA, Decart, Personal AI et HPE, Comcast a démontré que sa grille d’IA maintient la réactivité et l’efficacité économique des agents conversationnels, des médias interactifs et du cloud gaming NVIDIA GeForce NOW, même lors de pics de demande, avec un débit nettement plus élevé et un coût par jeton réduit.
Spectrum dispose de l’infrastructure réseau pour prendre en charge un réseau d’IA couvrant plus de 1 000 Data Centers à l’Edge et des centaines de mégawatts de capacité à moins de 10 millisecondes de 500 millions d’appareils. Le déploiement initial est axé sur le rendu graphique en haute résolution pour la production multimédia à l’aide de GPU distants intégrés à travers le réseau à fibre optique et faible latence de Spectrum.
Akamai crée une grille d’IA distribuée à l’échelle mondiale, étendant l’Akamai Inference Cloud à plus de 4 400 sites à l’Edge avec des milliers de GPU NVIDIA RTX PRO 6000 Blackwell Server Edition. La plateforme d’orchestration de grilles d’IA d’Akamai associe chaque requête au niveau de calcul approprié, ce qui améliore l’économie des jetons pour l’inférence tout en alimentant des expériences d’IA à faible latence et en temps réel pour des applications telles que les jeux, les médias, les services financiers et la vente au détail.
Indosat Ooredoo Hutchison connecte son usine d’IA souveraine à des sites distribués à l’Edge et AI-RAN à travers l’Indonésie pour créer un réseau d’IA au service de l’innovation locale. En lançant Sahabat-AI — une plateforme basée sur Bahasa Indonesia — sur cette grille au sein des frontières indonésiennes, Indosat peut fournir des services d’IA localisés à des centaines de millions d’Indonésiens sur des milliers d’îles, offrant aux développeurs et aux startups locales une plateforme souveraine pour créer des applications d’IA rapides, culturellement pertinentes et conformes dès la conception.
T-Mobile collabore avec NVIDIA pour explorer les applications d’IA à l’Edge à l’aide de GPU NVIDIA RTX PRO 6000 Blackwell Server Edition, afin de démontrer comment les sites de réseaux distribués peuvent prendre en charge les cas d’utilisation émergents d’AI-RAN et d’inférence à l’Edge. Des développeurs tels que LinkerVision, Levatas, Vaidio, Archetype AI et Serve Robotics pilotent déjà des applications de villes intelligentes, industrielles et de vente au détail sur la grille, connectant des caméras, des robots de livraison et des agents à l’échelle de la ville à une intelligence en temps réel à l’Edge du réseau. Cela démontre comment les sites cellulaires et les bureaux de commutation mobiles peuvent traiter des charges de travail distribuées d’IA à l’Edge tout en continuant de fournir une connectivité 5G avancée.
De nouveaux services natifs d’IA sollicitent les grilles d’IA de télécommunications
Les grilles d’IA sont en passe de devenir une base fondamentale pour une nouvelle classe d’applications d’IA native : en temps réel, hyper-personnalisées, simultanées et à haute intensité de jetons.
Persinal AI exploite NVIDIA Riva pour alimenter des agents conversationnels de qualité humaine sur la grille d’IA. En exécutant de petits modèles de langage au plus près des utilisateurs, elle obtient une latence de bout en bout inférieure à 500 millisecondes et un coût par jeton réduit de plus de 50 %, permettant de réaliser des expériences vocales naturelles tout en restant économiquement viables à grande échelle.
Linker Vision transforme les opérations urbaines en exécutant une solution d’ AI vision avec en temps réel sur la grille d’IA. En traitant des milliers de flux de caméras sur les sites distribués à l’Edge, il fournit une latence prévisible pour la détection en direct et les alertes instantanées, permettant de donner vie à des villes plus sûres et plus intelligentes avec une détection des accidents de circulation jusqu’à 10 fois plus rapide, une réponse aux catastrophes 15 fois plus rapide et des alertes en moins d’une minute en cas de comportement dangereux des foules.
Decart redéfinit les médias distribués hyper-personnalisés en intégrant la génération vidéo en temps réel aux réseaux d’IA. En exécutant ses modèles Lucy en périphérie du réseau, elle atteint une latence réseau inférieure à 12 millisecondes, permettant de diffuser des flux vidéo interactifs et des superpositions qui s’adaptent instantanément à chaque spectateur, afin de fournir des expériences vidéo en direct fluides et immersives, même lorsque l’affluence de spectateurs atteint des sommets.
Conception de référence et écosystème de réseau d’IA
Le modèle de référence de NVIDIA AI Grid définit les éléments constitutifs, y compris le calcul accéléré de NVIDIA, la mise en réseau et les plateformes logicielles, pour déployer et orchestrer l’IA sur des sites distribués.
Un écosystème croissant de partenaires full-stack auquel appartiennent Cisco, et des partenaires d’infrastructure tels que HPE, met sur le marché des solutions de réseau d’IA sur des systèmes intégrant NVIDIA RTX PRO 6000 Blackwell Server Edition. Armada, Rafay et Spectro Cloud font partie des partenaires créant un plan de contrôle de réseau d’IA pour orchestrer les charges de travail en toute transparence sur l’infrastructure d’IA distribuée.
« L’IA physique accélère la transition d’une intelligence centralisée à une prise de décision distribuée à l’Edge du réseau », a confié Masum Mir, Vice-président senior et directeur général de l’unité commerciale de la mobilité des fournisseurs chez Cisco. « Notre partenariat avec NVIDIA rassemble la pile complète — des GPU de NVIDIA aux capacités de mise en réseau et de mobilité de Cisco — permettant aux opérateurs d’alimenter des applications critiques, de fournir une inférence en temps réel et de participer à la chaîne de valeur de l’IA. »
Cet écosystème commun aide les opérateurs de télécommunications et les fournisseurs de Cloud distribué à redéfinir leur rôle dans la chaîne de valeur de l’IA — transformant l’Edge du réseau en une couche d’intelligence unifiée qui exécute, fait évoluer et monétise les charges de travail d’IA.
En savoir plus sur la grille d’IA.
