Derrière les 10 milliards de dollars donnés par Jen-Hsun Huang à Nokia : l'ambition de gagner 200 milliards.

Jensen Huang a annoncé lors de la GTC 2025 que NVIDIA investira 1 milliard de dollars dans Nokia pour développer conjointement la technologie AI-RAN, ciblant ainsi le marché RAN de 200 milliards de dollars. (Synopsis : Huida a injecté 1 milliard de dollars dans Nokia pour devenir le plus grand actionnaire !) Nokia a bondi de 21 %, qu’est-ce que Huang Jenxun pense derrière cela ? (Contexte ajouté : Nokia lancera-t-il des téléphones Web3 ? Demander un brevet de cryptage d’actifs numériques, optimiste quant au développement de la blockchain Huang Jenxun a lancé une vague de grands mouvements lors de la GTC 2025. Lors de la GTC 2025, Jensen Huang a annoncé une nouvelle brutale, Nvidia va investir 1 milliard de dollars dans Nokia. Oui, il s’agit de Nokia, la société de téléphonie mobile Symbian qui était populaire dans tout le pays il y a 20 ans. M. Huang a déclaré dans son discours que les réseaux de télécommunications sont en train de passer des architectures traditionnelles aux systèmes natifs de l’IA, et que l’investissement de Nvidia accélérera ce processus. NVIDIA a donc investi dans la création d’une plate-forme d’IA pour les réseaux 6G avec Nokia afin de renforcer l’IA dans les réseaux RAN traditionnels. La forme spécifique d’investissement est la souscription par Nvidia d’environ 166 millions de nouvelles actions de Nokia au prix de 6,01 $ par action, ce qui donnera à Nvidia environ 2,9 % de Nokia. Au moment de l’annonce du partenariat, les actions de Nokia ont augmenté de 21 %, la plus forte hausse depuis 2013. Qu’est-ce que l’AI-RAN ? Le RAN est le réseau d’accès radio, et l’AI-RAN est une nouvelle architecture de réseau qui intègre la puissance de calcul de l’IA directement dans la station de base sans fil. Alors que les systèmes RAN traditionnels sont principalement responsables du transfert de données entre les stations de base et les appareils mobiles, l’AI-RAN ajoute des capacités d’edge computing et de traitement intelligent. Permettez aux stations de base d’appliquer des algorithmes d’IA pour optimiser l’utilisation du spectre et l’efficacité énergétique, améliorant ainsi les performances globales du réseau, tout en exploitant les ressources RAN inactives pour héberger des services d’IA en périphérie qui créent de nouvelles sources de revenus pour les opérateurs. Les opérateurs peuvent exécuter des applications d’IA directement sur site au niveau de la station de base sans avoir à renvoyer toutes les données au centre de données central pour traitement, ce qui réduit considérablement la charge sur le réseau. Huang a donné un exemple, près de 50 % des utilisateurs de ChatGPT sont accessibles via des appareils mobiles, non seulement cela, ChatGPT a plus de 40 millions de téléchargements mobiles mensuels, à l’ère de la croissance explosive des applications d’IA, les systèmes RAN traditionnels ne peuvent pas faire face à l’IA générative et aux réseaux mobiles dirigés par des agents. L’AI-RAN fournit des capacités d’inférence d’IA distribuées à la périphérie pour accélérer la réponse des applications d’IA ultérieures, telles que les agents et les chatbots. Dans le même temps, l’AI-RAN est également prêt pour les applications de détection et de communication intégrées à l’ère de la 6G. Huang a cité le cabinet d’analyse Omdia, qui s’attend à ce que le marché du RAN accumule plus de 200 milliards de dollars d’ici 2030, le segment AI-RAN devant être le segment à la croissance la plus rapide. Justin Hotard, président et chef de la direction de Nokia, a déclaré dans un communiqué conjoint que le partenariat mettra les centres de données d’IA dans les poches de tout le monde et permettra une refonte fondamentale de la 5G à la 6G. En particulier, il a mentionné que Nokia travaille avec trois types d’entreprises différents : Nvidia, Dell et T-Mobile. En tant que l’un des premiers partenaires, T-Mobile effectuera des tests sur le terrain de la technologie AI-RAN à partir de 2026, en mettant l’accent sur la validation des améliorations des performances et de l’efficacité. Justin a déclaré que le test fournira des informations précieuses pour l’innovation 6G, aidant les opérateurs à construire des réseaux intelligents qui s’adaptent aux besoins de l’IA. Basé sur l’AI-RAN, NVIDIA a lancé un nouveau produit appelé Aerial RAN Computer Pro (ARC-Pro), qui est une plate-forme de calcul accéléré préparée pour la 6G. Sa configuration matérielle de base contient les deux GPU de NVIDIA : les GPU Grace et les GPU Blackwell. La plate-forme fonctionne via NVIDIA CUDA, et le logiciel RAN peut être intégré directement dans la pile technologique CUDA. En conséquence, il peut gérer non seulement les fonctions de réseau d’accès radio traditionnelles, mais également exécuter des applications d’IA grand public en même temps. Il s’agit également de l’approche de base de NVIDIA pour mettre en œuvre les deux lettres de l’IA dans AI-RAN. Compte tenu de la longue histoire de CUDA, la plus grande force de la plateforme est la programmabilité. De plus, Huang a également annoncé que le cadre logiciel Aerial sera open source, ce qui devrait être publié sur GitHub sous la licence Apache 2.0 à partir de décembre 2025. La principale différence entre ARC-Pro et son prédécesseur, ARC, réside dans l’endroit où il est déployé et le moment où il est utilisé. Alors que la génération précédente d’ARC était principalement utilisée pour la mise en œuvre centralisée d’un RAN dans le cloud, ARC-Pro peut être déployé directement sur le site de la station de base, ce qui rend les capacités d’edge computing vraiment accessibles. Ronnie Wahita, responsable de l’activité télécommunications de NVIDIA, a déclaré que dans le passé, le RAN et l’IA nécessitaient deux ensembles de matériel différents pour être mis en œuvre, mais qu’ARC-Pro peut allouer dynamiquement des ressources informatiques en fonction des besoins du réseau, soit en donnant la priorité aux fonctions d’accès sans fil, soit en exécutant des tâches d’inférence d’IA pendant les heures d’inactivité. ARC-Pro intègre également la plate-forme NVIDIA AI Aerial : une pile logicielle complète qui comprend le logiciel RAN accéléré par CUDA, les outils de jumeau numérique Aerial Omniverse et le nouveau cadre Aerial Framework. L’Aerial Framework convertit le code Python en code CUDA haute performance qui s’exécute sur la plate-forme ARC-Pro. De plus, la plateforme prend en charge les modèles de réseaux neuronaux pilotés par l’IA pour une estimation avancée des canaux. M. Huang a déclaré que les télécommunications sont le système nerveux numérique de l’économie et de la sécurité. Le partenariat avec Nokia et l’écosystème des télécommunications sera à l’origine de cette révolution, en aidant les opérateurs à construire des réseaux intelligents et adaptatifs qui définiront la prochaine génération de connectivité mondiale. En 2025, Nvidia a vraiment investi beaucoup d’argent. Le 22 septembre, Nvidia et OpenAI ont conclu un partenariat, et Nvidia prévoit d’investir progressivement 100 milliards de dollars dans OpenAI, ce qui accélérera la construction de ses infrastructures. Huang a déclaré qu’OpenAI avait cherché à investir auprès de Nvidia il y a longtemps, mais que la société disposait de fonds limités à l’époque. Il a dit avec humour qu’il était trop pauvre à l’époque et qu’il aurait dû leur donner tout l’argent. Huang pense que la croissance de l’inférence de l’IA n’est pas de 100 ou 1000 fois, mais de 1 milliard de fois. Et la collaboration ne se limite pas au matériel, mais comprend également des optimisations logicielles pour s’assurer qu’OpenAI peut utiliser efficacement les systèmes de NVIDIA. C’est peut-être parce qu’il craignait qu’OpenAI n’abandonne CUDA après avoir appris l’existence de la collaboration entre OpenAI et AMD. Une fois que le plus grand modèle basé sur l’IA au monde n’utilise pas CUDA, il est raisonnable pour les autres grands fournisseurs de modèles de suivre OpenAI. Dans le podcast BG2, Huang prédit qu’OpenAI est susceptible de devenir la prochaine entreprise d’un billion de dollars en termes de capitalisation boursière, avec une croissance record de l’industrie. Il a rejeté la théorie de la bulle d’IA, soulignant que le monde dépense chaque année une somme d’argent pour l’infrastructure de l’IA.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)