Le succès alimenté par l'électricité industrielle : Comment la Chine réalise son indépendance en matière d'intelligence artificielle

Il y a huit ans, l’histoire de ZTE était une leçon amère sur la dépendance à la technologie étrangère. Le 16 avril 2018, l’interdiction américaine a suspendu immédiatement ses opérations, laissant une entreprise de 80 000 employés et un chiffre d’affaires annuel dépassant un billion de yuans complètement paralysée. Aujourd’hui, après huit ans, l’industrie raconte une toute autre histoire. En février 2026, DeepSeek a annoncé un modèle multimédia entièrement basé sur des puces locales chinoises, réalisant pour la première fois une solution intégrée indépendante de NVIDIA. Ce changement n’était pas une coïncidence, mais le fruit d’une stratégie globale combinant innovations en algorithmes, en puces, et surtout : une abondance d’électricité industrielle.

Surmonter le blocus : de la domination de CUDA à l’autoproduction

Le vrai problème rencontré par les entreprises chinoises d’IA n’était pas seulement les puces, mais aussi la plateforme CUDA de NVIDIA. Lancée en 2006, cette plateforme est devenue la colonne vertébrale de toute l’industrie mondiale de l’IA. En 2025, elle comptait 4,5 millions de développeurs liés, et plus de 90 % des chercheurs en IA mondiaux travaillaient dans cet environnement.

Le cœur du problème : CUDA est une roue auto-accélérante : plus il y a d’utilisateurs, plus les outils et bibliothèques prospèrent, attirant encore plus de développeurs. Avec le temps, se détourner de CUDA nécessitait de réécrire des décennies d’expertise et de code accumulés.

Mais les trois vagues de restrictions américaines entre 2022 et 2024 ont forcé les entreprises chinoises à emprunter une voie plus difficile. Elles ont choisi une voie indirecte, qui a commencé par les algorithmes plutôt que par les puces.

La nouvelle équation : optimiser les algorithmes et l’efficacité économique

De fin 2024 à 2025, les entreprises chinoises d’IA ont massivement adopté la technique des modèles experts mixtes (MoE). Au lieu de déployer un modèle massif complet, la tâche est répartie entre plusieurs petits experts, réduisant drastiquement la consommation de ressources.

DeepSeek V3 illustre parfaitement cette approche : 671 milliards de paramètres, mais seulement 37 milliards activés (5,5 %) lors de l’inférence. Le coût d’entraînement : 5,576 millions de dollars avec 2048 unités GPU H800 pendant 58 jours, contre 78 millions pour GPT-4.

Mais la véritable révolution réside dans le prix. L’API de DeepSeek coûte 0,028 dollar par million de tokens d’entrée, contre 5 dollars pour GPT-4 et 15 dollars pour Claude Opus. Un écart de facteur 25 à 75.

Ce différentiel en efficacité économique n’était pas qu’une question de chiffres ; c’était une transformation du marché. Alors que l’IA passait de conversations simples à des agents intelligents (consommant 10 à 100 fois plus de tokens), le prix devenait un facteur stratégique crucial. En février 2026, l’utilisation des modèles chinois sur OpenRouter a augmenté de 127 % en trois semaines.

Les puces locales : du simple inférence à l’entraînement

Mais réduire uniquement le coût de l’inférence ne suffit pas. Le vrai défi est la capacité à entraîner en continu sur de nouvelles données. C’est ici que les puces locales entrent en scène.

En 2025, une entreprise chinoise a ouvert une ligne de fabrication informatique de 148 mètres dans une petite ville, pour produire des serveurs de calcul, utilisant entièrement le processeur Loongson 3C6000 et la carte Taichu Yuanqi locale. La capacité prévue : 100 000 unités par an, avec un investissement de 1,1 milliard de yuans.

L’étape clé : ces puces sont passées du stade « capacité d’inférence » à celui « d’entraînement ». En janvier 2026, Zhipu AI a lancé le modèle GLM-Image, premier modèle avancé de génération d’images entièrement entraîné sur des puces chinoises. En février, un modèle « étoile » massif pour la communication chinoise a été entraîné sur une architecture de calcul chinoise comportant des dizaines de milliers d’unités de traitement.

Ce changement de paradigme : l’entraînement nécessite de traiter d’énormes volumes de données et des calculs complexes, multipliant par dix les exigences en puissance de calcul, bande passante et environnement logiciel par rapport à l’inférence seule.

Le processeur Huawei Ascend est devenu la colonne vertébrale de ce système. Fin 2025, plus de 4 millions de développeurs travaillaient sur l’écosystème Ascend, avec plus de 3000 partenaires et 43 modèles principaux entraînés.

La véritable base : électricité industrielle et stabilité géopolitique

Si les algorithmes représentent l’intelligence et les puces la musculature, alors l’électricité industrielle est le sang qui alimente tout le processus. C’est ici que réside le plus grand avantage stratégique de la Chine.

En 2024, les centres de données américains ont consommé 183 térawattheures d’électricité, soit 4 % de la consommation nationale totale. D’ici 2030, cette consommation devrait doubler pour atteindre 426 térawattheures, représentant près de 12 % de la consommation totale. Le PDG d’ARM prévoit que d’ici 2030, les centres de données IA absorberont entre 20 et 25 % de l’électricité américaine.

Problème : le réseau électrique américain est déjà sous tension. La région PJM à l’est manque de capacité de 6 GW. Les États-Unis anticipent un déficit de 175 GW d’ici 2033, soit la consommation de 130 millions de foyers. Le coût de l’électricité en gros dans les zones concentrant les centres de données a augmenté de 267 % en cinq ans.

En revanche, la Chine dispose d’une capacité électrique 2,5 fois supérieure à celle des États-Unis : 10,4 térawattheures par an contre 4,2. Plus important encore, la consommation domestique ne représente que 15 % de la consommation totale, contre 36 % aux États-Unis. Cela signifie une énorme capacité industrielle disponible.

En termes de prix, le coût de l’électricité dans les zones concentrant les entreprises d’IA américaines oscille entre 0,12 et 0,15 dollar par kilowattheure. En revanche, en Chine occidentale, l’électricité industrielle coûte environ 0,03 dollar — soit un quart à un cinquième du coût américain.

Cet écart colossal permet à la Chine de construire une infrastructure informatique à coût réduit. ByteDance, Tencent, Baidu multiplient leurs investissements dans les serveurs locaux en 2026. La puissance de calcul intelligente chinoise a déjà atteint 1590 EFLOPS.

Expansion mondiale : de la fabrication à l’exportation de tokens

Alors que les États-Unis font face à une crise énergétique, l’IA chinoise s’étend discrètement à l’échelle mondiale. Mais cette fois, ce qui est exporté n’est pas le produit ou la fabrication, mais les tokens — unités de données traitées par les modèles d’IA.

DeepSeek raconte cette histoire : 30,7 % de ses utilisateurs sont en Chine, 13,6 % en Inde, 6,9 % en Indonésie, 4,3 % aux États-Unis. Il supporte 37 langues et domine les marchés émergents comme le Brésil. 26 000 entreprises mondiales ont des comptes, 3 200 institutions ont déployé des versions d’entreprise.

En Chine même, DeepSeek détient 89 % de parts de marché. Dans les pays sous sanctions, sa part oscille entre 40 et 60 %. En 2025, 58 % des startups mondiales d’IA ont intégré DeepSeek dans leur infrastructure technologique.

Les marchés émergents, motivés par la nécessité d’efficacité économique, se tournent vers les modèles chinois. C’est un vide structurel très rare : un marché en quête d’une alternative à NVIDIA sous la pression géopolitique.

Leçon du Japon et voie différente pour la Chine

En 1986, le Japon a signé un accord sur les semi-conducteurs avec les États-Unis. Résultat : catastrophe. La part de marché du Japon dans la DRAM est passée de 80 % à 10 %. En 2017, il ne représentait plus que 7 % du marché des circuits intégrés.

La différence cruciale : le Japon s’est contenté d’être le meilleur dans un écosystème dominé par une puissance extérieure. Il n’a jamais construit un écosystème indépendant.

La Chine a choisi un chemin plus difficile mais plus durable : des améliorations extrêmes des algorithmes, la montée en puissance locale des puces, passant de l’inférence à l’entraînement, accumulant 4 millions de développeurs dans l’écosystème Ascend, et enfin, une expansion mondiale des tokens dans les marchés émergents et mondiaux. Chaque étape a construit un système industriel indépendant que le Japon n’a jamais possédé.

Le prix et la vraie guerre

Le 27 février 2026, trois entreprises chinoises de puces ont publié leurs résultats le même jour :

  • Kimotech : +453 % de revenus, premier bénéfice annuel
  • Moistech : +243 %, perte nette de 1 milliard
  • Moxtech : +121 %, perte nette de 800 millions

Une moitié de feu, une moitié d’eau. Le feu, c’est la soif démesurée du marché. Le vide de 95 % laissé par NVIDIA est peu à peu comblé par des chiffres locaux.

L’eau, c’est le coût énorme pour bâtir l’écosystème — chaque perte étant une somme réelle à payer : investissements en R&D, support logiciel, heures d’ingénieurs envoyés pour résoudre les incompatibilités. Ce n’est pas une mauvaise gestion, mais la « taxe de guerre » nécessaire pour bâtir un système indépendant.

Ces trois rapports financiers illustrent la réalité brutale de la guerre pour la puissance de calcul — pas une victoire inspirante, mais une bataille acharnée, sanglante, livrée sur la ligne de front.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler