Cet article examine la manière dont la normalisation des caractéristiques de l’IA dans deux pays, à travers une comparaison, façonne la reconstruction des infrastructures standardisées, modifiant ainsi fondamentalement la logique d’évaluation des entreprises d’IA.
Ces dernières années, le développement rapide de la technologie de l’intelligence artificielle (IA) l’a propulsée du laboratoire à une application commerciale dans divers secteurs. Cependant, derrière cette euphorie technologique, la logique d’évaluation des entreprises d’IA fait l’objet de débats depuis longtemps, le marché étant souvent porté par une vision optimiste de l’avenir. À mesure que l’application de la technologie s’approfondit, les risques et incertitudes deviennent plus apparents, poussant les décideurs politiques, les régulateurs et les investisseurs à rechercher des voies de développement plus sûres et durables.
Dans ce contexte, les régulateurs et l’industrie en Chine et aux États-Unis se tournent unanimement vers la normalisation de l’IA et la gestion des risques. Il est clair que la normalisation devient un moteur clé pour faire passer l’industrie de l’« storytelling » à une « action concrète ».
Caractéristiques de la normalisation de la terminologie et de la gestion des risques de l’IA aux États-Unis
Le Département du Trésor américain a récemment publié deux nouvelles ressources pour guider l’application de l’IA dans le secteur financier : un dictionnaire partagé de l’IA et un cadre de gestion des risques pour l’IA dans les services financiers (FSAIRMF). Cette initiative soutient le « Plan d’action pour l’IA » du président, qui appelle à établir des normes claires, une compréhension partagée et une gouvernance basée sur les risques, afin d’assurer un déploiement sûr et responsable de l’IA.
« La mise en œuvre du plan d’action pour l’IA du président nécessite non seulement des déclarations idéalisées, mais aussi des ressources concrètes que les institutions peuvent utiliser », a déclaré le vice-ministre du Trésor Derrick Thaler. « En établissant un langage commun pour l’IA et un cadre de gestion des risques pour l’IA dans les services financiers, ces livrables aident à protéger les consommateurs tout en soutenant une innovation responsable. »
Les États-Unis montrent une approche pragmatique et une gouvernance collaborative dans la promotion de la normalisation de l’IA, notamment dans des domaines clés comme la finance. Leur objectif est de transformer la stratégie nationale macro en directives opérationnelles concrètes pour les acteurs, tout en encourageant l’innovation et en maintenant la sécurité et la stabilité.
D’abord, la publication du « dictionnaire partagé de l’IA » marque une étape cruciale dans la résolution des problèmes fondamentaux de gouvernance de l’IA. Depuis longtemps, les termes utilisés dans le domaine de l’IA varient selon les disciplines, les contextes d’application et les parties prenantes. Par exemple, « explicabilité du modèle » pour les développeurs, « transparence algorithmique » pour la conformité légale, ou « logique décisionnelle » pour les opérations, désignent souvent des aspects différents. Cette incohérence entrave la communication intersectorielle et complique la régulation. Le dictionnaire de l’IA du Département du Trésor vise à briser cette « tour de Babel » en proposant des définitions officielles et unifiées pour les concepts clés, capacités et catégories de risques liés à l’IA. Cela permet une « résonance » entre régulateurs, experts techniques, juristes et dirigeants d’entreprise, facilitant une compréhension commune et une application cohérente, notamment dans le secteur financier.
Ensuite, le « cadre de gestion des risques pour l’IA dans les services financiers » s’appuie sur ce langage commun pour constituer un « manuel d’utilisation ». Il ne s’agit pas de repartir de zéro, mais d’adapter et de préciser le cadre de gestion des risques macro publié par l’Institut national des normes et de la technologie (NIST), afin qu’il corresponde aux spécificités du secteur financier. Ce cadre couvre tout le cycle de vie de l’IA — conception, développement, validation, déploiement, surveillance et mise à jour — en guidant les institutions pour identifier les scénarios d’application, évaluer les risques potentiels, et intégrer la responsabilité, la transparence et la résilience opérationnelle à chaque étape. Sa conception flexible et évolutive permet d’être appliqué aussi bien par de petites fintech que par de grandes banques multinationales, avec des outils simplifiés ou des architectures complexes selon les besoins. Cette approche « sur mesure » favorise une adoption large dans l’industrie.
Enfin, la promotion de la normalisation de l’IA aux États-Unis se caractérise par une « coopération public-privé » et une gouvernance multi-acteurs. Que ce soit le dictionnaire ou le cadre de gestion des risques, leur développement ne relève pas d’un monopole réglementaire, mais d’une collaboration entre la Financial and Banking Information Infrastructure Committee, le comité de coordination des services financiers, le groupe d’exécution de l’IA, et d’autres acteurs privés comme l’Institute of Network Security. La reconnaissance par l’industrie, notamment par des institutions telles que l’Institute of Network Security, témoigne de l’acceptation du cadre. Ce mode de co-construction garantit que les normes reflètent à la fois les préoccupations de sécurité et de stabilité réglementaire, tout en tenant compte de l’efficacité et des coûts pour l’industrie. L’objectif final est de « soutenir une adoption plus rapide et plus large de l’IA dans la finance », en renforçant la cybersécurité et la résilience opérationnelle, plutôt que d’ériger des obstacles.
Caractéristiques de la terminologie et du cadre de gestion des risques de l’IA en Chine
La Chine dispose d’un système officiel de terminologie et d’un cadre de gouvernance/risk management pour l’IA, comparable à celui du Département du Trésor américain, avec une architecture multi-niveaux et un processus complet. Son approche se résume à « promouvoir le développement par la normalisation, assurer la sécurité par la réglementation », visant à établir une position dominante dans la compétition mondiale de l’IA et à garantir un développement sain et ordonné de l’industrie nationale.
Les principaux éléments s’appuient sur la norme nationale « Terminologie de l’intelligence artificielle » (GB/T 41867-2022) et le « Cadre de gouvernance de la sécurité de l’IA » (version 2.0, prévue pour 2025). Ces documents sont complétés par la norme « Évaluation des capacités de gestion des risques de l’IA » (GB/T 46347-2025), qui définit la classification des capacités, les processus d’évaluation et les lignes directrices de conformité. Par ailleurs, le « Règlement provisoire sur la gestion des services d’IA générative » (2023) impose des exigences obligatoires en matière d’évaluation de sécurité, d’enregistrement, de modération de contenu et de conformité des données. Des normes de bonnes pratiques, notamment dans les secteurs financier, médical et éducatif, complètent ce cadre.
Comparé à l’approche pragmatique et sectorielle des États-Unis, la Chine privilégie une conception plus stratégique, plus rapide dans la mise en œuvre, et plus étroitement liée à la stratégie nationale.
D’abord, en matière de normalisation terminologique, la Chine adopte une stratégie « systématique et prospective ». Sous la direction du Comité national de normalisation, elle accélère la construction d’un système de normes couvrant les concepts fondamentaux, les technologies de base, les produits, les applications industrielles et la gestion de la sécurité. Par exemple, la norme nationale « Terminologie de l’IA » vise à fournir un langage commun de base pour tout le domaine.
Contrairement à l’approche américaine centrée sur un dictionnaire spécifique à la finance, la normalisation chinoise vise une vision globale, en clarifiant dès la racine les concepts fondamentaux, la classification technologique et les étapes de développement de l’IA. Cette démarche offre l’avantage de poser une « base » unifiée pour la création de normes sectorielles ultérieures, évitant contradictions et conflits entre standards, et illustrant la capacité de la Chine à « concentrer ses efforts pour réaliser de grandes choses ». En outre, ces normes sont conçues en suivant de près les tendances internationales, afin d’intégrer la pratique chinoise dans le cadre mondial et d’accroître son influence dans la gouvernance globale de l’IA.
Ensuite, en matière de gestion des risques, la Chine privilégie une approche « éthique d’abord, sécurité avant tout ». Son cadre de gouvernance est fortement influencé par les lois sur la cybersécurité, la protection des données et la vie privée. Les agences telles que le Cyberspace Administration, le Ministère de l’Industrie et des Technologies de l’Information, ou le Ministère de la Sécurité Publique ont publié une série de réglementations sur les algorithmes, la synthèse profonde, l’IA générative, etc., formant une matrice réglementaire à plusieurs niveaux. Par exemple, la gestion des services d’IA générative impose des enregistrements d’algorithmes, des évaluations de sécurité, et une responsabilité sur la légalité des données, l’équité des algorithmes et la véracité du contenu généré.
Ce mode de régulation, plus contraignant que le modèle américain basé sur l’auto-évaluation et la gouvernance interne, définit des « lignes rouges » pour le développement de l’IA, notamment en matière de sécurité des données, de sécurité idéologique et de protection des droits civiques. La gestion des risques en Chine fonctionne davantage comme une « contrainte externe » obligeant les entreprises à établir des systèmes internes de gestion des risques pour satisfaire aux exigences réglementaires.
Enfin, la normalisation en Chine est étroitement liée au développement industriel et à la réalisation des objectifs stratégiques nationaux. La standardisation est vue comme une infrastructure clé pour favoriser l’intégration de l’IA dans l’économie réelle et soutenir une croissance de haute qualité. Par exemple, dans le secteur financier, le « Plan de développement de la fintech » de la Banque populaire de Chine insiste sur l’amélioration de l’offre de normes pour l’IA appliquée à la finance, notamment en matière de gestion des risques, de marketing intelligent et de service client. Ces normes visent à réduire les coûts de coopération dans la chaîne de valeur, à accélérer la mise en œuvre de l’IA dans la finance, et à transformer les innovations technologiques en normes industrielles, consolidant ainsi la position des grandes entreprises technologiques.
Comparaison des infrastructures de normalisation de l’IA entre la Chine et les États-Unis
Malgré une conscience partagée de l’importance de la normalisation de l’IA et des efforts actifs dans les deux pays, leurs trajectoires de développement diffèrent nettement en raison de différences fondamentales dans leurs systèmes politiques, leur environnement de marché, leur culture d’innovation et leurs philosophies de régulation.
Du point de vue de la conception stratégique et de la dynamique sous-jacente, la Chine privilégie un modèle « dirigé par le gouvernement, de haut en bas ». La planification stratégique nationale pour l’IA est claire, et la normalisation y joue un rôle clé, coordonnée par le Comité national de normalisation, avec une forte implication des ministères. La priorité est donnée à des normes alignées sur la politique industrielle et la recherche technologique, avec une forte directive et une forte obligation. Ce modèle offre une grande efficacité et une forte capacité d’exécution, permettant de bâtir rapidement un système de normes étendu.
En revanche, la normalisation de l’IA aux États-Unis repose sur un modèle « du marché, de bas en haut ». Le rôle du gouvernement est davantage celui de « facilitateur » et de « promoteur », en publiant des lignes directrices, des cadres et des bonnes pratiques, pour encourager l’auto-organisation de l’industrie. La co-construction, la négociation et la participation de multiples acteurs sont essentielles. Le processus de développement du FS AI RMF illustre cette approche, qui privilégie des recommandations plutôt que des règlements contraignants. Ce mode offre une plus grande flexibilité et une meilleure adaptation, mais peut aussi entraîner une fragmentation des standards, nécessitant une coordination gouvernementale pour leur harmonisation.
Concernant le contenu central des normes, la Chine insiste fortement sur la « sécurité contrôlable » et « l’éthique conforme » dans son système de normes, notamment dans la gestion des risques. Cela découle de l’importance accordée à la cybersécurité, à la souveraineté des données et à la stabilité sociale. Les normes imposent des exigences strictes sur la légalité des données, l’équité des algorithmes, la véracité du contenu, et la responsabilité du système, en lien étroit avec des lois supérieures telles que la Loi sur la cybersécurité, la Loi sur la sécurité des données et la Loi sur la protection des informations personnelles. La régulation privilégie une approche « réglementaire préalable » et « conformité en amont ».
Aux États-Unis, la gestion des risques de l’IA, tout en étant attentive à la sécurité et à l’équité, repose principalement sur une logique « basée sur le risque » et une auto-gouvernance. Elle vise à aider les entreprises à identifier, évaluer et gérer leurs risques opérationnels, réputationnels et de conformité, en fonction de leurs préférences et de leurs scénarios d’application. La norme n’est pas une règle rigide, mais un cadre dynamique, permettant une gestion continue et adaptative, qui privilégie la confiance dans la capacité des acteurs à s’autoréguler.
En termes d’interaction entre normes et industrie, la Chine voit la normalisation comme un levier pour « tirer » le développement industriel, en impliquant fortement les grandes entreprises technologiques dans la définition des standards, ce qui leur permet de renforcer leur position et de diffuser leurs innovations. La norme devient un catalyseur pour la diffusion technologique et la croissance à grande échelle.
Aux États-Unis, la norme sert plutôt à « résumer » et « élever » les bonnes pratiques industrielles. Le cadre FS AI RMF intègre largement l’expérience pratique des institutions financières et des entreprises technologiques, assurant une mise à jour constante avec l’état de l’art. Cela évite que la norme devienne obsolète, mais peut aussi entraîner une fragmentation, nécessitant une coordination pour une cohérence globale.
Sur le plan de l’influence internationale, la Chine cherche à exporter ses standards via des plateformes comme l’ISO/IEC JTC 1/SC 42, tandis que les États-Unis, avec leur position dominante dans la technologie mondiale, utilisent des cadres comme celui du NIST pour influencer la gouvernance globale. La compétition entre ces deux approches pourrait façonner un paysage où deux grands systèmes de normes coexistent, avec des interactions limitées mais concurrentielles.
Impact de la promotion des infrastructures de normalisation sur le développement industriel et la logique d’évaluation
Que ce soit par une approche systématique chinoise ou par une démarche consensuelle américaine, une chose est certaine : la maturation progressive des infrastructures de normalisation de l’IA modifie profondément la trajectoire de développement de l’industrie, en remplaçant la logique spéculative et « storytelling » qui alimentait autrefois les évaluations par une approche basée sur des critères concrets, mesurables et vérifiables.
La normalisation réduit considérablement les coûts de transaction et les barrières à l’entrée dans l’industrie de l’IA, favorisant une application ubiquitaire dans l’économie. Des standards unifiés pour la terminologie et les interfaces permettent aux composants d’IA de différentes entreprises d’être combinés et déployés facilement. Ce mode « plug-and-play » accélère la transition de l’IA du laboratoire à la production, aux champs, aux banques, etc. La priorité passe de « comment créer de l’IA » à « comment l’utiliser efficacement ».
Cela implique que les entreprises disposant uniquement de compétences en algorithmes, sans compréhension approfondie des secteurs ou capacité à appliquer concrètement leurs solutions, verront leur valeur réévaluée à la baisse. À l’inverse, celles qui intègrent la compréhension sectorielle, combinée à des standards d’IA, pour créer des solutions à forte valeur ajoutée, seront favorisées.
Ensuite, la mise en place de cadres de gestion des risques fournit une grille d’évaluation de la « santé » des entreprises d’IA. Auparavant, cette évaluation était souvent vague et subjective. Aujourd’hui, avec des cadres comme le FS AI RMF ou les exigences réglementaires en Chine, il devient possible d’évaluer la capacité d’une entreprise à assurer une opération durable, en analysant des dimensions telles que la biaisabilité des modèles, la légalité des données, la transparence des décisions, ou la gestion du cycle de vie de l’IA.
Les investisseurs s’intéressent désormais à des questions telles que : le modèle d’IA de l’entreprise présente-t-il des risques de biais ? La provenance des données est-elle légale et conforme ? La décision du modèle est-elle explicable ? L’entreprise a-t-elle mis en place une gestion des risques couvrant tout le cycle de vie de l’IA ? Ces « soft skills » autrefois négligés deviennent des facteurs clés de succès. Une entreprise capable d’assurer la confidentialité des données, l’équité des algorithmes et la sécurité du système, tout en fournissant des services efficaces, aura une meilleure résilience et une valorisation accrue.
De plus, la normalisation et la conformité deviennent des mécanismes clés de sélection dans l’industrie de l’IA. Respecter des exigences réglementaires de plus en plus complexes nécessite des investissements importants, ce qui avantage naturellement les grandes entreprises disposant de ressources et de gestion solides. La certification selon des normes nationales ou internationales renforce la confiance des clients, consolidant la position des leaders du marché. La compétition future ne sera plus seulement technologique, mais aussi en termes de gouvernance, de conformité et de réputation.
Enfin, cette évolution conduit à une transformation fondamentale : la valorisation des entreprises d’IA passe d’une « possibilité » à une « certitude ». Dans les phases initiales, le marché privilégiait les récits sur « le futur », alimentant des investissements massifs et des évaluations élevées, mais aussi des bulles potentielles. La normalisation infrastructurelle, en imposant des indicateurs concrets, permet de réduire ces excès. La valeur d’une entreprise dépendra désormais de sa croissance saine, de ses cas clients, de ses barrières technologiques, de la gestion des risques et de la conformité réglementaire.
En résumé, si la normalisation de l’IA en Chine et aux États-Unis suit des trajectoires différentes, elles convergent vers un avenir commun : l’IA devient une industrie mature, régulée par des règles claires, avec des infrastructures solides et une gestion des risques efficace. La publication du dictionnaire, la mise en œuvre du cadre de gestion des risques, et la construction d’infrastructures normalisées façonnent un écosystème durable. Dans ce contexte, la logique d’évaluation des entreprises d’IA évoluera profondément : celles qui sauront bâtir des applications sûres, fiables, efficaces et à forte valeur commerciale, sur des bases solides, seront les gagnantes de demain. La logique de « storytelling » pure, autrefois prédominante, sera abandonnée par le marché.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
L'IA sino-américaine unifie la « mesure et pesée », les bons actifs deviennent-ils plus faciles à repérer ?
Rédigé par : Zhang Feng
Cet article examine la manière dont la normalisation des caractéristiques de l’IA dans deux pays, à travers une comparaison, façonne la reconstruction des infrastructures standardisées, modifiant ainsi fondamentalement la logique d’évaluation des entreprises d’IA.
Ces dernières années, le développement rapide de la technologie de l’intelligence artificielle (IA) l’a propulsée du laboratoire à une application commerciale dans divers secteurs. Cependant, derrière cette euphorie technologique, la logique d’évaluation des entreprises d’IA fait l’objet de débats depuis longtemps, le marché étant souvent porté par une vision optimiste de l’avenir. À mesure que l’application de la technologie s’approfondit, les risques et incertitudes deviennent plus apparents, poussant les décideurs politiques, les régulateurs et les investisseurs à rechercher des voies de développement plus sûres et durables.
Dans ce contexte, les régulateurs et l’industrie en Chine et aux États-Unis se tournent unanimement vers la normalisation de l’IA et la gestion des risques. Il est clair que la normalisation devient un moteur clé pour faire passer l’industrie de l’« storytelling » à une « action concrète ».
Le Département du Trésor américain a récemment publié deux nouvelles ressources pour guider l’application de l’IA dans le secteur financier : un dictionnaire partagé de l’IA et un cadre de gestion des risques pour l’IA dans les services financiers (FSAIRMF). Cette initiative soutient le « Plan d’action pour l’IA » du président, qui appelle à établir des normes claires, une compréhension partagée et une gouvernance basée sur les risques, afin d’assurer un déploiement sûr et responsable de l’IA.
« La mise en œuvre du plan d’action pour l’IA du président nécessite non seulement des déclarations idéalisées, mais aussi des ressources concrètes que les institutions peuvent utiliser », a déclaré le vice-ministre du Trésor Derrick Thaler. « En établissant un langage commun pour l’IA et un cadre de gestion des risques pour l’IA dans les services financiers, ces livrables aident à protéger les consommateurs tout en soutenant une innovation responsable. »
Les États-Unis montrent une approche pragmatique et une gouvernance collaborative dans la promotion de la normalisation de l’IA, notamment dans des domaines clés comme la finance. Leur objectif est de transformer la stratégie nationale macro en directives opérationnelles concrètes pour les acteurs, tout en encourageant l’innovation et en maintenant la sécurité et la stabilité.
D’abord, la publication du « dictionnaire partagé de l’IA » marque une étape cruciale dans la résolution des problèmes fondamentaux de gouvernance de l’IA. Depuis longtemps, les termes utilisés dans le domaine de l’IA varient selon les disciplines, les contextes d’application et les parties prenantes. Par exemple, « explicabilité du modèle » pour les développeurs, « transparence algorithmique » pour la conformité légale, ou « logique décisionnelle » pour les opérations, désignent souvent des aspects différents. Cette incohérence entrave la communication intersectorielle et complique la régulation. Le dictionnaire de l’IA du Département du Trésor vise à briser cette « tour de Babel » en proposant des définitions officielles et unifiées pour les concepts clés, capacités et catégories de risques liés à l’IA. Cela permet une « résonance » entre régulateurs, experts techniques, juristes et dirigeants d’entreprise, facilitant une compréhension commune et une application cohérente, notamment dans le secteur financier.
Ensuite, le « cadre de gestion des risques pour l’IA dans les services financiers » s’appuie sur ce langage commun pour constituer un « manuel d’utilisation ». Il ne s’agit pas de repartir de zéro, mais d’adapter et de préciser le cadre de gestion des risques macro publié par l’Institut national des normes et de la technologie (NIST), afin qu’il corresponde aux spécificités du secteur financier. Ce cadre couvre tout le cycle de vie de l’IA — conception, développement, validation, déploiement, surveillance et mise à jour — en guidant les institutions pour identifier les scénarios d’application, évaluer les risques potentiels, et intégrer la responsabilité, la transparence et la résilience opérationnelle à chaque étape. Sa conception flexible et évolutive permet d’être appliqué aussi bien par de petites fintech que par de grandes banques multinationales, avec des outils simplifiés ou des architectures complexes selon les besoins. Cette approche « sur mesure » favorise une adoption large dans l’industrie.
Enfin, la promotion de la normalisation de l’IA aux États-Unis se caractérise par une « coopération public-privé » et une gouvernance multi-acteurs. Que ce soit le dictionnaire ou le cadre de gestion des risques, leur développement ne relève pas d’un monopole réglementaire, mais d’une collaboration entre la Financial and Banking Information Infrastructure Committee, le comité de coordination des services financiers, le groupe d’exécution de l’IA, et d’autres acteurs privés comme l’Institute of Network Security. La reconnaissance par l’industrie, notamment par des institutions telles que l’Institute of Network Security, témoigne de l’acceptation du cadre. Ce mode de co-construction garantit que les normes reflètent à la fois les préoccupations de sécurité et de stabilité réglementaire, tout en tenant compte de l’efficacité et des coûts pour l’industrie. L’objectif final est de « soutenir une adoption plus rapide et plus large de l’IA dans la finance », en renforçant la cybersécurité et la résilience opérationnelle, plutôt que d’ériger des obstacles.
La Chine dispose d’un système officiel de terminologie et d’un cadre de gouvernance/risk management pour l’IA, comparable à celui du Département du Trésor américain, avec une architecture multi-niveaux et un processus complet. Son approche se résume à « promouvoir le développement par la normalisation, assurer la sécurité par la réglementation », visant à établir une position dominante dans la compétition mondiale de l’IA et à garantir un développement sain et ordonné de l’industrie nationale.
Les principaux éléments s’appuient sur la norme nationale « Terminologie de l’intelligence artificielle » (GB/T 41867-2022) et le « Cadre de gouvernance de la sécurité de l’IA » (version 2.0, prévue pour 2025). Ces documents sont complétés par la norme « Évaluation des capacités de gestion des risques de l’IA » (GB/T 46347-2025), qui définit la classification des capacités, les processus d’évaluation et les lignes directrices de conformité. Par ailleurs, le « Règlement provisoire sur la gestion des services d’IA générative » (2023) impose des exigences obligatoires en matière d’évaluation de sécurité, d’enregistrement, de modération de contenu et de conformité des données. Des normes de bonnes pratiques, notamment dans les secteurs financier, médical et éducatif, complètent ce cadre.
Comparé à l’approche pragmatique et sectorielle des États-Unis, la Chine privilégie une conception plus stratégique, plus rapide dans la mise en œuvre, et plus étroitement liée à la stratégie nationale.
D’abord, en matière de normalisation terminologique, la Chine adopte une stratégie « systématique et prospective ». Sous la direction du Comité national de normalisation, elle accélère la construction d’un système de normes couvrant les concepts fondamentaux, les technologies de base, les produits, les applications industrielles et la gestion de la sécurité. Par exemple, la norme nationale « Terminologie de l’IA » vise à fournir un langage commun de base pour tout le domaine.
Contrairement à l’approche américaine centrée sur un dictionnaire spécifique à la finance, la normalisation chinoise vise une vision globale, en clarifiant dès la racine les concepts fondamentaux, la classification technologique et les étapes de développement de l’IA. Cette démarche offre l’avantage de poser une « base » unifiée pour la création de normes sectorielles ultérieures, évitant contradictions et conflits entre standards, et illustrant la capacité de la Chine à « concentrer ses efforts pour réaliser de grandes choses ». En outre, ces normes sont conçues en suivant de près les tendances internationales, afin d’intégrer la pratique chinoise dans le cadre mondial et d’accroître son influence dans la gouvernance globale de l’IA.
Ensuite, en matière de gestion des risques, la Chine privilégie une approche « éthique d’abord, sécurité avant tout ». Son cadre de gouvernance est fortement influencé par les lois sur la cybersécurité, la protection des données et la vie privée. Les agences telles que le Cyberspace Administration, le Ministère de l’Industrie et des Technologies de l’Information, ou le Ministère de la Sécurité Publique ont publié une série de réglementations sur les algorithmes, la synthèse profonde, l’IA générative, etc., formant une matrice réglementaire à plusieurs niveaux. Par exemple, la gestion des services d’IA générative impose des enregistrements d’algorithmes, des évaluations de sécurité, et une responsabilité sur la légalité des données, l’équité des algorithmes et la véracité du contenu généré.
Ce mode de régulation, plus contraignant que le modèle américain basé sur l’auto-évaluation et la gouvernance interne, définit des « lignes rouges » pour le développement de l’IA, notamment en matière de sécurité des données, de sécurité idéologique et de protection des droits civiques. La gestion des risques en Chine fonctionne davantage comme une « contrainte externe » obligeant les entreprises à établir des systèmes internes de gestion des risques pour satisfaire aux exigences réglementaires.
Enfin, la normalisation en Chine est étroitement liée au développement industriel et à la réalisation des objectifs stratégiques nationaux. La standardisation est vue comme une infrastructure clé pour favoriser l’intégration de l’IA dans l’économie réelle et soutenir une croissance de haute qualité. Par exemple, dans le secteur financier, le « Plan de développement de la fintech » de la Banque populaire de Chine insiste sur l’amélioration de l’offre de normes pour l’IA appliquée à la finance, notamment en matière de gestion des risques, de marketing intelligent et de service client. Ces normes visent à réduire les coûts de coopération dans la chaîne de valeur, à accélérer la mise en œuvre de l’IA dans la finance, et à transformer les innovations technologiques en normes industrielles, consolidant ainsi la position des grandes entreprises technologiques.
Malgré une conscience partagée de l’importance de la normalisation de l’IA et des efforts actifs dans les deux pays, leurs trajectoires de développement diffèrent nettement en raison de différences fondamentales dans leurs systèmes politiques, leur environnement de marché, leur culture d’innovation et leurs philosophies de régulation.
Du point de vue de la conception stratégique et de la dynamique sous-jacente, la Chine privilégie un modèle « dirigé par le gouvernement, de haut en bas ». La planification stratégique nationale pour l’IA est claire, et la normalisation y joue un rôle clé, coordonnée par le Comité national de normalisation, avec une forte implication des ministères. La priorité est donnée à des normes alignées sur la politique industrielle et la recherche technologique, avec une forte directive et une forte obligation. Ce modèle offre une grande efficacité et une forte capacité d’exécution, permettant de bâtir rapidement un système de normes étendu.
En revanche, la normalisation de l’IA aux États-Unis repose sur un modèle « du marché, de bas en haut ». Le rôle du gouvernement est davantage celui de « facilitateur » et de « promoteur », en publiant des lignes directrices, des cadres et des bonnes pratiques, pour encourager l’auto-organisation de l’industrie. La co-construction, la négociation et la participation de multiples acteurs sont essentielles. Le processus de développement du FS AI RMF illustre cette approche, qui privilégie des recommandations plutôt que des règlements contraignants. Ce mode offre une plus grande flexibilité et une meilleure adaptation, mais peut aussi entraîner une fragmentation des standards, nécessitant une coordination gouvernementale pour leur harmonisation.
Concernant le contenu central des normes, la Chine insiste fortement sur la « sécurité contrôlable » et « l’éthique conforme » dans son système de normes, notamment dans la gestion des risques. Cela découle de l’importance accordée à la cybersécurité, à la souveraineté des données et à la stabilité sociale. Les normes imposent des exigences strictes sur la légalité des données, l’équité des algorithmes, la véracité du contenu, et la responsabilité du système, en lien étroit avec des lois supérieures telles que la Loi sur la cybersécurité, la Loi sur la sécurité des données et la Loi sur la protection des informations personnelles. La régulation privilégie une approche « réglementaire préalable » et « conformité en amont ».
Aux États-Unis, la gestion des risques de l’IA, tout en étant attentive à la sécurité et à l’équité, repose principalement sur une logique « basée sur le risque » et une auto-gouvernance. Elle vise à aider les entreprises à identifier, évaluer et gérer leurs risques opérationnels, réputationnels et de conformité, en fonction de leurs préférences et de leurs scénarios d’application. La norme n’est pas une règle rigide, mais un cadre dynamique, permettant une gestion continue et adaptative, qui privilégie la confiance dans la capacité des acteurs à s’autoréguler.
En termes d’interaction entre normes et industrie, la Chine voit la normalisation comme un levier pour « tirer » le développement industriel, en impliquant fortement les grandes entreprises technologiques dans la définition des standards, ce qui leur permet de renforcer leur position et de diffuser leurs innovations. La norme devient un catalyseur pour la diffusion technologique et la croissance à grande échelle.
Aux États-Unis, la norme sert plutôt à « résumer » et « élever » les bonnes pratiques industrielles. Le cadre FS AI RMF intègre largement l’expérience pratique des institutions financières et des entreprises technologiques, assurant une mise à jour constante avec l’état de l’art. Cela évite que la norme devienne obsolète, mais peut aussi entraîner une fragmentation, nécessitant une coordination pour une cohérence globale.
Sur le plan de l’influence internationale, la Chine cherche à exporter ses standards via des plateformes comme l’ISO/IEC JTC 1/SC 42, tandis que les États-Unis, avec leur position dominante dans la technologie mondiale, utilisent des cadres comme celui du NIST pour influencer la gouvernance globale. La compétition entre ces deux approches pourrait façonner un paysage où deux grands systèmes de normes coexistent, avec des interactions limitées mais concurrentielles.
Que ce soit par une approche systématique chinoise ou par une démarche consensuelle américaine, une chose est certaine : la maturation progressive des infrastructures de normalisation de l’IA modifie profondément la trajectoire de développement de l’industrie, en remplaçant la logique spéculative et « storytelling » qui alimentait autrefois les évaluations par une approche basée sur des critères concrets, mesurables et vérifiables.
La normalisation réduit considérablement les coûts de transaction et les barrières à l’entrée dans l’industrie de l’IA, favorisant une application ubiquitaire dans l’économie. Des standards unifiés pour la terminologie et les interfaces permettent aux composants d’IA de différentes entreprises d’être combinés et déployés facilement. Ce mode « plug-and-play » accélère la transition de l’IA du laboratoire à la production, aux champs, aux banques, etc. La priorité passe de « comment créer de l’IA » à « comment l’utiliser efficacement ».
Cela implique que les entreprises disposant uniquement de compétences en algorithmes, sans compréhension approfondie des secteurs ou capacité à appliquer concrètement leurs solutions, verront leur valeur réévaluée à la baisse. À l’inverse, celles qui intègrent la compréhension sectorielle, combinée à des standards d’IA, pour créer des solutions à forte valeur ajoutée, seront favorisées.
Ensuite, la mise en place de cadres de gestion des risques fournit une grille d’évaluation de la « santé » des entreprises d’IA. Auparavant, cette évaluation était souvent vague et subjective. Aujourd’hui, avec des cadres comme le FS AI RMF ou les exigences réglementaires en Chine, il devient possible d’évaluer la capacité d’une entreprise à assurer une opération durable, en analysant des dimensions telles que la biaisabilité des modèles, la légalité des données, la transparence des décisions, ou la gestion du cycle de vie de l’IA.
Les investisseurs s’intéressent désormais à des questions telles que : le modèle d’IA de l’entreprise présente-t-il des risques de biais ? La provenance des données est-elle légale et conforme ? La décision du modèle est-elle explicable ? L’entreprise a-t-elle mis en place une gestion des risques couvrant tout le cycle de vie de l’IA ? Ces « soft skills » autrefois négligés deviennent des facteurs clés de succès. Une entreprise capable d’assurer la confidentialité des données, l’équité des algorithmes et la sécurité du système, tout en fournissant des services efficaces, aura une meilleure résilience et une valorisation accrue.
De plus, la normalisation et la conformité deviennent des mécanismes clés de sélection dans l’industrie de l’IA. Respecter des exigences réglementaires de plus en plus complexes nécessite des investissements importants, ce qui avantage naturellement les grandes entreprises disposant de ressources et de gestion solides. La certification selon des normes nationales ou internationales renforce la confiance des clients, consolidant la position des leaders du marché. La compétition future ne sera plus seulement technologique, mais aussi en termes de gouvernance, de conformité et de réputation.
Enfin, cette évolution conduit à une transformation fondamentale : la valorisation des entreprises d’IA passe d’une « possibilité » à une « certitude ». Dans les phases initiales, le marché privilégiait les récits sur « le futur », alimentant des investissements massifs et des évaluations élevées, mais aussi des bulles potentielles. La normalisation infrastructurelle, en imposant des indicateurs concrets, permet de réduire ces excès. La valeur d’une entreprise dépendra désormais de sa croissance saine, de ses cas clients, de ses barrières technologiques, de la gestion des risques et de la conformité réglementaire.
En résumé, si la normalisation de l’IA en Chine et aux États-Unis suit des trajectoires différentes, elles convergent vers un avenir commun : l’IA devient une industrie mature, régulée par des règles claires, avec des infrastructures solides et une gestion des risques efficace. La publication du dictionnaire, la mise en œuvre du cadre de gestion des risques, et la construction d’infrastructures normalisées façonnent un écosystème durable. Dans ce contexte, la logique d’évaluation des entreprises d’IA évoluera profondément : celles qui sauront bâtir des applications sûres, fiables, efficaces et à forte valeur commerciale, sur des bases solides, seront les gagnantes de demain. La logique de « storytelling » pure, autrefois prédominante, sera abandonnée par le marché.