Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Gouvernance de l'IA : Gore et Topol à HUMANX
Gouvernance de l’IA chez HUMANX : Gore et Topol sur le climat, la santé et la démocratie
Résumé succinct : À HUMANX à San Francisco, Al Gore et Eric Topol ont fait valoir que le problème central n’est pas seulement ce que l’intelligence artificielle peut faire, mais aussi ce que la société choisit de mettre à l’échelle. Leur discussion a relié la gouvernance de l’IA à l’impact climatique, à la santé, aux perturbations du travail et à la résilience démocratique.
À HUMANX à San Francisco, le panel intitulé Ce que nous choisissons de hyper-accélérer a déplacé le débat sur l’IA, allant du simple constat des capacités techniques, vers la responsabilité sociale. Le message central d’Al Gore et d’Eric Topol était clair : l’intelligence artificielle doit être évaluée non seulement sur la vitesse à laquelle elle progresse, mais aussi sur la mesure où sa croissance soutient la durabilité, la santé publique et la résilience démocratique. En ce sens, la gouvernance de l’IA est devenue le thème central de la discussion.
Le panel a réuni des débats qui sont souvent abordés séparément. L’IA a été présentée comme une force en mouvement rapide et encore en émergence. Elle pourrait augmenter les émissions à court terme, améliorer les résultats de santé au cours des 20 prochaines années, remodeler les marchés du travail et mettre à rude épreuve le discours public si la gouvernance ne suit pas le rythme.
La gouvernance de l’IA façonne la phase suivante de l’IA
L’un des thèmes les plus forts du panel était que l’arrêt du développement de l’IA n’est pas considéré comme réaliste. Au lieu de cela, les intervenants ont plaidé pour une innovation plus intentionnelle et une volonté de « viser plus haut ». Par conséquent, la vraie question en matière de politique et d’investissement est ce que la société décide de hyper-accélérer : des systèmes qui intensifient les tensions environnementales et sociales, ou des applications qui soutiennent des objectifs climatiques, la qualité des soins de santé et la confiance du public.
Le débat a aussi reflété une inquiétude croissante : l’IA de pointe ne se comporte pas comme un cycle de logiciels conventionnel. Elle a été décrite comme un phénomène en émergence et, à certains égards, « quasi conscient », avec potentiellement des comportements de protection de soi. Même si cette formulation est provocatrice, le point plus large était pratique. Les systèmes qui élargissent leur autonomie et leur influence ont besoin d’une surveillance plus forte que ce que le marché, à lui seul, peut fournir.
Gouvernance de l’IA et dilemme climatique
Sur le climat, Gore a soutenu que l’IA pourrait augmenter les émissions à court terme. Cette préoccupation devient plus pertinente à mesure que la demande augmente pour les centres de données, les puces, l’électricité et les infrastructures de refroidissement. Le panel n’a pas fourni de nouvelles preuves quantitatives. Toutefois, l’implication pratique était claire : l’expansion de l’IA n’est pas neutre sur le plan environnemental.
Dans le même temps, Gore a déclaré que certaines applications de l’IA pourraient apporter des bénéfices nets pour le climat à moyen terme. L’argument n’était pas que l’IA est intrinsèquement « verte ». Plutôt, son impact dépend de la façon dont elle est déployée. Si elle est utilisée pour améliorer l’efficacité, optimiser les systèmes et soutenir des infrastructures à plus faible intensité carbone, l’IA pourrait aider à compenser une partie de son propre empreinte au fil du temps.
La discussion a aussi placé l’IA dans un cadre plus large de durabilité, façonné par l’Accord de Paris, cité comme point de référence mondial commun. Cela compte parce que cela positionne la politique relative à l’IA comme faisant partie d’une transition économique plus vaste, et non comme un enjeu technologique isolé.
Pourquoi les investisseurs surveillent l’IA et la durabilité ensemble
Generation Investment Management a été cité pour l’idée que l’investissement durable peut générer des rendements concurrentiels, voire supérieurs. Ce point est important car il remet en cause l’idée que la durabilité nuit à la performance, en particulier alors que les dépenses d’infrastructure liées à l’IA s’accélèrent.
Pour les investisseurs, l’implication est directe. L’IA et la durabilité ne devraient pas être traitées comme des thèmes distincts d’allocation de capital. Si l’IA devient une infrastructure fondamentale, alors son mix énergétique, son intensité en ressources et ses bénéfices en aval affecteront l’évaluation à long terme, le risque réglementaire et la légitimité publique.
Le panel a également noté que les grandes entreprises technologiques, décrites comme des hyperscalers, entraînent déjà des investissements dans les énergies renouvelables. Leur demande aide à accélérer le développement du solaire et des batteries. En conséquence, les mêmes entreprises qui élargissent leurs capacités en IA influencent aussi le déploiement des énergies propres à grande échelle.
Cela n’efface pas la contradiction entre la croissance de l’IA et les émissions à court terme. Néanmoins, cela suggère que le bilan climatique de l’IA dépendra en partie de la question de savoir si l’investissement des hyperscalers continue de faire avancer les renouvelables suffisamment vite.
La santé est l’un des cas les plus clairs d’intérêt public en faveur de l’IA
Topol a présenté la santé comme l’un des domaines les plus prometteurs pour l’IA. Il a mis en avant des gains possibles en précision diagnostique, en efficacité opérationnelle, en prévention et dans la relation médecin-patient. C’est l’un des cas les plus concrets d’intérêt public en faveur de l’IA, car il combine une pression mesurable sur les systèmes avec des besoins non satisfaits clairement identifiés.
Ses prévisions les plus spécifiques concernaient le calendrier. Au cours des 20 prochaines années, a déclaré Topol, la contribution la plus importante de l’IA se fera dans la prévention primaire. Cela fait évoluer le récit : passer de l’automatisation des soins existants à l’identification plus précoce des risques et à l’intervention avant que la maladie ne progresse.
Le panel a aussi évoqué des outils émergents capables de prédire non seulement le risque de maladie, mais aussi le moment probable du début de la maladie. Si ces systèmes s’avèrent fiables et utiles sur le plan clinique, ils pourraient transformer les stratégies de prévention, la planification des ressources et l’implication des patients. Même sans détail technique sur les modèles sous-jacents, l’implication stratégique est importante : l’IA en santé pourrait créer la plus grande valeur lorsqu’elle remonte en amont, avant que le traitement aigu ne devienne nécessaire.
Pour les systèmes de santé et les professionnels, cela signifie que le débat sur l’IA ne devrait pas être réduit à une anxiété liée à l’automatisation. Il s’agit aussi d’un meilleur triage, d’une intervention plus précoce, d’une efficacité accrue des flux de travail et de plus de temps pour les interactions humaines là où cela compte le plus.
La gouvernance de l’IA est le test clé pour les modèles avancés
Le message du panel sur la gouvernance était direct : des systèmes d’IA plus puissants ont besoin d’une responsabilité publique plus forte. Parmi les idées évoquées figuraient des « constitutions publiques » pour les modèles avancés, ainsi qu’une plus grande transparence et une meilleure gestion des risques.
Concrètement, des constitutions publiques impliqueraient des cadres de gouvernance qui imposent des principes explicites, des limites d’intérêt public et des règles qui ne seraient pas définies uniquement par des développeurs privés. Le panel n’a pas expliqué comment de telles constitutions seraient rédigées ou appliquées. Malgré tout, le concept reflète un changement plus large : l’IA de pointe pourrait nécessiter des mécanismes de gouvernance plus proches d’une supervision d’infrastructures publiques que d’une réglementation ordinaire des produits.
Ce point est particulièrement pertinent car les intervenants ont relié le risque lié à l’IA non seulement à l’échec technique, mais aussi à la pression institutionnelle. Dans ce contexte, la transparence ne concerne pas seulement les sorties du modèle. Elle touche aussi à la question de savoir qui fixe les règles, comment le risque est évalué et quel recours existe lorsque les dommages se diffusent dans des marchés du travail, des systèmes d’information ou des processus démocratiques.
La perturbation du travail et la tension démocratique restent sans solution
Le panel a averti que la société n’est pas prête aux effets de l’IA sur le travail. Cette préoccupation est désormais centrale dans la politique économique, car la perturbation des marchés du travail pourrait arriver de façon inégale, touchant certaines professions rapidement tout en laissant d’autres dans une incertitude prolongée. L’absence de préparation sociale a été présentée comme un échec de gouvernance autant qu’un défi pour le marché.
La discussion s’est aussi étendue à la démocratie. Les intervenants ont exprimé leur crainte concernant la qualité du débat public et le potentiel de manipulation communicationnelle. Cela reflète un élargissement de la question de politique publique autour du contenu généré par l’IA, de la persuasion à grande échelle et de l’érosion de la confiance dans les environnements d’information partagés.
Ces préoccupations ne sont pas périphériques. Si l’IA affaiblit la confiance dans le discours public, la capacité des gouvernements et des institutions à construire un consensus sur le climat, la santé et la transition économique peut aussi s’affaiblir—justement au moment où une action coordonnée est le plus nécessaire.
Un agenda plus crédible relie l’innovation en IA à l’intérêt public
Le panel de HUMANX ne plaidait pas contre les progrès de l’IA. Il s’opposait plutôt à une mise à l’échelle sans direction. Gore et Topol ont présenté un cadre selon lequel la valeur de l’IA dépend du fait que l’innovation s’accompagne de gouvernance, du fait que la croissance des infrastructures s’aligne sur la durabilité et du fait que les gains précoces les plus solides soient orientés vers la santé et la prévention.
Pour les participants à la conférence, les investisseurs, les professionnels de la santé et les décideurs, la leçon n’était pas une percée unique. Il s’agissait plutôt d’un alignement stratégique. L’IA n’est plus seulement une histoire de technologie. C’est aussi une histoire d’allocation de capital, une histoire de santé publique, une histoire de travail et une histoire de gouvernance démocratique.
La question non résolue est que de nombreuses affirmations les plus importantes restent en avance sur les preuves présentées dans cette discussion. Le panel n’a proposé aucune donnée détaillée sur les émissions, aucun plan de mise en œuvre pour la gouvernance et aucune explication technique des outils de calendrier de la maladie mentionnés par Topol. Pourtant, ce manque de spécificité ne diminue pas l’importance de l’agenda décrit. Au contraire, il clarifie où la vigilance doit se porter ensuite.
En sintesi
Chez HUMANX, Al Gore et Eric Topol ont présenté l’IA comme un choix social et politique, pas seulement comme un développement technique. La discussion a relié la gouvernance de l’IA à quatre grands domaines : le climat, la santé, le travail et la démocratie. L’enseignement central était simple : l’IA va se mettre à l’échelle, mais la société a encore des choix sur ce qui doit monter en puissance avec elle.