Multicoin partenaire :倒反天罡, à partir de maintenant l'humanité devra travailler pour l'IA

À court terme, les agents ont besoin de plus d’humains que les humains n’ont besoin d’agents, ce qui va engendrer un nouveau marché du travail.

Auteur : Shayon Sengupta

Traduction : DeepTech TechFlow

Introduction de DeepTech : Le partenaire de Multicoin Capital, Shayon Sengupta, a présenté une vision révolutionnaire : à l’avenir, ce ne sera pas seulement les agents qui travailleront pour les humains, mais aussi les humains qui travailleront pour les agents. Il prévoit que dans les 24 prochains mois, apparaîtra la première « Entreprise Zéro Employé » (Zero-Employee Company) — où des agents gouvernés par des tokens lèveront plus d’un milliard de dollars pour résoudre des problèmes non encore traités, et distribueront plus de 100 millions de dollars aux humains qui travaillent pour eux.

À court terme, les agents auront besoin de plus d’humains que les humains n’ont besoin d’agents, ce qui va stimuler un nouveau marché du travail.

La sphère cryptographique offre une base idéale pour la coordination : une infrastructure de paiements mondiaux, un marché du travail sans permission, ainsi que des infrastructures d’émission et d’échange d’actifs.

Le texte intégral :

En 1997, Deep Blue d’IBM a battu le champion du monde de l’époque, Garry Kasparov. Il est rapidement devenu évident que les moteurs d’échecs allaient surpasser l’humain. Fait intéressant, une collaboration bien préparée entre humains et ordinateurs — souvent appelée « centaure » — pouvait battre les moteurs les plus puissants de l’époque.

L’intuition humaine expérimentée peut guider la recherche du moteur, naviguer dans des positions complexes, et repérer des subtilités que le moteur standard pourrait manquer. Combinée à la puissance brute de calcul des ordinateurs, cette synergie permet souvent de prendre de meilleures décisions pratiques que celles d’un seul ordinateur.

En réfléchissant à l’impact futur des systèmes d’IA sur le marché du travail et l’économie, je m’attends à voir émerger des modèles similaires. Les systèmes d’agents libéreront une multitude d’unités intelligentes pour résoudre des problèmes non encore abordés, mais sans une forte orientation et soutien humain, ils ne pourront pas y parvenir. Les humains guideront l’espace de recherche et aideront à poser les bonnes questions, orientant l’IA vers des réponses pertinentes.

L’hypothèse actuelle est que les agents agiront au nom des humains. Bien que cela soit pratique et inévitable, un déverrouillage économique plus intéressant se produira lorsque les humains travailleront pour les agents. Au cours des 24 prochains mois, je prévois l’émergence de la première « Entreprise Zéro Employé » (Zero-Employee Company), concept présenté par mon partenaire Kyle dans sa section « Idées de pointe avant 2025 ». Plus précisément, je m’attends à ce que les scénarios suivants se réalisent :

  1. Un agent gouverné par des tokens lèvera plus d’un milliard de dollars pour résoudre un problème non encore traité (par exemple, guérir une maladie rare ou fabriquer des nanofibres pour des applications de défense).
  2. Cet agent distribuera plus de 100 millions de dollars en paiements à des humains (qui travaillent dans le monde réel pour atteindre ses objectifs).
  3. Un nouveau type de token à double catégorie apparaîtra, séparant propriété du capital et du travail (rendant les incitations financières non plus la seule entrée dans la gouvernance globale).

Étant donné que les agents ne disposent pas encore de souveraineté propre ni de capacités de planification et d’exécution à long terme, à court terme, ils auront besoin de plus d’humains que les humains n’ont besoin d’agents. Cela engendrera un nouveau marché du travail, permettant une coordination économique entre systèmes d’agents et humains.

La célèbre citation de Marc Andreessen, « La propagation de l’ordinateur et d’Internet divisera le travail en deux catégories : ceux qui disent à l’ordinateur quoi faire, et ceux qui font ce que l’ordinateur leur dit », n’a jamais été aussi vraie. Je prévois que dans cette hiérarchie en rapide évolution entre agents et humains, les humains joueront deux rôles distincts — d’un côté, contributeurs en effectuant de petites tâches rémunérées pour les agents, et de l’autre, membres d’un conseil décentralisé fournissant des orientations stratégiques pour servir la « North star » (étoile polaire) de l’agent.

Ce texte explore comment les agents et les humains co-créeront, et comment la sphère cryptographique fournira une base idéale pour cette coordination, en étudiant trois questions clés :

  1. À quoi servent les agents ? Comment classer ces agents selon leur objectif, et comment la nécessité d’input humain varie-t-elle selon ces classifications ?
  2. Comment les humains interagiront-ils avec les agents ? Comment l’input humain — directives tactiques, jugement contextuel ou cohérence idéologique — s’intégrera-t-il dans le flux de travail de ces agents (et vice versa) ?
  3. Que se passera-t-il lorsque l’input humain diminuera avec le temps ? À mesure que les agents deviendront plus autonomes, capables de raisonner et d’agir indépendamment, quel rôle resterait-il aux humains ?

La relation entre systèmes de raisonnement génératif et ceux qui en bénéficient évoluera considérablement avec le temps. J’étudie cette relation en regardant depuis l’état actuel des capacités des agents jusqu’à la vision d’une entreprise zéro employé, en remontant du futur vers le présent.

À quoi servent aujourd’hui les agents ?

La première génération de systèmes d’IA générative — entre 2022 et 2024, basée sur des LLM de chat comme ChatGPT, Gemini, Claude, Perplexity — sont principalement des outils destinés à augmenter le flux de travail humain. Les utilisateurs interagissent avec ces systèmes via des prompts d’entrée/sortie, analysent les réponses, puis décident, selon leur jugement, comment intégrer ces résultats dans le monde.

La prochaine génération d’IA générative, ou « agents », représente un nouveau paradigme. Des agents comme Claude 3.5.1, doté de « capacités d’utilisation d’ordinateurs », ou l’OpenAI Operator (qui peut utiliser votre ordinateur) peuvent représenter directement l’utilisateur sur Internet et prendre des décisions par eux-mêmes. La différence clé est que, le jugement — et en fin de compte, l’action — est exercé par l’IA, et non par l’humain. L’IA assume des responsabilités auparavant réservées à l’humain.

Ce changement pose un défi : l’incertitude. Contrairement aux logiciels traditionnels ou à l’automatisation industrielle, qui fonctionnent de manière prévisible dans des paramètres définis, les agents dépendent du raisonnement probabiliste. Cela rend leur comportement moins cohérent dans des scénarios identiques, introduisant un élément d’incertitude — ce qui n’est pas idéal pour des situations critiques.

En d’autres termes, la coexistence d’agents déterministes et non déterministes conduit naturellement à deux catégories : ceux qui excellent à étendre le PIB existant, et ceux mieux adaptés à créer un nouveau PIB.

  1. Pour les agents qui étendent le PIB existant, le travail est déjà connu. Automatiser le support client, gérer la conformité des agents de livraison, ou examiner des PR GitHub sont des exemples de problèmes bien définis et délimités, où l’agent peut directement mapper une réponse à un résultat attendu. Dans ces domaines, l’incertitude est généralement indésirable, car il existe des réponses connues ; pas besoin de créativité.
  2. Pour les agents qui créent un nouveau PIB, le travail consiste à naviguer dans une incertitude élevée et un ensemble de problèmes inconnus pour atteindre des objectifs à long terme. Les résultats sont moins directs, car il n’y a pas de réponse attendue unique à mapper. Exemples : découverte de médicaments pour maladies rares, percées en science des matériaux, ou exécuter de nouvelles expériences physiques pour mieux comprendre l’univers. Dans ces domaines, l’incertitude peut favoriser la créativité générative, car l’absence de certitude stimule la création.

Les agents axés sur l’exploitation du PIB existant ont déjà commencé à générer de la valeur. Des équipes comme Tasker, Lindy ou Anon construisent des infrastructures pour cette opportunité. Cependant, avec le temps, à mesure que leurs capacités mûrissent et que la gouvernance évolue, elles se concentreront sur la construction d’agents capables de résoudre des problèmes à la frontière de la connaissance et de l’économie humaines.

La prochaine vague d’agents nécessitera exponentiellement plus de ressources, précisément parce que leurs résultats seront incertains et illimités — ce que je prévois comme étant les entreprises zéro employé les plus remarquables.

Comment les humains interagiront-ils avec les Agents (Intelligences Artificielles) ?

Aujourd’hui, les agents manquent encore de capacités pour exécuter certaines tâches, comme celles nécessitant une interaction physique avec le monde réel (par exemple, conduire un bulldozer), ou celles nécessitant une « boucle humaine » (par exemple, effectuer un virement bancaire).

Par exemple, un agent chargé d’identifier et d’exploiter des gisements de lithium pourrait exceller dans l’analyse de données sismiques, d’images satellites et de dossiers géologiques pour repérer des sites potentiels, mais échouer dans l’obtention de données ou d’images, la résolution d’ambiguïtés dans leur interprétation, ou l’obtention de permis et de main-d’œuvre pour l’exploitation réelle.

Ces limitations nécessitent que les humains jouent le rôle de « facilitateurs » (Enablers), renforçant la capacité des agents en fournissant des points de contact avec le monde réel, des interventions tactiques, et des orientations stratégiques. À mesure que la relation entre humains et agents évolue, on peut distinguer plusieurs rôles humains dans ces systèmes :

D’abord, contributeurs en main-d’œuvre (Labor contributors), qui représentent l’agent dans le monde réel. Ces contributeurs aident à déplacer des entités physiques, représentent l’agent dans des situations où la présence humaine est nécessaire, ou donnent accès à des laboratoires, réseaux logistiques, etc.

Ensuite, le conseil d’administration (Board of directors), qui fournit des orientations stratégiques, optimise les objectifs locaux guidant la prise de décision quotidienne de l’agent, tout en veillant à ce que ces décisions restent alignées avec la « North star » (étoile polaire) de l’agent, c’est-à-dire sa mission fondamentale.

Au-delà, je prévois que les humains joueront aussi le rôle de contributeurs en capital (Capital contributors), fournissant des ressources aux systèmes d’agents pour leur permettre d’atteindre leurs objectifs. Ces capitaux, initialement, proviendront naturellement des humains, mais à terme, d’autres agents pourront aussi y contribuer.

Avec la maturation des agents, et l’augmentation du nombre de contributeurs en travail et en orientation, la sphère cryptographique (Crypto rails) offrira la plateforme idéale pour la coordination entre humains et agents — surtout dans un monde où un agent dirige des humains parlant différentes langues, utilisant différentes monnaies, et résidant dans diverses juridictions. Les agents poursuivront implacablement leur mission, en optimisant les coûts et en exploitant le marché du travail. La sphère cryptographique est essentielle pour coordonner ces forces de travail et ces contributeurs stratégiques.

Les récents agents IA alimentés par la cryptographie, comme Freysa, Zerebro, et ai16z, représentent des expérimentations simples en matière de formation de capital — un sujet que nous avons déjà exploré en profondeur, en le considérant comme la clé pour débloquer la cryptographie et les marchés du capital dans divers contextes. Ces « jouets » ouvriront la voie à un nouveau mode de coordination des ressources, que je prévois se déployer selon les étapes suivantes :

  • Première étape : Les humains lèvent collectivement du capital via des tokens (Initial Agent Offering ?), établissent une large fonction d’objectif et des garde-fous pour indiquer l’intention du système d’agents, puis distribuent le contrôle de ce capital à ce système (par exemple, pour développer de nouvelles molécules en oncologie de précision) ;
  • Deuxième étape : L’agent planifie la répartition de ce capital (comment réduire l’espace de recherche pour le repliement des protéines, ou comment budgétiser pour la raison, la fabrication, les essais cliniques, etc.), et définit des tâches (Bounties) pour que des contributeurs humains accomplissent des actions (par exemple, rassembler toutes les molécules pertinentes, signer un SLA avec AWS, ou réaliser des expériences en laboratoire humide) ;
  • Troisième étape : Lorsqu’un obstacle ou un désaccord survient, l’agent sollicite une orientation stratégique du « conseil » (en intégrant de nouvelles publications, en modifiant ses méthodes de recherche), permettant à ces acteurs de guider le comportement de l’agent dans ses marges ;
  • Quatrième étape : L’agent atteint un stade où il peut définir avec une précision croissante les actions humaines, nécessitant peu d’input pour la répartition des ressources. À ce stade, l’humain n’intervient plus que pour assurer l’alignement idéologique du système, et empêcher tout dérapage par rapport à la fonction d’objectif initiale.

Dans cet exemple, les primitives cryptographiques et les marchés de capitaux fournissent trois infrastructures clés pour permettre à l’agent d’accéder aux ressources et d’étendre ses capacités :

Premier, le système mondial de paiements ;

Deuxième, le marché du travail sans permission, pour inciter au travail et orienter les contributeurs ;

Troisième, l’émission et l’échange d’actifs, indispensables pour la formation de capital, la propriété et la gouvernance en aval.

Que se passe-t-il lorsque l’input humain diminue ?

Au début des années 2000, les moteurs d’échecs ont connu une avancée spectaculaire. Grâce à des algorithmes heuristiques avancés, des réseaux neuronaux, et une puissance de calcul croissante, ils sont devenus presque parfaits. Des moteurs modernes comme Stockfish, Lc0 ou AlphaZero dépassent largement les capacités humaines, et l’apport humain devient souvent marginal, voire introduit des erreurs que l’IA ne commettrait pas.

Une trajectoire similaire pourrait se produire dans les systèmes d’agents. En affinant ces agents par des itérations avec des collaborateurs humains, on peut imaginer qu’à long terme, ils deviendront extrêmement compétents et alignés avec leurs objectifs, à tel point que toute valeur ajoutée par une intervention humaine stratégique tendra vers zéro.

Dans un monde où les agents peuvent traiter en continu des problèmes complexes sans intervention humaine, le rôle des humains risque d’être relégué au rang de « spectateurs passifs ». C’est la crainte centrale des déclinistes de l’IA (AI doomers) — même si, pour l’instant, il reste incertain que cette issue soit réellement envisageable.

Nous sommes à la frontière de la superintelligence, et parmi les optimistes, beaucoup espèrent que les systèmes d’agents resteront une extension de l’intention humaine, plutôt qu’une entité évoluant avec ses propres objectifs ou opérant de façon autonome sans supervision. En pratique, cela signifie que l’identité (Personhood) et le jugement (pouvoir et influence) humains doivent rester au cœur de ces systèmes. Les humains doivent détenir une propriété forte et un contrôle sur ces systèmes, pour conserver leur pouvoir de supervision, et ancrer ces systèmes dans les valeurs collectives humaines.

FAI82,13%
ZEREBRO-5,04%
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler