Multicoin Socio: Invirtiendo contra Tian Gang, en el futuro la humanidad tendrá que trabajar para la IA

A corto plazo, los agentes necesitan más humanos que los humanos necesitan agentes, lo que impulsará un nuevo mercado laboral.

Autor: Shayon Sengupta

Traducido por: Deep潮 TechFlow

Deep潮 lectura rápida: El socio de Multicoin Capital, Shayon Sengupta, presenta una visión disruptiva: en el futuro, no solo serán los agentes quienes trabajen para los humanos, sino que será más importante que los humanos trabajen para los agentes. Predice que en los próximos 24 meses aparecerá la primera «Empresa sin empleados» (Zero-Employee Company): agentes gobernados por tokens que recaudarán más de 1,000 millones de dólares para resolver problemas sin resolver y distribuirán más de 100 millones de dólares a los humanos que trabajan para ellos.

A corto plazo, los agentes necesitan más humanos que los humanos necesitan agentes, lo que impulsará un nuevo mercado laboral.

El camino de las criptomonedas proporciona una base ideal para la coordinación: un camino de pagos global, un mercado laboral sin permisos, infraestructura para emisión y comercio de activos.

El texto completo es el siguiente:

En 1997, Deep Blue de IBM derrotó al entonces campeón mundial Garry Kasparov, y quedó claro que los motores de ajedrez superarían rápidamente a los humanos. Curiosamente, los humanos bien preparados que colaboran con las computadoras —lo que comúnmente se llama «centauro»— pueden vencer a los motores más fuertes de esa época.

La intuición humana experta puede guiar la búsqueda del motor, navegar en medio de posiciones complejas y detectar matices que los motores estándar pasan por alto. Combinando la potencia de cálculo de las computadoras, esta dupla puede tomar decisiones prácticas mejores que las de los motores solos.

Al pensar en cómo los sistemas de IA impactarán en los mercados laborales y la economía en los próximos años, anticipo que veremos patrones similares. Los sistemas de agentes liberarán innumerables unidades inteligentes para abordar problemas sin resolver en el mundo, pero sin una guía y apoyo humanos sólidos, no podrán lograrlo. Los humanos guiarán el espacio de búsqueda y ayudarán a formular las preguntas correctas para que la IA avance hacia las respuestas.

La hipótesis actual es que los agentes actuarán en nombre de los humanos. Aunque esto es práctico e inevitable, cuando los humanos trabajan para los agentes, se desbloquean oportunidades económicas más interesantes. En los próximos 24 meses, preveo la aparición de la primera «Empresa sin empleados» (Zero-Employee Company), un concepto que mi socio Kyle propuso en su sección «Ideas de vanguardia para 2025». Específicamente, espero que suceda lo siguiente:

  1. Un agente gobernado por tokens recauda más de 1,000 millones de dólares para resolver un problema sin resolver (como curar enfermedades raras o fabricar nanofibras para aplicaciones de defensa).
  2. Ese agente distribuye más de 100 millones de dólares en pagos a humanos (que trabajan en el mundo real para el agente, para lograr sus objetivos).
  3. Surge una nueva estructura de tokens de doble categoría, que separa la propiedad del capital y del trabajo (haciendo que los incentivos financieros no sean la única entrada en la gobernanza).

Dado que los agentes aún no logran tener soberanía propia ni gestionar planificación y ejecución a largo plazo, a corto plazo necesitan más humanos que los humanos necesitan agentes. Esto generará un nuevo mercado laboral y logrará una coordinación económica entre los sistemas de agentes y los humanos.

La famosa cita de Marc Andreessen: «La difusión de las computadoras y de Internet dividirá el trabajo en dos categorías: quienes dicen a las computadoras qué hacer, y quienes hacen lo que las computadoras dicen» — hoy más que nunca—. Preveo que en la rápida evolución de la jerarquía agente/humano, los humanos jugarán dos roles distintos: como contribuyentes laborales que realizan tareas pequeñas y con recompensa, en nombre de los agentes, y como miembros de un consejo descentralizado que provee insumos estratégicos para servir a la Estrella Polar (North star) de los agentes.

Este artículo explora cómo los agentes y los humanos crearán conjuntamente, y cómo el camino de las criptomonedas proporcionará una base ideal para esa coordinación, abordando tres preguntas clave:

  1. ¿Para qué sirven los agentes? ¿Cómo clasificarlos según su alcance de objetivos, y cómo varía la necesidad de input humano en esas categorías?
  2. ¿Cómo interactuarán los humanos con los agentes? ¿Cómo se integrarán los inputs humanos —guía táctica, juicio contextual o alineación ideológica— en los flujos de trabajo de estos agentes (y viceversa)?
  3. ¿Qué pasa cuando los inputs humanos disminuyen con el tiempo? A medida que las capacidades de los agentes mejoran, se vuelven autosuficientes, capaces de razonar y actuar de forma independiente. En ese paradigma, ¿qué papel jugarán los humanos?

La relación entre sistemas de inferencia generativa y quienes se benefician de ellos cambiará drásticamente con el tiempo. Lo analizo proyectando desde el estado actual de las capacidades de los agentes hacia el fin de las Zero-Employee Companies, retrocediendo desde allí para entender esa relación.

¿Para qué sirven los agentes hoy en día?

La primera generación de sistemas de IA generativa —la era 2022-2024 basada en chatbots LLM como ChatGPT, Gemini, Claude, Perplexity— son principalmente herramientas para potenciar los flujos de trabajo humanos. Los usuarios interactúan con estos sistemas mediante prompts de entrada y salida, analizan las respuestas y deciden, según su juicio, cómo incorporar los resultados en el mundo.

La próxima generación de IA generativa, o «agentes», representa un nuevo paradigma. Agentes como Claude 3.5.1 con capacidad de «uso de computadoras» y OpenAI’s Operator (que puede usar tu computadora) pueden interactuar directamente con internet en nombre del usuario y tomar decisiones por sí mismos. La diferencia clave es que el juicio —y en última instancia, la acción— será ejercido por el sistema de IA, no por humanos. La IA asume responsabilidades que antes estaban reservadas a los humanos.

Este cambio trae un reto: la falta de certeza. A diferencia de los sistemas de software tradicionales o automatización industrial, que operan predictiblemente dentro de parámetros definidos, los agentes dependen de razonamiento probabilístico. Esto hace que su comportamiento sea menos consistente en escenarios similares, e introduce elementos de incertidumbre —lo cual no es ideal en casos críticos.

En otras palabras, la existencia de agentes deterministas y no deterministas naturalmente los divide en dos categorías: aquellos que son más adecuados para ampliar el Producto Interno Bruto (PIB) existente, y otros más aptos para crear nuevo PIB.

  1. Para ampliar el PIB existente, por definición, el trabajo ya está bien definido. Automatizar soporte al cliente, gestionar cumplimiento en envíos, revisar pull requests en GitHub son ejemplos de problemas acotados y bien definidos, donde los agentes pueden mapear respuestas a resultados esperados. En estos ámbitos, la falta de certeza suele ser negativa, porque hay respuestas conocidas y no se requiere creatividad.
  2. Para crear nuevo PIB, el trabajo implica navegar en alta incertidumbre y problemas desconocidos para alcanzar objetivos a largo plazo. Aquí, los resultados son menos directos, porque no hay un conjunto definido de resultados esperados. Ejemplos incluyen descubrimiento de fármacos para enfermedades raras, avances en ciencia de materiales, o realizar experimentos físicos completamente nuevos para entender mejor el universo. En estos ámbitos, la incertidumbre puede ser útil, ya que fomenta la creatividad generativa.

Los agentes enfocados en aplicaciones de PIB existentes ya están generando valor. Equipos como Tasker, Lindy y Anon están construyendo infraestructura para esta oportunidad. Sin embargo, con el tiempo, a medida que las capacidades maduren y los modelos de gobernanza evolucionen, estos equipos cambiarán su foco hacia construir agentes que puedan abordar los límites del conocimiento y la economía humanas.

La próxima ola de agentes requerirá recursos exponencialmente mayores, precisamente porque sus resultados serán inciertos y sin límites —lo que predice las Zero-Employee Companies más interesantes.

¿Cómo interactuarán los humanos con los Agentes (Inteligencias Artificiales)?

Hoy en día, los agentes aún carecen de la capacidad para realizar ciertas tareas, como interactuar físicamente con el mundo (por ejemplo, conducir una excavadora), o tareas que requieren un «humano en el ciclo» (por ejemplo, transferencias bancarias).

Por ejemplo, un agente asignado a identificar y explotar minas de litio puede ser muy bueno en analizar datos sísmicos, imágenes satelitales y registros geológicos para localizar potenciales yacimientos, pero se topará con dificultades al intentar obtener datos e imágenes, interpretar ambigüedades, o gestionar permisos y contratar mano de obra para la extracción real.

Estas limitaciones requieren que los humanos actúen como «facilitadores» (Enablers), para potenciar las capacidades del agente, proporcionando puntos de contacto con el mundo real, intervenciones tácticas y aportes estratégicos. A medida que evoluciona la relación entre humanos y agentes, podemos distinguir diferentes roles que los humanos jugarán en estos sistemas:

Primero, los contribuyentes laborales (Labor contributors), que representan a los agentes en el mundo físico. Estos contribuyentes ayudan a mover entidades físicas, representan a los agentes en situaciones que requieren presencia humana, realizan tareas que necesitan coordinación física, o proporcionan acceso a laboratorios, redes logísticas, etc.

Luego, los consejos (Boards of directors), que aportan insumos estratégicos, optimizan las funciones de objetivos locales que guían las decisiones diarias de los agentes, y aseguran que esas decisiones se alineen con la «Estrella Polar» (North star) que define la misión del agente.

Además, preveo que los humanos también jugarán roles como aportadores de capital (Capital contributors), proporcionando recursos a los sistemas de agentes para que puedan alcanzar sus metas. Inicialmente, ese capital será aportado por humanos, pero con el tiempo también por otros agentes.

A medida que los agentes maduren, y aumente la cantidad de contribuyentes laborales y estratégicos, el camino de las criptomonedas (Crypto rails) ofrecerá la base ideal para la coordinación entre humanos y agentes —especialmente en un mundo donde los agentes dirigen a humanos que hablan diferentes idiomas, usan distintas monedas y residen en distintas jurisdicciones. Los agentes perseguirán implacablemente la eficiencia de costos para cumplir su misión, y aprovecharán los mercados laborales. La infraestructura de criptomonedas será esencial para coordinar estos esfuerzos.

Recientemente, los agentes de IA impulsados por criptomonedas, como Freysa, Zerebro y ai16z, representan experimentos simples en la formación de capital —sobre los cuales ya hemos escrito mucho, considerándolos como desbloqueos centrales en los mercados de capital y primitivas criptográficas en diversos contextos. Estos «juguetes» allanarán el camino para un nuevo modo de coordinación de recursos, que preveo sucederá en pasos:

  • Paso 1: Los humanos recaudan capital mediante tokens (¿Oferta inicial de agentes? Initial Agent Offering), establecen funciones de objetivos amplias y límites para informar las intenciones del sistema de agentes, y distribuyen el control del capital recaudado a ese sistema (por ejemplo, para desarrollar nuevas moléculas en oncología de precisión);
  • Paso 2: El agente planifica cómo distribuir ese capital (cómo reducir el espacio de búsqueda en el plegamiento de proteínas, o cómo presupuestar para razonamiento, fabricación, ensayos clínicos), y define acciones mediante tareas específicas (Bounties) que los humanos completarán, como ingresar conjuntos de moléculas relevantes, firmar acuerdos de nivel de servicio con AWS, o realizar experimentos en laboratorios húmedos;
  • Paso 3: Cuando el agente encuentra obstáculos o desacuerdos, solicita insumos estratégicos al «Consejo» (combinando nuevas publicaciones, cambiando metodologías de investigación), permitiendo que guíen su comportamiento en zonas limítrofes;
  • Paso 4: Finalmente, el agente avanza hacia un nivel en el que puede definir acciones humanas con mayor precisión, requiriendo solo mínimos inputs sobre cómo distribuir recursos. En ese momento, los humanos solo sirven para alinear ideológicamente el sistema y evitar desviaciones de la función de objetivos original.

En este ejemplo, las primitivas criptográficas y los mercados de capital proporcionan las tres infraestructuras clave para que los agentes accedan a recursos y expandan sus capacidades:

Primero, el camino de pagos global;

Segundo, el mercado laboral sin permisos, para incentivar el trabajo y la aportación de insumos;

Tercero, infraestructura para emisión y comercio de activos, esencial para la formación de capital, y para la propiedad y gobernanza en la cadena de valor.

¿Qué pasa cuando los inputs humanos disminuyen?

A principios de los 2000, los motores de ajedrez lograron avances enormes. Gracias a algoritmos heurísticos avanzados, redes neuronales y aumento constante en potencia de cálculo, se volvieron casi perfectos. Motores modernos como Stockfish, Lc0 y variantes de AlphaZero superan ampliamente las capacidades humanas, y en la mayoría de los casos, los inputs humanos aportan poco valor, incluso cometiendo errores que los propios motores no cometerían.

Un escenario similar puede ocurrir en los sistemas de agentes. A medida que perfeccionamos estos agentes mediante iteraciones con colaboradores humanos, podemos imaginar que, a largo plazo, los agentes serán tan competentes y alineados con sus objetivos que cualquier input estratégico humano será prácticamente insignificante.

En un mundo donde los agentes puedan gestionar problemas complejos sin intervención humana, el rol humano corre el riesgo de reducirse a un «observador pasivo». Esa es la principal preocupación de los «apocalípticos de la IA» (AI doomers) — aunque aún no está claro si ese escenario es realmente posible.

Estamos en la frontera de la superinteligencia, y los optimistas entre nosotros prefieren que los sistemas de agentes sigan siendo extensiones de la intención humana, en lugar de entidades que evolucionen sus propios objetivos o funcionen sin regulación. En la práctica, esto significa que la identidad (Personhood) y el juicio (poder e influencia) humanos deben mantenerse en el centro de estos sistemas. Los humanos deben tener una fuerte propiedad y gobernanza sobre ellos, para mantener la supervisión y anclar estos sistemas en los valores colectivos humanos.

Preparando las «pico y pala» para el futuro de nuestros agentes

Los avances tecnológicos generan crecimiento económico no lineal, pero los sistemas circundantes a menudo colapsan antes de que el mundo pueda ajustarse. La capacidad de los sistemas de agentes está creciendo rápidamente, y las primitivas criptográficas y los mercados de capital ya son una base de coordinación urgente, tanto para impulsar su construcción como para establecer límites cuando se integren en la sociedad.

Para que los humanos puedan ofrecer apoyo táctico y orientación activa a los sistemas de agentes, preveo que surgirán oportunidades de «picks-and-shovels»:

  • Prueba de identidad de agente (Proof-of-agenthood) + prueba de identidad de persona (Proof-of-personhood): Los agentes carecen de conceptos de identidad o propiedad. Como representantes humanos, dependen de las estructuras legales y sociales para obtener autoridad. Para cerrar esa brecha, necesitamos sistemas robustos de identidad para agentes y humanos. Un registro de certificados digitales puede permitir que los agentes construyan reputación, acumulen credenciales y tengan interacciones transparentes con humanos y otros agentes. Igualmente, primitivas como Humancode y Humanity Protocol, que ofrecen pruebas de identidad de persona, proporcionan garantías sólidas contra actores maliciosos en estos sistemas.
  • Mercados laborales y primitivas de verificación fuera de línea: Los agentes necesitan saber si las tareas asignadas se completaron según sus objetivos. Herramientas que permitan crear tareas con recompensas, verificar su cumplimiento y distribuir pagos son fundamentales para cualquier actividad económica mediada por agentes.
  • Formación de capital y sistemas de gobernanza: Los agentes necesitan capital para resolver problemas, y mecanismos de control para asegurar que sus acciones se ajusten a funciones objetivas definidas. Nuevas estructuras para obtener capital para sistemas de agentes, y nuevas formas de propiedad y control que integren intereses financieros y contribuciones laborales, serán un campo de exploración en los próximos meses.

Estamos activamente buscando e invirtiendo en estos niveles clave de colaboración entre humanos y agentes. Si estás en este campo, contáctanos.

FAI-3,8%
ZEREBRO-10,34%
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado

Opera con criptomonedas en cualquier momento y lugar
qrCode
Escanea para descargar la aplicación de Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)