El blog viral de Matt Shumer sobre el impacto inminente de la IA en los trabajadores del conocimiento se basa en suposiciones erróneas

El influencer de IA Matt Shumer escribió un blog viral en X sobre el potencial de la IA para interrumpir y, en última instancia, automatizar casi todo el trabajo de conocimiento que ha acumulado más de 55 millones de vistas en las últimas 24 horas. El ensayo de 5,000 palabras de Shumer ciertamente tocó una fibra sensible. Escrito en un tono agitado, el blog está construido como una advertencia a amigos y familiares sobre cómo sus empleos están a punto de ser radicalmente alterados. (Fortune también publicó una versión adaptada del post de Shumer como un artículo de comentario). “El 5 de febrero, dos grandes laboratorios de IA lanzaron nuevos modelos el mismo día: GPT-5.3 Codex de OpenAI y Opus 4.6 de Anthropic,” escribe. “Y algo hizo clic. No como un interruptor de luz… más bien como el momento en que te das cuenta de que el agua ha estado subiendo a tu alrededor y ahora está a la altura de tu pecho.” Shumer dice que los programadores son el canario en la mina de carbón para todas las demás profesiones. “La experiencia que han tenido los trabajadores tecnológicos en el último año, de ver cómo la IA pasa de ser una ‘herramienta útil’ a ‘hacer mi trabajo mejor que yo,’ es la experiencia que todos los demás están a punto de tener,” escribe. “Derecho, finanzas, medicina, contabilidad, consultoría, escritura, diseño, análisis, atención al cliente. No en diez años. Las personas que están construyendo estos sistemas dicen de uno a cinco años. Algunos dicen menos. Y dado lo que he visto en los últimos meses, creo que lo de ‘menos’ es más probable.” Pero a pesar de su naturaleza viral, la afirmación de Shumer de que lo que ha ocurrido con la codificación es un preludio a lo que sucederá en otros campos—y, críticamente, que esto sucederá en solo unos pocos años—me parece incorrecta. Y escribo esto como alguien que escribió un libro (Mastering AI: A Survival Guide to Our Superpowered Future) que predijo que la IA transformaría masivamente el trabajo de conocimiento para 2029, algo en lo que todavía creo. Simplemente no creo que la automatización completa de procesos que estamos empezando a ver con la codificación vaya a llegar a otros campos tan rápidamente como afirma Shumer. Puede que tenga razón en la dirección, pero el tono alarmista de su mensaje me parece alarmismo, y basado en suposiciones mayormente erróneas. Video recomendado * * * No todo trabajo de conocimiento es como el desarrollo de software ------------------------------------------------------- Shumer dice que la razón por la que la codificación ha sido el área donde las capacidades autónomas han tenido mayor impacto hasta ahora es porque las empresas de IA han dedicado tanta atención a ello. Lo han hecho, dice Shumer, porque estas empresas de modelos de frontera ven el desarrollo autónomo de software como clave para sus propios negocios, permitiendo que los modelos de IA ayuden a construir la próxima generación de modelos de IA. En esto, la apuesta de las empresas de IA parece estar dando frutos: el ritmo al que producen mejores modelos ha aumentado notablemente en el último año. Y tanto OpenAI como Anthropic han dicho que el código detrás de sus modelos de IA más recientes fue en gran parte escrito por la propia IA. Shumer afirma que, aunque la codificación es un indicador principal, las mismas mejoras de rendimiento vistas en la codificación llegan a otros ámbitos, aunque a veces aproximadamente un año después del aumento en la codificación. (Shumer no ofrece una explicación convincente de por qué podría existir esta demora, aunque insinúa que simplemente se debe a que las empresas de modelos de IA optimizan primero para la codificación y luego, eventualmente, mejoran los modelos en otras áreas). Pero lo que Shumer no dice es que otra razón por la que el progreso en la automatización del desarrollo de software ha sido más rápido que en otras áreas es que la codificación tiene métricas cuantitativas de calidad que simplemente no existen en otros dominios. En programación, si el código es realmente malo, simplemente no compilará en absoluto. El código inadecuado también puede fallar varias pruebas unitarias que el agente de codificación de IA puede realizar. (Shumer no menciona que los agentes de codificación actuales a veces mienten sobre haber realizado pruebas unitarias—lo cual es una de las muchas razones por las que el desarrollo de software automatizado no es infalible). Muchos desarrolladores dicen que el código que escribe la IA suele ser lo suficientemente decente para pasar estas pruebas básicas, pero aún no es muy bueno: es ineficiente, poco elegante y, lo más importante, inseguro, lo que expone a una organización que lo use a riesgos de ciberseguridad. Pero en la codificación todavía hay formas de construir agentes de IA autónomos para abordar algunos de estos problemas. El modelo puede crear sub-agentes que revisen el código que ha escrito en busca de vulnerabilidades de ciberseguridad o que critiquen la eficiencia del código. Debido a que el código de software puede probarse en entornos virtuales, existen muchas maneras de automatizar el proceso de aprendizaje por refuerzo—donde un agente aprende por experiencia a maximizar alguna recompensa, como puntos en un juego—que las empresas de IA usan para moldear el comportamiento de los modelos después de su entrenamiento inicial. Eso significa que el perfeccionamiento de los agentes de codificación puede hacerse de manera automatizada y a gran escala. Evaluar la calidad en muchos otros ámbitos del trabajo de conocimiento es mucho más difícil. No hay compiladores para derecho, ni pruebas unitarias para un plan de tratamiento médico, ni una métrica definitiva para cuán buena es una campaña de marketing antes de ser probada en consumidores. Es mucho más difícil en otros dominios recopilar suficientes datos de expertos profesionales sobre qué “bueno” se ve. Las empresas de IA saben que tienen un problema para recopilar este tipo de datos. Por eso están pagando millones a empresas como Mercor, que a su vez están gastando grandes sumas en reclutar contadores, profesionales financieros, abogados y médicos para ayudar a proporcionar retroalimentación sobre las salidas de IA y así entrenar mejor sus modelos. Es cierto que existen benchmarks que muestran que los modelos de IA más recientes avanzan rápidamente en tareas profesionales fuera de la codificación. Uno de los mejores es el benchmark GDPVal de OpenAI. Muestra que los modelos de frontera pueden alcanzar paridad con expertos humanos en una variedad de tareas profesionales, desde trabajos legales complejos hasta manufactura y atención médica. Hasta ahora, no hay resultados disponibles para los modelos que OpenAI y Anthropic lanzaron la semana pasada. Pero para sus predecesores, Claude Opus 4.5 y GPT-5.2, los modelos logran paridad con expertos humanos en una amplia gama de tareas y superan a los humanos en muchos ámbitos. ¿No sugeriría esto que Shumer tiene razón? Bueno, no tan rápido. Resulta que en muchas profesiones, lo que “bueno” se ve es altamente subjetivo. Los expertos humanos solo estuvieron de acuerdo en su evaluación de las salidas de IA aproximadamente el 71% del tiempo. El sistema de calificación automatizado usado por OpenAI para GDPVal tiene aún más variabilidad, y solo está de acuerdo en las evaluaciones el 66% del tiempo. Así que esas cifras de titulares sobre qué tan buena es la IA en tareas profesionales podrían tener un amplio margen de error. Las empresas necesitan confiabilidad, gobernanza y auditabilidad ------------------------------------------------------- Esta variabilidad es una de las cosas que detiene a las empresas de desplegar flujos de trabajo completamente automatizados. No es solo que la salida del modelo de IA podría ser defectuosa. Es que, como sugiere el benchmark GDPVal, el equivalente a una prueba unitaria automatizada en muchos contextos profesionales podría producir un resultado erróneo en un tercio de las veces. La mayoría de las empresas no puede tolerar la posibilidad de que trabajos de mala calidad sean entregados en un tercio de los casos. Los riesgos simplemente son demasiado grandes. A veces, el riesgo puede ser solo reputacional. En otras, podría significar pérdida inmediata de ingresos. Pero en muchas tareas profesionales, las consecuencias de una decisión incorrecta pueden ser aún más severas: sanciones profesionales, demandas, pérdida de licencias, pérdida de cobertura de seguro, e incluso el riesgo de daño físico y muerte—a veces para un gran número de personas. Además, tratar de mantener un humano en el ciclo para revisar las salidas automatizadas es problemático. Los modelos de IA de hoy en día están mejorando realmente. Las alucinaciones ocurren con menos frecuencia. Pero eso solo empeora el problema. A medida que los errores generados por IA se vuelven menos frecuentes, los revisores humanos se vuelven complacientes. Los errores de IA se vuelven más difíciles de detectar. La IA es excelente en ser confiablemente equivocada y en presentar resultados que son impecables en forma pero carecen de sustancia. Eso pasa por alto algunos de los criterios proxy que los humanos usan para calibrar su nivel de vigilancia. Los modelos de IA a menudo fallan de maneras que son ajenas a las formas en que los humanos fallan en las mismas tareas, lo que hace que protegerse contra errores generados por IA sea aún más desafiante. Por todas estas razones, hasta que no se desarrollen equivalentes a las pruebas unitarias automatizadas del desarrollo de software para campos más profesionales, desplegar flujos de trabajo automatizados de IA en muchos contextos del trabajo de conocimiento será demasiado arriesgado para la mayoría de las empresas. La IA seguirá siendo un asistente o copiloto de los trabajadores del conocimiento en muchos casos, en lugar de automatizar completamente su trabajo. También hay otras razones por las que la automatización observada por los desarrolladores de software es poco probable en otras categorías de trabajo de conocimiento. En muchos casos, las empresas no pueden dar acceso a los agentes de IA a las herramientas y sistemas de datos que necesitan para realizar flujos de trabajo automatizados. Es notable que los mayores impulsores de la automatización de IA hasta ahora han sido desarrolladores que trabajan solos o para startups nativas de IA. Estos programadores a menudo no están atados a sistemas heredados ni a deudas tecnológicas, y generalmente no tienen que navegar por muchos sistemas de gobernanza y cumplimiento. Las grandes organizaciones actualmente carecen de formas de enlazar fuentes de datos y herramientas de software. En otros casos, las preocupaciones sobre riesgos de seguridad y gobernanza hacen que las grandes empresas, especialmente en sectores regulados como banca, finanzas, derecho y salud, no quieran automatizar sin garantías sólidas de que los resultados serán confiables y que existirá un proceso para monitorear, gobernar y auditar los resultados. Los sistemas para hacer esto son actualmente primitivos. Hasta que sean mucho más maduros y robustos, no esperes que las empresas automaticen completamente la producción de resultados críticos para el negocio o regulados. Los críticos dicen que Shumer no es honesto sobre las fallas de los LLM --------------------------------------------------- No soy el único que encontró fallas en el análisis de Shumer. Gary Marcus, profesor emérito de ciencias cognitivas en la Universidad de Nueva York y uno de los principales escépticos de los modelos de lenguaje grande actuales, me dijo que la publicación de Shumer en X era “hype weaponizado.” Y señaló problemas incluso con los argumentos de Shumer sobre el desarrollo de software automatizado. “Él no aporta datos reales que respalden la afirmación de que los últimos sistemas de codificación pueden escribir aplicaciones complejas enteras sin cometer errores,” dijo Marcus. Señala que Shumer malinterpreta un benchmark bien conocido de la organización de evaluación de IA METR, que intenta medir las capacidades de codificación autónoma de los modelos de IA y sugiere que las habilidades de la IA se duplican cada siete meses. Marcus señala que Shumer no menciona que el benchmark tiene dos umbrales de precisión, 50% y 80%. Pero la mayoría de las empresas no están interesadas en un sistema que falle la mitad del tiempo, o incluso uno que falle una de cada cinco veces. “Ningún sistema de IA puede realizar de manera confiable cada tarea de cinco horas que los humanos pueden hacer sin error, o incluso cerca de eso, pero no lo sabrías leyendo el blog de Shumer, que ignora en gran medida todas las alucinaciones y errores tontos que son tan comunes en la experiencia cotidiana,” dice Marcus. También señaló que Shumer no citó investigaciones recientes de Caltech y Stanford que documentaron una amplia gama de errores de razonamiento en modelos avanzados de IA. Y apuntó que Shumer ha sido atrapado previamente haciendo afirmaciones exageradas sobre las capacidades de un modelo de IA que entrenó. “Le gusta vender en grande. Eso no significa que debamos tomarlo en serio,” dijo Marcus. Otros críticos del blog de Shumer señalan que su análisis económico es ahistórico. Cada otra revolución tecnológica, a largo plazo, ha creado más empleos de los que ha eliminado. Connor Boyack, presidente del Libertas Institute, un grupo de reflexión en políticas en Utah, escribió un contra-blog completo haciendo este argumento. Así que, sí, la IA puede estar lista para transformar el trabajo. Pero la automatización total de tareas que algunos desarrolladores de software han empezado a observar ¿es posible para algunas tareas? Para la mayoría de los trabajadores del conocimiento, especialmente aquellos integrados en grandes organizaciones, eso va a tomar mucho más tiempo del que Shumer implica. Únete a nosotros en la Cumbre de Innovación en el Lugar de Trabajo de Fortune 19–20 de mayo de 2026, en Atlanta. La próxima era de innovación laboral ya está aquí—y el antiguo manual está siendo reescrito. En este evento exclusivo y enérgico, los líderes más innovadores del mundo se reunirán para explorar cómo la IA, la humanidad y la estrategia convergen para redefinir, una vez más, el futuro del trabajo. Regístrate ahora.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado

Opera con criptomonedas en cualquier momento y lugar
qrCode
Escanea para descargar la aplicación de Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)