El precio de las acciones subió un 32%, GLM-5 encabeza el ranking mundial de código abierto, en 25 minutos con una sola toma se muestra el sistema completo
La noche del 7 de febrero, un modelo misterioso con el código «Pony Alpha» se lanzó silenciosamente.
Luego, explotó en la red.
Ingresando un fragmento de «código de montaña de mierda» que llevaba un día sin poder arreglar, reconstruyó la arquitectura con facilidad; al introducir una simple indicación, generó una aplicación web completa, suave en UI, con 35 estaciones de radio.
Esta capacidad de ingeniería extrema confirmó directamente la afirmación de Andrej Karpathy de hace unos días:
Vibe Coding ya es cosa del pasado, las nuevas reglas del juego tienen un solo nombre—
Agentic Engineering (Ingeniería de agentes).
Inmediatamente después, Opus 4.6 y GPT-5.3-Codex se lanzaron la noche siguiente, «chocando» en vivo, centrados en «tareas a largo plazo y ingeniería de sistemas».
Justo cuando todos pensaron que era otra actuación en solitario de un gigante cerrado, se reveló el misterio de Pony Alpha—
Es GLM-5.
El primer modelo de código abierto en el mundo en competir directamente con los gigantes de Silicon Valley en capacidades de ingeniería a nivel de sistema.
Tras revelarse el secreto, ¡el precio de Zhizhi subió un 32%!
¡Primero en el mundo en código abierto! El «Momento Opus» de modelos nacionales
Tras probarlo en serio, solo podemos decir: ¡es realmente increíble!
Si Claude Opus representa la cúspide de los modelos cerrados, entonces el lanzamiento de GLM-5 marca sin duda el «Momento Opus» para los modelos de código abierto nacionales.
El mismo día de su lanzamiento, más de diez aplicaciones y herramientas desarrolladas por la comunidad basadas en GLM-5 se mostraron y ofrecieron para experimentar, y en breve estas aplicaciones llegarán a las principales tiendas de apps.
Esto significa que GLM-5 está transformando la «programación AI» en «entrega AI», logrando una transición sin fisuras de herramientas de productividad a productos comerciales.
Por ejemplo, este proyecto llamado «Pookie World».
Es un mundo paralelo digital impulsado por GLM-5, que mediante múltiples capas de marcos biológico-psicológicos otorga a los agentes autónomos una narrativa completa y motivaciones vitales reales.
También está la versión remasterizada de «Mi Mundo», que es exactamente igual en efectos y jugabilidad a Minecraft.
Nosotros también usamos Claude Code como interfaz, conectándonos directamente a la API de GLM-5 para realizar pruebas multidimensionales.
Ya sea un proyecto full-stack en Next.js o una aplicación nativa en MacOS/iOS, puede realizar todo el ciclo completo desde análisis de requisitos, diseño de arquitectura, codificación y depuración de extremo a extremo.
Tras hacer varios proyectos, en lo profundo sentimos:
En cierto sentido, GLM-5 quizás sea un modelo capaz de cambiar el panorama de la industria.
· Desafío de lógica compleja: «Universo de conocimiento infinito»
Si piensas que hacer una página web es sencillo, intenta que la IA gestione un proyecto de «flujo infinito» que requiere un formato JSON muy estricto y renderizado dinámico.
Tomemos como ejemplo nuestro primer test, «Universo de conocimiento infinito».
Es un proyecto típico de separación front-end y back-end compleja, que involucra renderizado dinámico con React Flow, diseño de rutas API en Next.js, y requisitos muy estrictos de formato JSON.
En esto, GLM-5 mostró un rendimiento sorprendente.
No solo completó toda la estructura de archivos del proyecto en una sola vez, sino que también sorprendió con su lógica de depuración.
Al encontrar un bug de renderizado, solo dijimos: «La página sigue en negro, no aparece el primer contenido al inicializar…»
GLM-5 inmediatamente identificó que era un problema de momento de carga y rápidamente propuso una solución.
El prompt completo fue:
Visualización conceptual de flujo infinito
Concepto central: es un mapa mental «que nunca termina». El usuario ingresa cualquier palabra clave (como «física cuántica» o «Sueño de la Cámara Roja»), y el sistema genera un nodo central. Al hacer clic en cualquier nodo, la IA expande en tiempo real sus nodos hijos.
Momento impactante: el usuario siente que interactúa con un cerebro omnisciente. Cuando hace clic en un concepto poco conocido, la IA aún puede expandir con precisión el siguiente nivel, creando una sensación de «exploración infinita» que resulta muy impactante.
Visual y difusión:
Usar React Flow o ECharts para crear una red de nodos dinámica y arrastrable.
La paleta de colores en estilo Cyberpunk o minimalista, perfecta para capturas y compartir en redes.
Viabilidad:
Frontend: React + React Flow (para dibujar).
Backend: API Route en Next.js.
Estrategia de prompt: sin necesidad de memoria contextual compleja, solo que la IA genere 5-6 nodos relacionados para el «nodo actual» y devuelva en formato JSON.
Dificultad clave: hacer que la salida JSON sea estable y consistente (una excelente prueba de la capacidad del modelo para seguir instrucciones).
· Proyecto de middleware más complejo, listo en 11 minutos
Luego, aumentamos la dificultad para que desarrolle una app llamada «Soul Mirror» para análisis psicológico.
Requisitos en dos pasos:
Paso 1: Diseño lógico: actuar como un experto en psicología jungiana, generando un JSON con análisis y parámetros visuales.
Paso 2: Implementación frontend: renderizar SVG dinámicamente según los parámetros, creando una tarjeta estilo tarot.
Prompt
Paso 1: Diseño lógico
Desarrollar una app llamada «Soul Mirror» para análisis psicológico.
Flujo de interacción:
Página de introducción: usuario ingresa estado o confusión actual.
Página de análisis: IA hace 2 preguntas profundas para explorar el interior.
Página de resultados: en base a la conversación, IA genera una «tarjeta del alma».
Diseña el prompt principal (System Instruction): que la IA actúe como un experto en psicología jungiana. En el paso final, debe generar un JSON que incluya:
analysis: texto de análisis psicológico.
visualParams: parámetros para generar arte abstracto (como colorPalette (array de hex), shapes (círculos/triángulos/olas), chaosLevel (nivel de caos)).
Paso 2: Implementación frontend y renderizado SVG
Escribe código Next.js para la interfaz. En particular, un componente ResultCard.
Requisitos:
Recibir visualParams del paso 1.
Dibujar gráficos SVG dinámicos: si chaosLevel alto, usar Path irregular; si la paleta es cálida, fondo con gradiente anaranjado-rojo.
La tarjeta debe lucir como una carta de tarot: en el centro, patrón SVG dinámico; en la parte inferior, nombre del usuario y una «sabiduría del alma».
Añadir botón «Guardar como imagen» (usando html-to-image).
En todo momento, su capacidad de comprensión hará que parezca que se usa Opus 4.5.
Pero al mirar, es claramente GLM-5.
· Codificación de agente en 25 minutos, de una sola toma
Para probar aún más la capacidad de GLM-5, le pedimos que sin usar API, simule un usuario real y cree un sistema de monitoreo para una plataforma X.
Resultado: 25 minutos, en una sola toma.
Se puede ver que GLM-5 llama autónomamente a varias herramientas de agentes, planifica tareas, desglosa pasos, y corrige errores consultando documentación.
Esta capacidad de mantener coherencia lógica durante mucho tiempo, es algo que modelos open source anteriores no se atrevían a imaginar.
· De imagen a app, impresionante en fidelidad
Finalmente, le dimos una captura de pantalla del proyecto open source del creador de OpenClaw (una herramienta de estadísticas de cuotas AI):
Hazme una app para MacOS basada en esto.
En poco tiempo, realmente «recreó» un producto similar.
Aunque los datos son simulados, la disposición UI y la lógica de interacción son casi perfectas.
Esto demuestra no solo comprensión visual, sino también la capacidad de convertir visuales en código SwiftUI.
Desarrollador experto: replica «Cursor» básico en 1 día
Para validar los límites de GLM-5, un desarrollador veterano decidió ir a lo grande:
Desde cero, crear un asistente de programación AI con interfaz de escritorio — GLMLIFE.
Es como hacer una versión sencilla de Cursor.
Tras dejar la tarea a GLM-5, en lugar de escribir código de inmediato, generó primero un documento de arquitectura profesional (PLAN.md), con decisiones técnicas muy maduras:
Usó arquitectura Monorepo, dividiendo en tres paquetes principales:
Core: motor principal de agentes y adaptación LLM;
CLI: interfaz de línea de comandos;
Desktop: aplicación de escritorio basada en Electron + React 18.
Desde gestión de estado con Zustand, esquema de estilos con Tailwind, hasta comunicación IPC compleja, GLM-5 parecía un director técnico con diez años de experiencia, planificando todo con claridad.
Lo que normalmente tomaría tres días, en un día completo logró configurar desde entorno, lógica central, hasta empaquetado en Electron.
Al abrir GLMLIFE, es difícil creer que esto fue «arquitecturado» en un día por IA.
¿Por qué puede ser «la Opus del código abierto»?
A nivel global, Claude Opus 4.6 y GPT-5.3-Codex son tan populares por su fuerte capacidad de «arquitectura».
Opus 4.6 en estética brutal: 16 copias de IA trabajan en paralelo, en dos semanas construyeron un compilador Rust de 100,000 líneas, superando el 99% de las pruebas de GCC.
GPT-5.3 en auto-creación: es el primer modelo de OpenAI que «participa en su propia creación», involucrándose en entrenamiento y despliegue en clúster antes de nacer.
Pero todo esto tiene un precio: son cerrados y costosos.
Con el lanzamiento de GLM-5, China da un golpe contundente en la era Agentic, rompiendo con esa dependencia.
Se enfoca en un campo que los gigantes cerrados no quieren soltar: capacidades de ingeniería a nivel de sistema, con una estrategia de «reemplazo directo».
Nuevo «arquitecto backend»
El equipo de Zhizhi sabe que en la comunidad open source no faltan modelos que puedan escribir scripts en Python, sino que lo que falta son modelos que puedan manejar tareas pesadas, sucias y complejas.
GLM-5 ha reforzado significativamente su peso en diseño de arquitectura de backend, implementación de algoritmos complejos y reparación de bugs persistentes, además de incorporar un mecanismo de autorreflexión muy potente.
Cuando falla la compilación, actúa como un ingeniero experimentado: analiza logs, identifica causas, corrige código y vuelve a compilar, hasta que todo funcione.
Si va a hacer el trabajo, que cueste
Con rendimiento comparable a Opus y pesos open source, GLM-5 en cierto modo desafía las murallas de Anthropic y OpenAI.
Deploy local: puede correr en redes aisladas, y ajustarse a frameworks privados de la empresa, convirtiéndose en el experto en su propio código.
Costos controlados: los usuarios pueden usar clusters con GPU de consumo para correr un potente agente de codificación, sin preocuparse por el gasto en cada prueba.
Arrasa en SOTA
La evolución de GLM-5 solo puede describirse con dos palabras: brutalidad.
Dado que es la base para diseño de sistemas complejos, su escala debe ser máxima.
De 355B (activación 32B) a 744B (activación 40B), y datos preentrenados de 23T a 28.5T.
Pero no solo grande, también eficiente.
Se sabe que lo más costoso al correr agentes son los tokens.
Para solucionar esto, GLM-5 integra por primera vez la mecánica de atención dispersa DeepSeek Sparse Attention.
Esto le permite mantener una memoria «sin pérdida» en contextos largos, y reducir significativamente los costos de despliegue.
Otra tecnología avanzada es el nuevo marco de aprendizaje por refuerzo asíncrono Slime.
Combinado con aprendizaje por refuerzo a gran escala, hace que el modelo no sea solo una herramienta de una sola vez, sino un competidor que mejora en carreras largas.
En cuanto a puntuaciones, es de los mejores:
Capacidad de código
SWE-bench con 77.8, Terminal Bench 2.0 con 56.2, todos en primer lugar en open source. Supera a Gemini 3.0 Pro y casi iguala a Claude Opus 4.5.
Capacidad de agentes
BrowseComp (búsqueda en línea), MCP-Atlas (uso de herramientas) y τ²-Bench (planificación compleja), todos en primer lugar en open source.
Lo más interesante es Vending Bench 2 (prueba de gestión de máquinas expendedoras).
En esa prueba, el modelo debe gestionar solo, durante un año, una máquina expendedora.
¿Adivina qué? Hasta fin de año, GLM-5 ganó 4432 dólares, casi a la par con Opus 4.5.
En las evaluaciones internas de Claude Code, que más interesan a los desarrolladores, GLM-5 supera notablemente a la generación anterior GLM-4.7 en tareas de programación front-end, back-end y tareas a largo plazo (más del 20% de mejora en promedio).
La experiencia real ya se acerca a Opus 4.5.
Crear AI con AI
Por supuesto, la ambición de GLM-5 no solo es el modelo, sino también revolucionar nuestras herramientas de programación.
El popular OpenClaw mostró el potencial de la IA para operar computadoras.
Ahora, Zhizhi lanza la versión AutoGLM de OpenClaw.
Con la versión original, solo configurar el entorno llevaba medio día; ahora, con un clic en la web, listo para usar.
¿Quieres un «asistente digital» que te vigile en Twitter, organice noticias y hasta escriba scripts 24/7? Solo un clic.
También lanzaron Z Code—
Una nueva generación de herramientas de desarrollo basada en las capacidades de GLM-5.
En Z Code, solo necesitas dar la orden, y el modelo automáticamente desglosa tareas, despliega múltiples agentes para programar, ejecutar comandos, depurar, previsualizar, e incluso hacer commits en Git.
Y puedes controlarlo remotamente desde el móvil.
Cabe destacar que, así como OpenAI usó Codex para crear Codex, Z Code también fue desarrollado con participación completa del modelo GLM.
Victoria en poder de la computación nacional
Detrás del éxito global de GLM-5 y la explosión de demanda de agentes, hay un grupo de «héroes anónimos» que soportan silenciosamente la carga computacional masiva.
Para garantizar que cada línea de código y cada planificación de agente sea estable, GLM-5 se ha integrado profundamente en la «zona interna» de la computación nacional, adaptándose a plataformas principales como Huawei Ascend, Moiré, Cambrian, Kunlun, Muxi, Suiyuan, Hygon, logrando optimizaciones a nivel de operadores básicos.
Gracias a estas optimizaciones, GLM-5 puede correr en clústeres de chips nacionales con alto rendimiento y baja latencia.
Esto significa que no solo contamos con un modelo de primera, sino que también no estamos atados por dependencias externas.
Conclusión
En la primavera de 2026, los grandes modelos de programación finalmente dejan atrás su inmadurez.
Lo que Karpathy llama «Agentic Engineering» en esencia es una exigencia aún más estricta para la IA:
Antes (Vibe Coding): solo necesitas saber hacer HTML bonito, y te contratan.
Ahora (Agentic Coding): necesitas entender Linux, microservicios, reestructurar código sin fallar en línea, y además planear tareas y arreglar bugs por ti mismo.
GLM-5 no es perfecto.
Pero en la tarea central de «construir sistemas complejos», es actualmente el único modelo open source capaz de sostener esta ola de «Agentic».
Vibe Coding terminó.
Deja de preguntar a la IA «¿me puedes ayudar a hacer una página web?». Eso fue en 2025.
Ahora, pregúntale: «¿Me puedes ayudar a reestructurar el módulo central de este sistema de alta concurrencia?»
¡GLM-5, listo para construir!
Easter Egg
GLM-5 ya está incluido en el paquete Max para usuarios, y Pro estará disponible en 5 días.
Además, Zhizhi acaba de anunciar un aumento de precios, ¡los tokens de este año definitivamente subirán!
Fuente: Xinzhiyuan
Aviso de riesgo y exención de responsabilidad
El mercado tiene riesgos, invierta con cautela. Este artículo no constituye consejo de inversión personal, ni considera objetivos, situación financiera o necesidades particulares. Los usuarios deben evaluar si las opiniones, puntos de vista o conclusiones aquí presentados son adecuados para su situación específica. Invierta bajo su propio riesgo.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
El precio de las acciones subió un 32%, GLM-5 encabeza el ranking mundial de código abierto, en 25 minutos con una sola toma se muestra el sistema completo
La noche del 7 de febrero, un modelo misterioso con el código «Pony Alpha» se lanzó silenciosamente.
Luego, explotó en la red.
Ingresando un fragmento de «código de montaña de mierda» que llevaba un día sin poder arreglar, reconstruyó la arquitectura con facilidad; al introducir una simple indicación, generó una aplicación web completa, suave en UI, con 35 estaciones de radio.
Esta capacidad de ingeniería extrema confirmó directamente la afirmación de Andrej Karpathy de hace unos días:
Inmediatamente después, Opus 4.6 y GPT-5.3-Codex se lanzaron la noche siguiente, «chocando» en vivo, centrados en «tareas a largo plazo y ingeniería de sistemas».
Justo cuando todos pensaron que era otra actuación en solitario de un gigante cerrado, se reveló el misterio de Pony Alpha—
Es GLM-5.
El primer modelo de código abierto en el mundo en competir directamente con los gigantes de Silicon Valley en capacidades de ingeniería a nivel de sistema.
Tras revelarse el secreto, ¡el precio de Zhizhi subió un 32%!
¡Primero en el mundo en código abierto! El «Momento Opus» de modelos nacionales
Tras probarlo en serio, solo podemos decir: ¡es realmente increíble!
Si Claude Opus representa la cúspide de los modelos cerrados, entonces el lanzamiento de GLM-5 marca sin duda el «Momento Opus» para los modelos de código abierto nacionales.
El mismo día de su lanzamiento, más de diez aplicaciones y herramientas desarrolladas por la comunidad basadas en GLM-5 se mostraron y ofrecieron para experimentar, y en breve estas aplicaciones llegarán a las principales tiendas de apps.
Esto significa que GLM-5 está transformando la «programación AI» en «entrega AI», logrando una transición sin fisuras de herramientas de productividad a productos comerciales.
Por ejemplo, este proyecto llamado «Pookie World».
Es un mundo paralelo digital impulsado por GLM-5, que mediante múltiples capas de marcos biológico-psicológicos otorga a los agentes autónomos una narrativa completa y motivaciones vitales reales.
También está la versión remasterizada de «Mi Mundo», que es exactamente igual en efectos y jugabilidad a Minecraft.
Nosotros también usamos Claude Code como interfaz, conectándonos directamente a la API de GLM-5 para realizar pruebas multidimensionales.
Ya sea un proyecto full-stack en Next.js o una aplicación nativa en MacOS/iOS, puede realizar todo el ciclo completo desde análisis de requisitos, diseño de arquitectura, codificación y depuración de extremo a extremo.
Tras hacer varios proyectos, en lo profundo sentimos:
· Desafío de lógica compleja: «Universo de conocimiento infinito»
Si piensas que hacer una página web es sencillo, intenta que la IA gestione un proyecto de «flujo infinito» que requiere un formato JSON muy estricto y renderizado dinámico.
Tomemos como ejemplo nuestro primer test, «Universo de conocimiento infinito».
Es un proyecto típico de separación front-end y back-end compleja, que involucra renderizado dinámico con React Flow, diseño de rutas API en Next.js, y requisitos muy estrictos de formato JSON.
En esto, GLM-5 mostró un rendimiento sorprendente.
No solo completó toda la estructura de archivos del proyecto en una sola vez, sino que también sorprendió con su lógica de depuración.
Al encontrar un bug de renderizado, solo dijimos: «La página sigue en negro, no aparece el primer contenido al inicializar…»
GLM-5 inmediatamente identificó que era un problema de momento de carga y rápidamente propuso una solución.
El prompt completo fue:
· Proyecto de middleware más complejo, listo en 11 minutos
Luego, aumentamos la dificultad para que desarrolle una app llamada «Soul Mirror» para análisis psicológico.
Requisitos en dos pasos:
Paso 1: Diseño lógico: actuar como un experto en psicología jungiana, generando un JSON con análisis y parámetros visuales.
Paso 2: Implementación frontend: renderizar SVG dinámicamente según los parámetros, creando una tarjeta estilo tarot.
En todo momento, su capacidad de comprensión hará que parezca que se usa Opus 4.5.
Pero al mirar, es claramente GLM-5.
· Codificación de agente en 25 minutos, de una sola toma
Para probar aún más la capacidad de GLM-5, le pedimos que sin usar API, simule un usuario real y cree un sistema de monitoreo para una plataforma X.
Resultado: 25 minutos, en una sola toma.
Se puede ver que GLM-5 llama autónomamente a varias herramientas de agentes, planifica tareas, desglosa pasos, y corrige errores consultando documentación.
Esta capacidad de mantener coherencia lógica durante mucho tiempo, es algo que modelos open source anteriores no se atrevían a imaginar.
· De imagen a app, impresionante en fidelidad
Finalmente, le dimos una captura de pantalla del proyecto open source del creador de OpenClaw (una herramienta de estadísticas de cuotas AI):
En poco tiempo, realmente «recreó» un producto similar.
Aunque los datos son simulados, la disposición UI y la lógica de interacción son casi perfectas.
Esto demuestra no solo comprensión visual, sino también la capacidad de convertir visuales en código SwiftUI.
Desarrollador experto: replica «Cursor» básico en 1 día
Para validar los límites de GLM-5, un desarrollador veterano decidió ir a lo grande:
Es como hacer una versión sencilla de Cursor.
Tras dejar la tarea a GLM-5, en lugar de escribir código de inmediato, generó primero un documento de arquitectura profesional (PLAN.md), con decisiones técnicas muy maduras:
Usó arquitectura Monorepo, dividiendo en tres paquetes principales:
Core: motor principal de agentes y adaptación LLM;
CLI: interfaz de línea de comandos;
Desktop: aplicación de escritorio basada en Electron + React 18.
Desde gestión de estado con Zustand, esquema de estilos con Tailwind, hasta comunicación IPC compleja, GLM-5 parecía un director técnico con diez años de experiencia, planificando todo con claridad.
Lo que normalmente tomaría tres días, en un día completo logró configurar desde entorno, lógica central, hasta empaquetado en Electron.
Al abrir GLMLIFE, es difícil creer que esto fue «arquitecturado» en un día por IA.
¿Por qué puede ser «la Opus del código abierto»?
A nivel global, Claude Opus 4.6 y GPT-5.3-Codex son tan populares por su fuerte capacidad de «arquitectura».
Opus 4.6 en estética brutal: 16 copias de IA trabajan en paralelo, en dos semanas construyeron un compilador Rust de 100,000 líneas, superando el 99% de las pruebas de GCC.
GPT-5.3 en auto-creación: es el primer modelo de OpenAI que «participa en su propia creación», involucrándose en entrenamiento y despliegue en clúster antes de nacer.
Pero todo esto tiene un precio: son cerrados y costosos.
Con el lanzamiento de GLM-5, China da un golpe contundente en la era Agentic, rompiendo con esa dependencia.
Se enfoca en un campo que los gigantes cerrados no quieren soltar: capacidades de ingeniería a nivel de sistema, con una estrategia de «reemplazo directo».
El equipo de Zhizhi sabe que en la comunidad open source no faltan modelos que puedan escribir scripts en Python, sino que lo que falta son modelos que puedan manejar tareas pesadas, sucias y complejas.
GLM-5 ha reforzado significativamente su peso en diseño de arquitectura de backend, implementación de algoritmos complejos y reparación de bugs persistentes, además de incorporar un mecanismo de autorreflexión muy potente.
Cuando falla la compilación, actúa como un ingeniero experimentado: analiza logs, identifica causas, corrige código y vuelve a compilar, hasta que todo funcione.
Con rendimiento comparable a Opus y pesos open source, GLM-5 en cierto modo desafía las murallas de Anthropic y OpenAI.
Deploy local: puede correr en redes aisladas, y ajustarse a frameworks privados de la empresa, convirtiéndose en el experto en su propio código.
Costos controlados: los usuarios pueden usar clusters con GPU de consumo para correr un potente agente de codificación, sin preocuparse por el gasto en cada prueba.
Arrasa en SOTA
La evolución de GLM-5 solo puede describirse con dos palabras: brutalidad.
Dado que es la base para diseño de sistemas complejos, su escala debe ser máxima.
Pero no solo grande, también eficiente.
Se sabe que lo más costoso al correr agentes son los tokens.
Para solucionar esto, GLM-5 integra por primera vez la mecánica de atención dispersa DeepSeek Sparse Attention.
Esto le permite mantener una memoria «sin pérdida» en contextos largos, y reducir significativamente los costos de despliegue.
Otra tecnología avanzada es el nuevo marco de aprendizaje por refuerzo asíncrono Slime.
Combinado con aprendizaje por refuerzo a gran escala, hace que el modelo no sea solo una herramienta de una sola vez, sino un competidor que mejora en carreras largas.
En cuanto a puntuaciones, es de los mejores:
Capacidad de código
SWE-bench con 77.8, Terminal Bench 2.0 con 56.2, todos en primer lugar en open source. Supera a Gemini 3.0 Pro y casi iguala a Claude Opus 4.5.
Capacidad de agentes
BrowseComp (búsqueda en línea), MCP-Atlas (uso de herramientas) y τ²-Bench (planificación compleja), todos en primer lugar en open source.
Lo más interesante es Vending Bench 2 (prueba de gestión de máquinas expendedoras).
En esa prueba, el modelo debe gestionar solo, durante un año, una máquina expendedora.
¿Adivina qué? Hasta fin de año, GLM-5 ganó 4432 dólares, casi a la par con Opus 4.5.
En las evaluaciones internas de Claude Code, que más interesan a los desarrolladores, GLM-5 supera notablemente a la generación anterior GLM-4.7 en tareas de programación front-end, back-end y tareas a largo plazo (más del 20% de mejora en promedio).
La experiencia real ya se acerca a Opus 4.5.
Crear AI con AI
Por supuesto, la ambición de GLM-5 no solo es el modelo, sino también revolucionar nuestras herramientas de programación.
El popular OpenClaw mostró el potencial de la IA para operar computadoras.
Ahora, Zhizhi lanza la versión AutoGLM de OpenClaw.
Con la versión original, solo configurar el entorno llevaba medio día; ahora, con un clic en la web, listo para usar.
¿Quieres un «asistente digital» que te vigile en Twitter, organice noticias y hasta escriba scripts 24/7? Solo un clic.
También lanzaron Z Code—
En Z Code, solo necesitas dar la orden, y el modelo automáticamente desglosa tareas, despliega múltiples agentes para programar, ejecutar comandos, depurar, previsualizar, e incluso hacer commits en Git.
Y puedes controlarlo remotamente desde el móvil.
Cabe destacar que, así como OpenAI usó Codex para crear Codex, Z Code también fue desarrollado con participación completa del modelo GLM.
Victoria en poder de la computación nacional
Detrás del éxito global de GLM-5 y la explosión de demanda de agentes, hay un grupo de «héroes anónimos» que soportan silenciosamente la carga computacional masiva.
Para garantizar que cada línea de código y cada planificación de agente sea estable, GLM-5 se ha integrado profundamente en la «zona interna» de la computación nacional, adaptándose a plataformas principales como Huawei Ascend, Moiré, Cambrian, Kunlun, Muxi, Suiyuan, Hygon, logrando optimizaciones a nivel de operadores básicos.
Gracias a estas optimizaciones, GLM-5 puede correr en clústeres de chips nacionales con alto rendimiento y baja latencia.
Esto significa que no solo contamos con un modelo de primera, sino que también no estamos atados por dependencias externas.
Conclusión
En la primavera de 2026, los grandes modelos de programación finalmente dejan atrás su inmadurez.
Lo que Karpathy llama «Agentic Engineering» en esencia es una exigencia aún más estricta para la IA:
Antes (Vibe Coding): solo necesitas saber hacer HTML bonito, y te contratan.
Ahora (Agentic Coding): necesitas entender Linux, microservicios, reestructurar código sin fallar en línea, y además planear tareas y arreglar bugs por ti mismo.
GLM-5 no es perfecto.
Pero en la tarea central de «construir sistemas complejos», es actualmente el único modelo open source capaz de sostener esta ola de «Agentic».
Vibe Coding terminó.
Deja de preguntar a la IA «¿me puedes ayudar a hacer una página web?». Eso fue en 2025.
Ahora, pregúntale: «¿Me puedes ayudar a reestructurar el módulo central de este sistema de alta concurrencia?»
¡GLM-5, listo para construir!
Easter Egg
GLM-5 ya está incluido en el paquete Max para usuarios, y Pro estará disponible en 5 días.
Además, Zhizhi acaba de anunciar un aumento de precios, ¡los tokens de este año definitivamente subirán!
Fuente: Xinzhiyuan
Aviso de riesgo y exención de responsabilidad
El mercado tiene riesgos, invierta con cautela. Este artículo no constituye consejo de inversión personal, ni considera objetivos, situación financiera o necesidades particulares. Los usuarios deben evaluar si las opiniones, puntos de vista o conclusiones aquí presentados son adecuados para su situación específica. Invierta bajo su propio riesgo.