Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Launchpad
Anticípate a los demás en el próximo gran proyecto de tokens
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
El precio de las acciones subió un 32%, GLM-5 encabeza el ranking mundial de código abierto, en 25 minutos con una sola toma se muestra el sistema completo
La noche del 7 de febrero, un modelo misterioso con el código «Pony Alpha» se lanzó silenciosamente.
Luego, explotó en la red.
Ingresando un fragmento de «código de montaña de mierda» que llevaba un día sin poder arreglar, reconstruyó la arquitectura con facilidad; al introducir una simple indicación, generó una aplicación web completa, suave en UI, con 35 estaciones de radio.
Esta capacidad de ingeniería extrema confirmó directamente la afirmación de Andrej Karpathy de hace unos días:
Inmediatamente después, Opus 4.6 y GPT-5.3-Codex se lanzaron la noche siguiente, «chocando» en vivo, centrados en «tareas a largo plazo y ingeniería de sistemas».
Justo cuando todos pensaron que era otra actuación en solitario de un gigante cerrado, se reveló el misterio de Pony Alpha—
Es GLM-5.
El primer modelo de código abierto en el mundo en competir directamente con los gigantes de Silicon Valley en capacidades de ingeniería a nivel de sistema.
Tras revelarse el secreto, ¡el precio de Zhizhi subió un 32%!
¡Primero en el mundo en código abierto! El «Momento Opus» de modelos nacionales
Tras probarlo en serio, solo podemos decir: ¡es realmente increíble!
Si Claude Opus representa la cúspide de los modelos cerrados, entonces el lanzamiento de GLM-5 marca sin duda el «Momento Opus» para los modelos de código abierto nacionales.
El mismo día de su lanzamiento, más de diez aplicaciones y herramientas desarrolladas por la comunidad basadas en GLM-5 se mostraron y ofrecieron para experimentar, y en breve estas aplicaciones llegarán a las principales tiendas de apps.
Esto significa que GLM-5 está transformando la «programación AI» en «entrega AI», logrando una transición sin fisuras de herramientas de productividad a productos comerciales.
Por ejemplo, este proyecto llamado «Pookie World».
Es un mundo paralelo digital impulsado por GLM-5, que mediante múltiples capas de marcos biológico-psicológicos otorga a los agentes autónomos una narrativa completa y motivaciones vitales reales.
También está la versión remasterizada de «Mi Mundo», que es exactamente igual en efectos y jugabilidad a Minecraft.
Nosotros también usamos Claude Code como interfaz, conectándonos directamente a la API de GLM-5 para realizar pruebas multidimensionales.
Ya sea un proyecto full-stack en Next.js o una aplicación nativa en MacOS/iOS, puede realizar todo el ciclo completo desde análisis de requisitos, diseño de arquitectura, codificación y depuración de extremo a extremo.
Tras hacer varios proyectos, en lo profundo sentimos:
· Desafío de lógica compleja: «Universo de conocimiento infinito»
Si piensas que hacer una página web es sencillo, intenta que la IA gestione un proyecto de «flujo infinito» que requiere un formato JSON muy estricto y renderizado dinámico.
Tomemos como ejemplo nuestro primer test, «Universo de conocimiento infinito».
Es un proyecto típico de separación front-end y back-end compleja, que involucra renderizado dinámico con React Flow, diseño de rutas API en Next.js, y requisitos muy estrictos de formato JSON.
En esto, GLM-5 mostró un rendimiento sorprendente.
No solo completó toda la estructura de archivos del proyecto en una sola vez, sino que también sorprendió con su lógica de depuración.
Al encontrar un bug de renderizado, solo dijimos: «La página sigue en negro, no aparece el primer contenido al inicializar…»
GLM-5 inmediatamente identificó que era un problema de momento de carga y rápidamente propuso una solución.
El prompt completo fue:
· Proyecto de middleware más complejo, listo en 11 minutos
Luego, aumentamos la dificultad para que desarrolle una app llamada «Soul Mirror» para análisis psicológico.
Requisitos en dos pasos:
Paso 1: Diseño lógico: actuar como un experto en psicología jungiana, generando un JSON con análisis y parámetros visuales.
Paso 2: Implementación frontend: renderizar SVG dinámicamente según los parámetros, creando una tarjeta estilo tarot.
En todo momento, su capacidad de comprensión hará que parezca que se usa Opus 4.5.
Pero al mirar, es claramente GLM-5.
· Codificación de agente en 25 minutos, de una sola toma
Para probar aún más la capacidad de GLM-5, le pedimos que sin usar API, simule un usuario real y cree un sistema de monitoreo para una plataforma X.
Resultado: 25 minutos, en una sola toma.
Se puede ver que GLM-5 llama autónomamente a varias herramientas de agentes, planifica tareas, desglosa pasos, y corrige errores consultando documentación.
Esta capacidad de mantener coherencia lógica durante mucho tiempo, es algo que modelos open source anteriores no se atrevían a imaginar.
· De imagen a app, impresionante en fidelidad
Finalmente, le dimos una captura de pantalla del proyecto open source del creador de OpenClaw (una herramienta de estadísticas de cuotas AI):
En poco tiempo, realmente «recreó» un producto similar.
Aunque los datos son simulados, la disposición UI y la lógica de interacción son casi perfectas.
Esto demuestra no solo comprensión visual, sino también la capacidad de convertir visuales en código SwiftUI.
Desarrollador experto: replica «Cursor» básico en 1 día
Para validar los límites de GLM-5, un desarrollador veterano decidió ir a lo grande:
Es como hacer una versión sencilla de Cursor.
Tras dejar la tarea a GLM-5, en lugar de escribir código de inmediato, generó primero un documento de arquitectura profesional (PLAN.md), con decisiones técnicas muy maduras:
Usó arquitectura Monorepo, dividiendo en tres paquetes principales:
Core: motor principal de agentes y adaptación LLM;
CLI: interfaz de línea de comandos;
Desktop: aplicación de escritorio basada en Electron + React 18.
Desde gestión de estado con Zustand, esquema de estilos con Tailwind, hasta comunicación IPC compleja, GLM-5 parecía un director técnico con diez años de experiencia, planificando todo con claridad.
Lo que normalmente tomaría tres días, en un día completo logró configurar desde entorno, lógica central, hasta empaquetado en Electron.
Al abrir GLMLIFE, es difícil creer que esto fue «arquitecturado» en un día por IA.
¿Por qué puede ser «la Opus del código abierto»?
A nivel global, Claude Opus 4.6 y GPT-5.3-Codex son tan populares por su fuerte capacidad de «arquitectura».
Opus 4.6 en estética brutal: 16 copias de IA trabajan en paralelo, en dos semanas construyeron un compilador Rust de 100,000 líneas, superando el 99% de las pruebas de GCC.
GPT-5.3 en auto-creación: es el primer modelo de OpenAI que «participa en su propia creación», involucrándose en entrenamiento y despliegue en clúster antes de nacer.
Pero todo esto tiene un precio: son cerrados y costosos.
Con el lanzamiento de GLM-5, China da un golpe contundente en la era Agentic, rompiendo con esa dependencia.
Se enfoca en un campo que los gigantes cerrados no quieren soltar: capacidades de ingeniería a nivel de sistema, con una estrategia de «reemplazo directo».
El equipo de Zhizhi sabe que en la comunidad open source no faltan modelos que puedan escribir scripts en Python, sino que lo que falta son modelos que puedan manejar tareas pesadas, sucias y complejas.
GLM-5 ha reforzado significativamente su peso en diseño de arquitectura de backend, implementación de algoritmos complejos y reparación de bugs persistentes, además de incorporar un mecanismo de autorreflexión muy potente.
Cuando falla la compilación, actúa como un ingeniero experimentado: analiza logs, identifica causas, corrige código y vuelve a compilar, hasta que todo funcione.
Con rendimiento comparable a Opus y pesos open source, GLM-5 en cierto modo desafía las murallas de Anthropic y OpenAI.
Deploy local: puede correr en redes aisladas, y ajustarse a frameworks privados de la empresa, convirtiéndose en el experto en su propio código.
Costos controlados: los usuarios pueden usar clusters con GPU de consumo para correr un potente agente de codificación, sin preocuparse por el gasto en cada prueba.
Arrasa en SOTA
La evolución de GLM-5 solo puede describirse con dos palabras: brutalidad.
Dado que es la base para diseño de sistemas complejos, su escala debe ser máxima.
Pero no solo grande, también eficiente.
Se sabe que lo más costoso al correr agentes son los tokens.
Para solucionar esto, GLM-5 integra por primera vez la mecánica de atención dispersa DeepSeek Sparse Attention.
Esto le permite mantener una memoria «sin pérdida» en contextos largos, y reducir significativamente los costos de despliegue.
Otra tecnología avanzada es el nuevo marco de aprendizaje por refuerzo asíncrono Slime.
Combinado con aprendizaje por refuerzo a gran escala, hace que el modelo no sea solo una herramienta de una sola vez, sino un competidor que mejora en carreras largas.
En cuanto a puntuaciones, es de los mejores:
Capacidad de código
SWE-bench con 77.8, Terminal Bench 2.0 con 56.2, todos en primer lugar en open source. Supera a Gemini 3.0 Pro y casi iguala a Claude Opus 4.5.
Capacidad de agentes
BrowseComp (búsqueda en línea), MCP-Atlas (uso de herramientas) y τ²-Bench (planificación compleja), todos en primer lugar en open source.
Lo más interesante es Vending Bench 2 (prueba de gestión de máquinas expendedoras).
En esa prueba, el modelo debe gestionar solo, durante un año, una máquina expendedora.
¿Adivina qué? Hasta fin de año, GLM-5 ganó 4432 dólares, casi a la par con Opus 4.5.
En las evaluaciones internas de Claude Code, que más interesan a los desarrolladores, GLM-5 supera notablemente a la generación anterior GLM-4.7 en tareas de programación front-end, back-end y tareas a largo plazo (más del 20% de mejora en promedio).
La experiencia real ya se acerca a Opus 4.5.
Crear AI con AI
Por supuesto, la ambición de GLM-5 no solo es el modelo, sino también revolucionar nuestras herramientas de programación.
El popular OpenClaw mostró el potencial de la IA para operar computadoras.
Ahora, Zhizhi lanza la versión AutoGLM de OpenClaw.
Con la versión original, solo configurar el entorno llevaba medio día; ahora, con un clic en la web, listo para usar.
¿Quieres un «asistente digital» que te vigile en Twitter, organice noticias y hasta escriba scripts 24/7? Solo un clic.
También lanzaron Z Code—
En Z Code, solo necesitas dar la orden, y el modelo automáticamente desglosa tareas, despliega múltiples agentes para programar, ejecutar comandos, depurar, previsualizar, e incluso hacer commits en Git.
Y puedes controlarlo remotamente desde el móvil.
Cabe destacar que, así como OpenAI usó Codex para crear Codex, Z Code también fue desarrollado con participación completa del modelo GLM.
Victoria en poder de la computación nacional
Detrás del éxito global de GLM-5 y la explosión de demanda de agentes, hay un grupo de «héroes anónimos» que soportan silenciosamente la carga computacional masiva.
Para garantizar que cada línea de código y cada planificación de agente sea estable, GLM-5 se ha integrado profundamente en la «zona interna» de la computación nacional, adaptándose a plataformas principales como Huawei Ascend, Moiré, Cambrian, Kunlun, Muxi, Suiyuan, Hygon, logrando optimizaciones a nivel de operadores básicos.
Gracias a estas optimizaciones, GLM-5 puede correr en clústeres de chips nacionales con alto rendimiento y baja latencia.
Esto significa que no solo contamos con un modelo de primera, sino que también no estamos atados por dependencias externas.
Conclusión
En la primavera de 2026, los grandes modelos de programación finalmente dejan atrás su inmadurez.
Lo que Karpathy llama «Agentic Engineering» en esencia es una exigencia aún más estricta para la IA:
Antes (Vibe Coding): solo necesitas saber hacer HTML bonito, y te contratan.
Ahora (Agentic Coding): necesitas entender Linux, microservicios, reestructurar código sin fallar en línea, y además planear tareas y arreglar bugs por ti mismo.
GLM-5 no es perfecto.
Pero en la tarea central de «construir sistemas complejos», es actualmente el único modelo open source capaz de sostener esta ola de «Agentic».
Vibe Coding terminó.
Deja de preguntar a la IA «¿me puedes ayudar a hacer una página web?». Eso fue en 2025.
Ahora, pregúntale: «¿Me puedes ayudar a reestructurar el módulo central de este sistema de alta concurrencia?»
¡GLM-5, listo para construir!
Easter Egg
GLM-5 ya está incluido en el paquete Max para usuarios, y Pro estará disponible en 5 días.
Además, Zhizhi acaba de anunciar un aumento de precios, ¡los tokens de este año definitivamente subirán!
Fuente: Xinzhiyuan
Aviso de riesgo y exención de responsabilidad
El mercado tiene riesgos, invierta con cautela. Este artículo no constituye consejo de inversión personal, ni considera objetivos, situación financiera o necesidades particulares. Los usuarios deben evaluar si las opiniones, puntos de vista o conclusiones aquí presentados son adecuados para su situación específica. Invierta bajo su propio riesgo.