O preço das ações disparou 32%, GLM-5 lidera o ranking mundial de código aberto, uma filmagem contínua de 25 minutos revela um sistema completo

Na madrugada de 7 de fevereiro, um modelo misterioso com o codinome «Pony Alpha» foi lançado silenciosamente.

Logo depois, explodiu na internet.

Inserindo um trecho de «código de montanha de porcaria» que passou um dia inteiro tentando consertar, ele reestruturou a arquitetura com facilidade; ao fornecer uma instrução simples, gerou um Web App completo, com 35 estações de rádio e interface fluida.

Essa capacidade de engenharia extrema confirmou diretamente a afirmação de Andrej Karpathy de poucos dias atrás:

Vibe Coding já é coisa do passado, as novas regras do jogo têm apenas um nome —

Agentic Engineering (Engenharia de Agentes).

Na sequência, Opus 4.6 e GPT-5.3-Codex foram lançados na mesma madrugada, enfrentando-se de frente, ambos focados em «tarefas de longo prazo, engenharia de sistemas».

Quando todos pensaram que era mais uma jogada de um gigante de código fechado, o mistério de Pony Alpha foi revelado—

Ele é o GLM-5.

O primeiro modelo de código aberto do mundo a competir de frente com os gigantes do Vale do Silício na capacidade de engenharia de nível sistêmico.

Após a revelação, o preço das ações da Zhipu disparou 32%!

Primeiro do mundo de código aberto! O «Momento Opus» do modelo nacional

Depois de realmente experimentar, só podemos ter uma sensação: é realmente muito forte!

Se Claude Opus representa o auge dos modelos fechados, então o lançamento do GLM-5 marca, sem dúvida, o «Momento Opus» dos modelos de código aberto nacionais.

No mesmo dia do lançamento, mais de uma dezena de aplicativos e ferramentas criados por desenvolvedores com base no GLM-5 foram exibidos e disponibilizados para testes, e esses aplicativos serão gradualmente lançados nas principais lojas de aplicativos.

Isso significa que o GLM-5 está transformando «programação de IA» em «entrega de IA», realizando uma transição sem costura de ferramentas de produtividade para produtos comerciais.

Por exemplo, o projeto chamado «Pookie World».

É um mundo paralelo digital impulsionado pelo GLM-5, que, por meio de múltiplas camadas de estruturas biológico-psicológicas, confere aos agentes autônomos uma narrativa completa e motivações de vida reais.

Há também uma versão recriada de «Minecraft», com efeitos e jogabilidade idênticos ao original.

Utilizamos também o Claude Code como interface, conectando diretamente à API do GLM-5 para testes multidimensionais.

Seja em projetos full-stack com Next.js ou aplicativos nativos para MacOS/iOS, consegue realizar todo o ciclo de análise de requisitos, design de arquitetura, codificação e depuração ponta a ponta.

Depois de vários projetos, uma sensação intuitiva surge:

Em certo nível, o GLM-5 talvez seja um modelo capaz de mudar o cenário da indústria.

· Desafio de lógica complexa: «Universo de Conhecimento Ilimitado»

Se você acha que fazer uma página web é fácil, tente fazer a IA resolver um projeto de fluxo infinito que exija formato JSON extremamente rigoroso e renderização dinâmica.

Tomando como exemplo o nosso teste inicial, «Universo de Conhecimento Ilimitado».

É um projeto típico de separação front-end/back-end complexa, envolvendo renderização dinâmica com React Flow, roteamento API com Next.js, além de requisitos de saída JSON extremamente estritos.

Nesse contexto, o desempenho do GLM-5 foi surpreendente.

Ele não só completou toda a estrutura de arquivos do projeto de uma só vez, como também surpreendeu na lógica de depuração.

Ao encontrar um bug de renderização, apenas dissemos: «A página ainda está toda preta, o primeiro conteúdo não apareceu na inicialização…»

O GLM-5 imediatamente identificou que era uma questão de momento de carregamento e rapidamente forneceu uma solução de correção.

O prompt completo foi o seguinte:

Visualização de conceito de fluxo infinito

Conceito central: é um mapa mental «eternamente incompleto». O usuário insere qualquer palavra-chave (como «física quântica» ou «Sonho da Câmara Vermelha»), e o sistema gera o nó central. Clicando em qualquer nó, a IA expande em tempo real seus subnós.

Momento de surpresa: o usuário sente que está interagindo com um cérebro onisciente. Quando clica casualmente em um conceito obscuro, a IA consegue expandir com precisão o próximo nível, essa sensação de «exploração infinita» é muito impactante.

Visual e disseminação:

  • Usar React Flow ou ECharts para criar uma rede de nós dinâmica e arrastável.
  • Usar cores estilo Cyberpunk ou minimalista, ideal para capturas de tela e compartilhar nas redes.

Viabilidade:

  • Front-end: React + React Flow (para desenho).
  • Back-end: Roteamento API com Next.js.
  • Estratégia de prompt: não precisa de memória de contexto complexa, basta que a IA gere de 5 a 6 nós relacionados ao «nó atual» e retorne em formato JSON.
  • Desafio principal: fazer a saída do modelo manter um formato JSON estável (uma excelente oportunidade para testar a capacidade do modelo de seguir instruções).

· Projeto intermediário mais complexo, construído em 11 minutos

Depois, aumentamos a dificuldade: fazer o modelo desenvolver um aplicativo chamado «Soul Mirror» para análise psicológica.

Requisitos divididos em duas etapas:

Etapa 1: Design lógico — atuar como especialista em psicologia junguiana, gerar um JSON contendo análise textual e parâmetros visuais.

Etapa 2: Implementação front-end — criar código Next.js. Focar na implementação de um componente ResultCard.

Requisitos:

  1. Receber os parâmetros visualParams da Etapa 1.

  2. Usar SVG para desenhar dinamicamente os gráficos. Por exemplo: se chaosLevel for alto, usar paths irregulares; se a paleta de cores for quente, usar gradiente laranja-vermelho no fundo.

  3. Layout do cartão: semelhante a uma carta de tarô, com padrão visual atraente, com o gráfico SVG no centro, e na parte inferior o nome do usuário e uma «máxima da alma» gerada pela IA.

  4. Adicionar botão «Salvar como imagem» (usando a biblioteca html-to-image).

Todo esse processo demonstra uma compreensão que às vezes faz parecer que estamos usando o Opus 4.5.

Mas, ao olhar de perto, é claramente o GLM-5.

· Codificação de agente em 25 minutos — verdadeiro Agentic Coding

Para testar ainda mais as capacidades do GLM-5, pedimos que ele, sem usar API, simule um usuário real para criar um sistema de monitoramento para uma plataforma X.

Resultado: 25 minutos, uma única tomada.

Percebe-se que o GLM-5, durante a execução, chama autonomamente várias ferramentas de agentes, planeja tarefas, divide etapas, e corrige erros consultando documentação.

Essa capacidade de manter uma lógica coerente por longos períodos é algo que modelos open source anteriores não ousariam imaginar.

· Criar aplicativos a partir de imagens — impressionante fidelidade

Por fim, pegamos uma captura de tela do projeto open source do «pai do OpenClaw» (uma ferramenta de estatísticas de uso de IA) e entregamos ao GLM-5:

Faça um aplicativo MacOS baseado nisso.

Em pouco tempo, ele realmente «recriou» um produto idêntico.

Embora os dados fossem fictícios, o layout da interface e a lógica de interação foram quase perfeitos.

Isso demonstra não só compreensão visual, mas também a capacidade de transformar visual em código SwiftUI para implementação prática.

Mestre codificador: recriação do «Cursor» de baixo custo em 1 dia

Para testar o limite de engenharia do GLM-5, um desenvolvedor experiente decidiu fazer algo grande:

Recriar do zero um assistente de programação com interface desktop — o «GLMLIFE».

Seria uma versão simplificada do Cursor.

Depois de passar o desafio ao GLM-5, ele não começou a escrever código imediatamente, mas entregou um documento de arquitetura profissional (PLAN.md), com escolhas técnicas maduras:

Adotou uma arquitetura monorepo, dividindo o projeto em três pacotes principais:

  • Core: motor de agentes e adaptação ao LLM;

  • CLI: interface de linha de comando;

  • Desktop: aplicação desktop baseada em Electron + React 18.

Desde gerenciamento de estado com Zustand, até o esquema de estilos com Tailwind, passando por comunicação IPC complexa, o GLM-5 parece um diretor técnico com uma equipe de dez anos, planejando tudo com clareza.

O desenvolvedor achava que levaria três dias para configurar o ambiente, mas em um dia só conseguiu passar por toda a instalação, lógica principal e empacotamento Electron.

Ao abrir o GLMLIFE, é difícil acreditar que tudo foi «arquitetado» por IA em um dia.

Por que ele pode se tornar o «Opus do código aberto»?

No cenário global, Claude Opus 4.6 e GPT-5.3-Codex são altamente valorizados por sua forte capacidade de «arquitetura».

  • Opus 4.6 com estética brutalista: 16 instâncias de IA autônomas dividindo tarefas, duas semanas de trabalho, construíram um compilador Rust com 100 mil linhas de código, passando 99% dos testes de estresse do GCC.

  • GPT-5.3 com auto-criação: foi o primeiro modelo da OpenAI a «participar de sua própria criação», envolvendo-se no treinamento e implantação em cluster antes mesmo de «nascer».

Porém, tudo isso tem uma premissa fatal: são fechados e caros.

Neste momento, o lançamento do GLM-5 representa uma ruptura violenta na era dos grandes modelos de código aberto na China, especialmente na capacidade de engenharia de nível sistêmico.

Ele mira diretamente no campo mais resistente aos gigantes de código fechado — a engenharia de sistemas — e faz uma ofensiva «substituta».

  1. Novo «Arquiteto de Backend»

A equipe Zhipu sabe bem: o que falta na comunidade de código aberto não é um modelo que escreva scripts em Python, mas um que lide com tarefas pesadas, trabalhos sujos e complexos.

O GLM-5 reforçou significativamente seu peso na formação de arquitetura de backend, implementação de algoritmos complexos e correção de bugs persistentes, além de incorporar um mecanismo de autorreflexão potente.

Quando há falha na compilação, ele age como um engenheiro experiente, analisando logs, identificando causas raízes, ajustando o código e recompilando até o sistema rodar.

  1. Se vai fazer, tem que pagar o preço

Com desempenho comparável ao Opus e pesos open source, o GLM-5, de certa forma, desafia as muralhas construídas pela Anthropic e OpenAI.

  • Deploy local: pode rodar em redes isoladas, além de ser ajustado para frameworks privados da empresa, tornando-se o especialista que entende seu código interno.

  • Custo controlado: usuários podem usar clusters de GPUs de consumo para rodar um poderoso agente de codificação, sem se preocupar com custos a cada teste.

Domínio SOTA

A evolução do GLM-5 só pode ser descrita com duas palavras: brutalidade.

Como modelo base para engenharia de sistemas complexos, seu tamanho precisa ser máximo.

De 355 bilhões de parâmetros (ativação de 32B) para 744 bilhões (ativação de 40B), e os dados de pré-treinamento aumentaram de 23T para 28,5T.

Além de «grande», também precisa ser «econômico».

Sabe-se que o maior custo na execução de agentes é o token.

Para resolver esse problema, o GLM-5 integrou pela primeira vez o mecanismo de atenção esparsa DeepSeek Sparse Attention.

Isso permite que, ao lidar com contextos extremamente longos, ele mantenha a «memória sem perdas» e reduza significativamente os custos de implantação.

Outro avanço tecnológico é o novo framework de aprendizado por reforço assíncrono Slime.

Com ele, o modelo deixa de ser uma ferramenta pontual e passa a ser um «corredor de longa distância» mais inteligente ao longo do tempo.

Quanto aos benchmarks, são impressionantes:

  • Capacidade de código

    SWE-bench Verified atingiu 77,8 pontos, Terminal Bench 2.0 conquistou 56,2 pontos — ambos os melhores do open source. Essa marca supera o Gemini 3.0 Pro e chega perto do Claude Opus 4.5.

  • Capacidade de agentes

    BrowseComp (pesquisa na web), MCP-Atlas (chamada de ferramentas) e τ²-Bench (planejamento complexo), dominam todas as posições de liderança no open source.

O mais interessante é o Vending Bench 2 (teste de operação de máquinas automáticas).

Nesse teste, o modelo precisa administrar uma loja de vending machine por um ano, sozinho.

Adivinhe: até o final do ano, o GLM-5 lucrou 4432 dólares, quase igual ao Opus 4.5.

Na avaliação interna de código Claude, que mais interessa aos desenvolvedores, o GLM-5 superou significativamente o anterior GLM-4.7 em tarefas de front-end, back-end e tarefas de longo prazo — com uma média de aumento superior a 20%.

A experiência real já está quase no nível do Opus 4.5.

Criando IA com IA

Claro, a ambição do GLM-5 vai além do modelo em si, buscando reformular nossas ferramentas de programação.

O sucesso global do OpenClaw mostrou o potencial da IA para operar computadores.

Agora, a Zhipu lançou a versão AutoGLM do OpenClaw.

Com a versão original, configurar o ambiente já era uma dor de cabeça; agora, basta um clique no site oficial.

Quer um «estagiário digital» que monitore o Twitter, organize notícias e até escreva scripts 24/7? É só clicar.

Também foi lançado o Z Code—

Uma nova geração de ferramentas de desenvolvimento, totalmente baseada na capacidade do GLM-5.

No Z Code, você só precisa definir a tarefa, e o modelo automaticamente divide, coordena múltiplos agentes para fazer: escrever código, executar comandos, depurar, pré-visualizar, e até fazer commits no Git.

E ainda, você pode controlar remotamente os agentes pelo celular.

Vale destacar que, assim como a OpenAI usou Codex para criar o Codex, o Z Code também foi desenvolvido com participação integral do modelo GLM.

Vitória na computação nacional

Por trás do sucesso do GLM-5, que viralizou globalmente e aumentou a demanda por agentes, há uma equipe de «heróis anônimos» sustentando uma carga computacional massiva.

Para garantir que cada linha de código e cada planejamento de agente seja estável, o GLM-5 foi profundamente integrado às plataformas de computação nacionais, com compatibilidade com Huawei Ascend, Moer Thread, Cambrian, Kunlun, Muxi, Suiyuan, Hygon e outros principais fornecedores.

Por meio de otimizações detalhadas em operadores de baixo nível, o GLM-5 consegue rodar com alto throughput e baixa latência em clusters de chips nacionais.

Isso significa que temos não só um modelo de ponta, mas também sem dependências críticas.

Conclusão

Na primavera de 2026, os grandes modelos de programação finalmente deixam de ser imaturos.

O «Agentic Engineering» de Karpathy, na essência, é uma exigência mais rigorosa para a IA:

  • Antes (Vibe Coding): basta saber fazer HTML bonito para ser contratado.

  • Agora (Agentic Coding): precisa entender o núcleo do Linux, as chamadas entre microserviços, como refatorar sem derrubar o sistema, além de planejar tarefas e corrigir bugs sozinho.

O GLM-5 não é perfeito.

Mas, no núcleo de «construção de sistemas complexos», é atualmente o único modelo open source capaz de acompanhar essa onda de «Agentic».

Vibe Coding acabou.

Não pergunte mais à IA «se ela pode ajudar a fazer uma página». Isso é coisa de 2025.

Agora, pergunte: «Pode me ajudar a refatorar o módulo central de um sistema de alta concorrência?»

GLM-5, Ready to Build!

Easter Egg

O GLM-5 já está incluso no pacote Max para usuários, e a versão Pro será suportada em até 5 dias!

Além disso, a Zhipu anunciou aumento de preços, e os tokens deste ano certamente subirão de valor!

Fonte: Xinzhiyuan

Aviso de risco e isenção de responsabilidade

O mercado possui riscos, investimentos devem ser feitos com cautela. Este artigo não constitui recomendação de investimento pessoal, nem leva em conta objetivos, situação financeira ou necessidades específicas de cada usuário. Os usuários devem avaliar se as opiniões, pontos de vista ou conclusões aqui apresentadas são compatíveis com suas condições particulares. Investimentos são de responsabilidade do investidor.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar