Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Launchpad
Chegue cedo ao próximo grande projeto de tokens
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
O preço das ações disparou 32%, GLM-5 lidera o ranking mundial de código aberto, uma filmagem contínua de 25 minutos revela um sistema completo
Na madrugada de 7 de fevereiro, um modelo misterioso com o codinome «Pony Alpha» foi lançado silenciosamente.
Logo depois, explodiu na internet.
Inserindo um trecho de «código de montanha de porcaria» que passou um dia inteiro tentando consertar, ele reestruturou a arquitetura com facilidade; ao fornecer uma instrução simples, gerou um Web App completo, com 35 estações de rádio e interface fluida.
Essa capacidade de engenharia extrema confirmou diretamente a afirmação de Andrej Karpathy de poucos dias atrás:
Na sequência, Opus 4.6 e GPT-5.3-Codex foram lançados na mesma madrugada, enfrentando-se de frente, ambos focados em «tarefas de longo prazo, engenharia de sistemas».
Quando todos pensaram que era mais uma jogada de um gigante de código fechado, o mistério de Pony Alpha foi revelado—
Ele é o GLM-5.
O primeiro modelo de código aberto do mundo a competir de frente com os gigantes do Vale do Silício na capacidade de engenharia de nível sistêmico.
Após a revelação, o preço das ações da Zhipu disparou 32%!
Primeiro do mundo de código aberto! O «Momento Opus» do modelo nacional
Depois de realmente experimentar, só podemos ter uma sensação: é realmente muito forte!
Se Claude Opus representa o auge dos modelos fechados, então o lançamento do GLM-5 marca, sem dúvida, o «Momento Opus» dos modelos de código aberto nacionais.
No mesmo dia do lançamento, mais de uma dezena de aplicativos e ferramentas criados por desenvolvedores com base no GLM-5 foram exibidos e disponibilizados para testes, e esses aplicativos serão gradualmente lançados nas principais lojas de aplicativos.
Isso significa que o GLM-5 está transformando «programação de IA» em «entrega de IA», realizando uma transição sem costura de ferramentas de produtividade para produtos comerciais.
Por exemplo, o projeto chamado «Pookie World».
É um mundo paralelo digital impulsionado pelo GLM-5, que, por meio de múltiplas camadas de estruturas biológico-psicológicas, confere aos agentes autônomos uma narrativa completa e motivações de vida reais.
Há também uma versão recriada de «Minecraft», com efeitos e jogabilidade idênticos ao original.
Utilizamos também o Claude Code como interface, conectando diretamente à API do GLM-5 para testes multidimensionais.
Seja em projetos full-stack com Next.js ou aplicativos nativos para MacOS/iOS, consegue realizar todo o ciclo de análise de requisitos, design de arquitetura, codificação e depuração ponta a ponta.
Depois de vários projetos, uma sensação intuitiva surge:
· Desafio de lógica complexa: «Universo de Conhecimento Ilimitado»
Se você acha que fazer uma página web é fácil, tente fazer a IA resolver um projeto de fluxo infinito que exija formato JSON extremamente rigoroso e renderização dinâmica.
Tomando como exemplo o nosso teste inicial, «Universo de Conhecimento Ilimitado».
É um projeto típico de separação front-end/back-end complexa, envolvendo renderização dinâmica com React Flow, roteamento API com Next.js, além de requisitos de saída JSON extremamente estritos.
Nesse contexto, o desempenho do GLM-5 foi surpreendente.
Ele não só completou toda a estrutura de arquivos do projeto de uma só vez, como também surpreendeu na lógica de depuração.
Ao encontrar um bug de renderização, apenas dissemos: «A página ainda está toda preta, o primeiro conteúdo não apareceu na inicialização…»
O GLM-5 imediatamente identificou que era uma questão de momento de carregamento e rapidamente forneceu uma solução de correção.
O prompt completo foi o seguinte:
· Projeto intermediário mais complexo, construído em 11 minutos
Depois, aumentamos a dificuldade: fazer o modelo desenvolver um aplicativo chamado «Soul Mirror» para análise psicológica.
Requisitos divididos em duas etapas:
Etapa 1: Design lógico — atuar como especialista em psicologia junguiana, gerar um JSON contendo análise textual e parâmetros visuais.
Etapa 2: Implementação front-end — criar código Next.js. Focar na implementação de um componente ResultCard.
Requisitos:
Receber os parâmetros visualParams da Etapa 1.
Usar SVG para desenhar dinamicamente os gráficos. Por exemplo: se chaosLevel for alto, usar paths irregulares; se a paleta de cores for quente, usar gradiente laranja-vermelho no fundo.
Layout do cartão: semelhante a uma carta de tarô, com padrão visual atraente, com o gráfico SVG no centro, e na parte inferior o nome do usuário e uma «máxima da alma» gerada pela IA.
Adicionar botão «Salvar como imagem» (usando a biblioteca html-to-image).
Todo esse processo demonstra uma compreensão que às vezes faz parecer que estamos usando o Opus 4.5.
Mas, ao olhar de perto, é claramente o GLM-5.
· Codificação de agente em 25 minutos — verdadeiro Agentic Coding
Para testar ainda mais as capacidades do GLM-5, pedimos que ele, sem usar API, simule um usuário real para criar um sistema de monitoramento para uma plataforma X.
Resultado: 25 minutos, uma única tomada.
Percebe-se que o GLM-5, durante a execução, chama autonomamente várias ferramentas de agentes, planeja tarefas, divide etapas, e corrige erros consultando documentação.
Essa capacidade de manter uma lógica coerente por longos períodos é algo que modelos open source anteriores não ousariam imaginar.
· Criar aplicativos a partir de imagens — impressionante fidelidade
Por fim, pegamos uma captura de tela do projeto open source do «pai do OpenClaw» (uma ferramenta de estatísticas de uso de IA) e entregamos ao GLM-5:
Em pouco tempo, ele realmente «recriou» um produto idêntico.
Embora os dados fossem fictícios, o layout da interface e a lógica de interação foram quase perfeitos.
Isso demonstra não só compreensão visual, mas também a capacidade de transformar visual em código SwiftUI para implementação prática.
Mestre codificador: recriação do «Cursor» de baixo custo em 1 dia
Para testar o limite de engenharia do GLM-5, um desenvolvedor experiente decidiu fazer algo grande:
Seria uma versão simplificada do Cursor.
Depois de passar o desafio ao GLM-5, ele não começou a escrever código imediatamente, mas entregou um documento de arquitetura profissional (PLAN.md), com escolhas técnicas maduras:
Adotou uma arquitetura monorepo, dividindo o projeto em três pacotes principais:
Core: motor de agentes e adaptação ao LLM;
CLI: interface de linha de comando;
Desktop: aplicação desktop baseada em Electron + React 18.
Desde gerenciamento de estado com Zustand, até o esquema de estilos com Tailwind, passando por comunicação IPC complexa, o GLM-5 parece um diretor técnico com uma equipe de dez anos, planejando tudo com clareza.
O desenvolvedor achava que levaria três dias para configurar o ambiente, mas em um dia só conseguiu passar por toda a instalação, lógica principal e empacotamento Electron.
Ao abrir o GLMLIFE, é difícil acreditar que tudo foi «arquitetado» por IA em um dia.
Por que ele pode se tornar o «Opus do código aberto»?
No cenário global, Claude Opus 4.6 e GPT-5.3-Codex são altamente valorizados por sua forte capacidade de «arquitetura».
Opus 4.6 com estética brutalista: 16 instâncias de IA autônomas dividindo tarefas, duas semanas de trabalho, construíram um compilador Rust com 100 mil linhas de código, passando 99% dos testes de estresse do GCC.
GPT-5.3 com auto-criação: foi o primeiro modelo da OpenAI a «participar de sua própria criação», envolvendo-se no treinamento e implantação em cluster antes mesmo de «nascer».
Porém, tudo isso tem uma premissa fatal: são fechados e caros.
Neste momento, o lançamento do GLM-5 representa uma ruptura violenta na era dos grandes modelos de código aberto na China, especialmente na capacidade de engenharia de nível sistêmico.
Ele mira diretamente no campo mais resistente aos gigantes de código fechado — a engenharia de sistemas — e faz uma ofensiva «substituta».
A equipe Zhipu sabe bem: o que falta na comunidade de código aberto não é um modelo que escreva scripts em Python, mas um que lide com tarefas pesadas, trabalhos sujos e complexos.
O GLM-5 reforçou significativamente seu peso na formação de arquitetura de backend, implementação de algoritmos complexos e correção de bugs persistentes, além de incorporar um mecanismo de autorreflexão potente.
Quando há falha na compilação, ele age como um engenheiro experiente, analisando logs, identificando causas raízes, ajustando o código e recompilando até o sistema rodar.
Com desempenho comparável ao Opus e pesos open source, o GLM-5, de certa forma, desafia as muralhas construídas pela Anthropic e OpenAI.
Deploy local: pode rodar em redes isoladas, além de ser ajustado para frameworks privados da empresa, tornando-se o especialista que entende seu código interno.
Custo controlado: usuários podem usar clusters de GPUs de consumo para rodar um poderoso agente de codificação, sem se preocupar com custos a cada teste.
Domínio SOTA
A evolução do GLM-5 só pode ser descrita com duas palavras: brutalidade.
Como modelo base para engenharia de sistemas complexos, seu tamanho precisa ser máximo.
Além de «grande», também precisa ser «econômico».
Sabe-se que o maior custo na execução de agentes é o token.
Para resolver esse problema, o GLM-5 integrou pela primeira vez o mecanismo de atenção esparsa DeepSeek Sparse Attention.
Isso permite que, ao lidar com contextos extremamente longos, ele mantenha a «memória sem perdas» e reduza significativamente os custos de implantação.
Outro avanço tecnológico é o novo framework de aprendizado por reforço assíncrono Slime.
Com ele, o modelo deixa de ser uma ferramenta pontual e passa a ser um «corredor de longa distância» mais inteligente ao longo do tempo.
Quanto aos benchmarks, são impressionantes:
Capacidade de código
SWE-bench Verified atingiu 77,8 pontos, Terminal Bench 2.0 conquistou 56,2 pontos — ambos os melhores do open source. Essa marca supera o Gemini 3.0 Pro e chega perto do Claude Opus 4.5.
Capacidade de agentes
BrowseComp (pesquisa na web), MCP-Atlas (chamada de ferramentas) e τ²-Bench (planejamento complexo), dominam todas as posições de liderança no open source.
O mais interessante é o Vending Bench 2 (teste de operação de máquinas automáticas).
Nesse teste, o modelo precisa administrar uma loja de vending machine por um ano, sozinho.
Adivinhe: até o final do ano, o GLM-5 lucrou 4432 dólares, quase igual ao Opus 4.5.
Na avaliação interna de código Claude, que mais interessa aos desenvolvedores, o GLM-5 superou significativamente o anterior GLM-4.7 em tarefas de front-end, back-end e tarefas de longo prazo — com uma média de aumento superior a 20%.
A experiência real já está quase no nível do Opus 4.5.
Criando IA com IA
Claro, a ambição do GLM-5 vai além do modelo em si, buscando reformular nossas ferramentas de programação.
O sucesso global do OpenClaw mostrou o potencial da IA para operar computadores.
Agora, a Zhipu lançou a versão AutoGLM do OpenClaw.
Com a versão original, configurar o ambiente já era uma dor de cabeça; agora, basta um clique no site oficial.
Quer um «estagiário digital» que monitore o Twitter, organize notícias e até escreva scripts 24/7? É só clicar.
Também foi lançado o Z Code—
No Z Code, você só precisa definir a tarefa, e o modelo automaticamente divide, coordena múltiplos agentes para fazer: escrever código, executar comandos, depurar, pré-visualizar, e até fazer commits no Git.
E ainda, você pode controlar remotamente os agentes pelo celular.
Vale destacar que, assim como a OpenAI usou Codex para criar o Codex, o Z Code também foi desenvolvido com participação integral do modelo GLM.
Vitória na computação nacional
Por trás do sucesso do GLM-5, que viralizou globalmente e aumentou a demanda por agentes, há uma equipe de «heróis anônimos» sustentando uma carga computacional massiva.
Para garantir que cada linha de código e cada planejamento de agente seja estável, o GLM-5 foi profundamente integrado às plataformas de computação nacionais, com compatibilidade com Huawei Ascend, Moer Thread, Cambrian, Kunlun, Muxi, Suiyuan, Hygon e outros principais fornecedores.
Por meio de otimizações detalhadas em operadores de baixo nível, o GLM-5 consegue rodar com alto throughput e baixa latência em clusters de chips nacionais.
Isso significa que temos não só um modelo de ponta, mas também sem dependências críticas.
Conclusão
Na primavera de 2026, os grandes modelos de programação finalmente deixam de ser imaturos.
O «Agentic Engineering» de Karpathy, na essência, é uma exigência mais rigorosa para a IA:
Antes (Vibe Coding): basta saber fazer HTML bonito para ser contratado.
Agora (Agentic Coding): precisa entender o núcleo do Linux, as chamadas entre microserviços, como refatorar sem derrubar o sistema, além de planejar tarefas e corrigir bugs sozinho.
O GLM-5 não é perfeito.
Mas, no núcleo de «construção de sistemas complexos», é atualmente o único modelo open source capaz de acompanhar essa onda de «Agentic».
Vibe Coding acabou.
Não pergunte mais à IA «se ela pode ajudar a fazer uma página». Isso é coisa de 2025.
Agora, pergunte: «Pode me ajudar a refatorar o módulo central de um sistema de alta concorrência?»
GLM-5, Ready to Build!
Easter Egg
O GLM-5 já está incluso no pacote Max para usuários, e a versão Pro será suportada em até 5 dias!
Além disso, a Zhipu anunciou aumento de preços, e os tokens deste ano certamente subirão de valor!
Fonte: Xinzhiyuan
Aviso de risco e isenção de responsabilidade
O mercado possui riscos, investimentos devem ser feitos com cautela. Este artigo não constitui recomendação de investimento pessoal, nem leva em conta objetivos, situação financeira ou necessidades específicas de cada usuário. Os usuários devem avaliar se as opiniões, pontos de vista ou conclusões aqui apresentadas são compatíveis com suas condições particulares. Investimentos são de responsabilidade do investidor.