Le prix de l'action a explosé de 32 %, GLM-5 en tête du classement mondial des open source, une séquence continue de 25 minutes pour dévoiler un système complet

La nuit du 7 février, un modèle mystérieux nommé « Pony Alpha » a discrètement été lancé.

Puis, le web a explosé.

En y insérant un morceau de « code de montagne de merde » que nous n’arrivions pas à finir après une journée, il a simplement restructuré l’architecture ; en lui donnant une simple instruction, il a généré une application Web complète, fluide comme du silk, comprenant 35 stations de radio.

Cette capacité d’ingénierie extrême a directement confirmé l’affirmation d’Andrej Karpathy il y a quelques jours :

Le Vibe Coding est désormais dépassé, la nouvelle règle du jeu n’a qu’un seul nom —
Agentic Engineering (ingénierie agentielle).

Ensuite, Opus 4.6 et GPT-5.3-Codex ont « collisionné » pour une mise en ligne tard dans la nuit suivante, en ne parlant que de « tâches longues, ingénierie système ».

Alors que tout le monde pensait qu’il s’agissait encore d’un monologue d’un géant fermé, le secret de Pony Alpha a été dévoilé —

C’est GLM-5.

Le premier modèle open source à avoir rejoint cette voie, en affrontant frontalement les géants de la Silicon Valley sur le niveau systémique.

Après la révélation, le cours de Zhipu a bondi de 32 % !

Premier open source mondial ! Le « moment Opus » du modèle national

Après une vraie prise en main, notre seul ressenti : c’est vraiment trop fort !

Si Claude Opus représentait le sommet des modèles fermés, alors la sortie de GLM-5 marque sans doute l’arrivée du « moment Opus » pour les modèles open source nationaux.

Le jour même de la sortie, plus d’une dizaine de jeux et outils « bricolés à la main » par des développeurs basés sur GLM-5 ont été présentés et sont disponibles en test, et ces applications seront bientôt déployées dans les principales boutiques d’applications.

Cela signifie que GLM-5 transforme « programmation IA » en « livraison IA », réalisant ainsi un passage fluide d’un outil de productivité à un produit commercial.

Par exemple, ce projet nommé « Pookie World ».

C’est un monde parallèle numérique piloté par GLM-5, doté d’une narration complète et de motivations de vie grâce à une architecture biologique-psychologique à plusieurs couches.

Il y a aussi la version remastérisée de « Minecraft », dont l’effet et le gameplay sont identiques à ceux de Minecraft.

Nous avons également utilisé Claude Code comme interface, en connectant directement l’API de GLM-5 pour des tests multidimensionnels.

Que ce soit un projet full-stack Next.js ou une application native MacOS/iOS, il peut réaliser tout le cycle, de l’analyse des besoins, la conception de l’architecture, la rédaction du code, jusqu’au débogage de bout en bout.

Après plusieurs projets, une sensation mystérieuse s’est dégagée :

D’une certaine manière, GLM-5 pourrait être un modèle capable de changer la configuration de l’industrie.

· Défi logique complexe : « Univers de connaissances infinies »

Si vous pensez qu’écrire une page web est simple, essayez de faire faire à l’IA un projet « flux infini » avec des exigences très strictes sur le format JSON et impliquant un rendu dynamique.

Prenons notre premier test, « Univers de connaissances infinies ».

C’est un projet typique de séparation front-end/back-end complexe, impliquant un rendu dynamique avec React Flow, la conception de routes API avec Next.js, et des exigences très strictes sur le format JSON de sortie.

Face à cela, la performance de GLM-5 est tout simplement impressionnante.

Il a non seulement généré en une seule fois toute la structure du projet, mais sa logique de débogage est également une surprise.

Lorsqu’un bug de rendu est survenu, nous avons simplement dit : « La page est toujours noire, le premier contenu n’est pas apparu lors de l’initialisation… »

GLM-5 a immédiatement identifié un problème de timing de chargement, et a rapidement proposé une solution de correction.

Voici le prompt complet :

Visualisation conceptuelle du flux infini

Concept clé : c’est une carte mentale « sans fin » qui ne s’arrête jamais. L’utilisateur entre un mot-clé (par exemple « physique quantique » ou « rêve de la chambre rouge »), le système génère un nœud central. En cliquant sur n’importe quel nœud, l’IA développe en temps réel ses sous-nœuds.

Moment impressionnant : l’utilisateur a l’impression d’interagir avec un cerveau omniscient. Lorsqu’il clique sur un concept obscur, l’IA peut toujours déployer avec précision le niveau suivant, cette « exploration infinie » est très impressionnante.

Visuel et diffusion :

  • Utiliser React Flow ou ECharts pour créer un réseau de nœuds dynamique et déplaçable.
  • Utiliser des couleurs Cyberpunk ou minimalistes, parfaites pour partager en screenshot sur les réseaux.

Faisabilité :

  • Front-end : React + React Flow (pour le dessin).
  • Back-end : Route API Next.js.
  • Stratégie de prompt : pas besoin de mémoire contextuelle complexe, il suffit de demander à l’IA de générer 5-6 sous-nœuds liés au « nœud actuel » et de retourner en JSON.
  • Difficulté à surmonter : faire en sorte que le modèle produise un JSON stable (c’est un excellent test de sa capacité à suivre les instructions).

· Projet de middle-platform plus complexe, monté en 11 minutes

Ensuite, on augmente la difficulté : faire développer une application appelée « Soul Mirror » pour l’analyse psychologique.

Les exigences se divisent en deux étapes :

Étape 1 : conception logique — jouer le rôle d’un expert en psychologie jungienne, produire un JSON contenant le texte d’analyse et des paramètres visuels.

Étape 2 : réalisation front-end — coder en Next.js, en particulier un composant ResultCard.

Prompt

Étape 1 : conception logique

Nous allons développer une application d’analyse psychologique appelée « Soul Mirror ».

Flux d’interaction :

  1. Page d’introduction : l’utilisateur entre son état actuel ou ses doutes.
  2. Page d’analyse : l’IA pose 2 questions approfondies pour guider l’utilisateur dans l’exploration intérieure.
  3. Page de résultat : à partir du dialogue, l’IA génère une « carte de l’âme ».

Veuillez concevoir le prompt principal (Instruction système) : demander au modèle de jouer le rôle d’un expert en psychologie jungienne. À la dernière étape, le modèle doit produire un JSON contenant :

  • analysis : texte d’analyse psychologique.
  • visualParams : paramètres pour générer une œuvre abstraite (ex : palette de couleurs hex, formes (cercles/trigones/vagues), niveau de chaos).

Étape 2 : implémentation front-end et rendu SVG

Écrire le code front-end Next.js. Focus sur un composant ResultCard.

Exigences :

  1. Recevoir le paramètre visualParams.
  2. Utiliser SVG pour dessiner dynamiquement. Par exemple : si chaosLevel élevé, utiliser un Path irrégulier ; si palette chaude, fond en dégradé orange-rouge.
  3. La mise en page doit être élégante, comme une carte de tarot : au centre, un motif SVG dynamique, en bas, le nom de l’utilisateur et une « maxime de l’âme » de l’IA.
  4. Ajouter un bouton « Enregistrer en image » (avec la librairie html-to-image).

Tout au long, sa compréhension, sa capacité à analyser, donnent parfois l’impression qu’on utilise Opus 4.5.

Mais en regardant de plus près, c’est bien GLM-5.

· 25 minutes, un seul plan, véritable Agentic Coding
Pour tester encore plus la capacité de GLM-5, on lui demande de ne pas utiliser d’API, mais de simuler un utilisateur réel, pour créer un système de surveillance pour une plateforme X.

Résultat : 25 minutes, un seul plan.

On voit que GLM-5 appelle de façon autonome divers agents outils, planifie des tâches, décompose des étapes, et se corrige en consultant la documentation en cas d’erreur.

Cette capacité à maintenir une cohérence logique sur une longue durée est inimaginable pour les modèles open source d’avant.

· Dessiner une app à partir d’une image, une fidélité impressionnante
Enfin, on a pris une capture d’écran d’un projet open source de OpenClaw (un outil de statistiques d’allocations IA), et on l’a donnée à GLM-5 :

Reproduis-moi cette application MacOS.

En peu de temps, il a « recréé » un produit identique.

Les données étant simulées, mais la mise en page UI et la logique d’interaction sont presque parfaites.

Ce n’est pas seulement une capacité de compréhension visuelle, c’est aussi la capacité de transformer une vision en code SwiftUI prêt à l’emploi.

Maître bricolant : une journée pour refaire « Cursor » en version basique
Pour tester la limite de GLM-5, un développeur expérimenté a décidé de jouer gros :

Refaire à la main, avec UI desktop, un assistant de programmation IA — GLMLIFE.

C’est comme faire une version simplifiée de Cursor.

Après avoir confié la tâche à GLM-5, il n’a pas commencé à écrire frénétiquement du code, mais a d’abord sorti un document d’architecture professionnel (PLAN.md), avec un choix technologique très mûrement réfléchi :

Il a adopté une architecture Monorepo, décomposant le projet en trois packages principaux :

  • Core : moteur principal de l’agent et adaptation LLM ;
  • CLI : interface en ligne de commande ;
  • Desktop : application desktop basée sur Electron + React 18.

De la gestion d’état avec Zustand, au style Tailwind, en passant par la communication IPC complexe, GLM-5 ressemble à un directeur technique avec dix ans d’expérience, planifiant chaque choix avec précision.

Le développeur pensait qu’il lui faudrait trois jours pour tout configurer, mais en réalité, en un seul jour, tout le processus — environnement, logique, packaging Electron — a été bouclé.

En ouvrant GLMLIFE, il est difficile de croire que c’est une création de l’IA en une journée.

Pourquoi peut-il devenir « l’Opus open source » ?

À l’échelle mondiale, Claude Opus 4.6 et GPT-5.3-Codex sont très prisés car ils possèdent une capacité d’« architecture » très forte.

  • Opus 4.6, l’esthétique brute : 16 clones d’IA autonomes, deux semaines de travail, ont construit un compilateur Rust de 100 000 lignes, passant 99 % des tests GCC.
  • GPT-5.3, la création autonome : premier modèle d’OpenAI à « participer à sa propre création », impliqué dans la formation et le déploiement en cluster avant même sa sortie.

Mais tout cela repose sur un préalable fatal : ils sont fermés et coûteux.

Aujourd’hui, la sortie de GLM-5 marque une rupture violente pour le modèle open source chinois face à l’ère agentielle.

Elle cible directement le domaine que les géants fermés ne veulent pas lâcher — la capacité systémique — en lançant une offensive « alternative ».

  1. Nouveau « architecte backend »

L’équipe de Zhipu sait très bien que dans l’open source, il ne manque pas de modèles capables d’écrire du Python, mais ce qui manque, ce sont ceux qui peuvent gérer le travail sale, lourd, massif.

GLM-5 a renforcé massivement lors de l’entraînement l’importance de la conception d’architecture backend, la mise en œuvre d’algorithmes complexes, et la correction de bugs tenaces, tout en intégrant un mécanisme de réflexion autonome très puissant.

Lorsqu’une compilation échoue, il agit comme un ingénieur expérimenté : analyse les logs, identifie la cause, modifie le code, recompiles, jusqu’à ce que tout fonctionne.

  1. Si c’est du boulot, il faut aussi compter

Avec des performances comparables à Opus, et des poids open source, GLM-5 commence à faire trembler la barrière que OpenAI et Anthropic ont construite.

  • Déploiement local : il peut fonctionner dans un réseau totalement isolé, et peut aussi être fine-tuné pour le cadre privé de l’entreprise, devenant le spécialiste de son propre code.
  • Coût maîtrisé : les utilisateurs peuvent faire tourner un puissant agent de codage sur un cluster de GPU grand public, sans se faire mal aux finances à chaque test.

Dominer SOTA

L’évolution de GLM-5 ne peut se résumer qu’en deux mots : brutal.

Puisqu’il s’agit d’un modèle de base pour la conception de systèmes complexes, sa taille doit être maximale.

Nombre de paramètres : de 355 milliards (activation 32B) à 744 milliards (activation 40B), avec un volume de données pré-entraînement passant de 23T à 28,5T.

Mais il faut aussi qu’il soit « économique ».

Comme on le sait, la partie la plus coûteuse pour un agent, c’est le token.

Pour résoudre ce problème, GLM-5 a intégré pour la première fois le mécanisme de Sparse Attention DeepSeek.

Cela lui permet, lors du traitement de contextes très longs, de conserver une mémoire « sans perte » tout en réduisant considérablement les coûts de déploiement.

Et une technologie encore plus avancée — le nouveau cadre d’apprentissage par renforcement asynchrone Slime.

Associé à un apprentissage par renforcement à grande échelle, il transforme le modèle d’un simple outil ponctuel en un « marathonien » intelligent, capable de s’améliorer au fil du temps.

Quant aux scores, ils sont impressionnants :

  • Capacité de codage
    SWE-bench vérifié à 77,8 points, Terminal Bench 2.0 à 56,2 points, premiers open source. Ces résultats surpassent Gemini 3.0 Pro et se rapprochent de Claude Opus 4.5.
  • Capacité agentielle
    BrowseComp (recherche en ligne), MCP-Atlas (appel d’outils), τ²-Bench (planification complexe) — tous en tête de l’open source.

  • Vending Bench 2 (test de gestion de distributeur automatique)
    Dans ce test, le modèle doit gérer seul un distributeur pendant un an.
    Devinez quoi, GLM-5 a gagné 4432 dollars d’ici la fin de l’année, un niveau qui frôle Opus 4.5.

Dans l’évaluation interne préférée des développeurs, GLM-5 dépasse nettement la précédente génération GLM-4.7 (avec une moyenne +20 %), notamment en front-end, back-end, et tâches longues.

L’expérience utilisateur est déjà proche d’Opus 4.5.

Créer de l’IA avec de l’IA

Bien sûr, la ambition de GLM-5 ne se limite pas au modèle, mais vise aussi à réinventer nos outils de programmation.

OpenClaw, qui a explosé dans le monde entier, a montré le potentiel de l’IA pour manipuler un ordinateur.

Cette fois, Zhipu a lancé la version AutoGLM d’OpenClaw.

Avec la version originale, il fallait passer une demi-journée à tout configurer, maintenant, c’est déployé en un clic sur le site officiel.

Vous voulez un « stagiaire numérique » qui surveille Twitter, trie l’actualité, ou même écrit des scripts 24/7 ? C’est possible en un clic.

Et aussi Z Code —

Un nouvel outil de développement basé entièrement sur la capacité de GLM-5.

Dans Z Code, vous n’avez qu’à exprimer votre besoin, le modèle décompose la tâche, lance plusieurs agents pour travailler en parallèle : écrire du code, exécuter des commandes, déboguer, prévisualiser, et même faire des commits Git.

Vous pouvez même commander à distance via votre téléphone pour faire travailler l’agent sur votre bureau.

À noter que, tout comme OpenAI a utilisé Codex pour créer Codex, Z Code a été entièrement développé avec la participation du modèle GLM.

La victoire de la puissance de calcul nationale

Après avoir fait exploser la popularité mondiale de GLM, et avec la demande pour des agents qui explose, une « armée d’inconnus » soutient en silence cette charge de calcul massive.

Pour garantir la stabilité de chaque ligne de code, chaque plan d’agent, GLM-5 s’est profondément intégré dans le « cœur » de la puissance de calcul nationale, avec une compatibilité poussée avec Huawei Ascend, Mooresoft, Cambrian, Kunlun, Muxi, Suiyuan, Hygon, etc.

Grâce à une optimisation fine au niveau des opérateurs de bas niveau, GLM-5 peut aussi tourner sur des clusters de puces domestiques avec « haut débit, faible latence ».

Cela signifie que nous disposons non seulement d’un modèle de premier ordre, mais aussi que nous ne sommes pas dépendants de technologies étrangères.

Conclusion

Au printemps 2026, les grands modèles de programmation ont enfin mûri.

Ce que Karpathy appelle « Agentic Engineering » est en réalité une exigence encore plus stricte pour l’IA :

  • Avant (Vibe Coding) : tant que tu sais faire du joli HTML, je t’embauche.
  • Maintenant (Agentic Coding) : tu dois connaître le noyau Linux, maîtriser l’appel entre 500 microservices, savoir réorganiser du code en ligne sans tout faire sauter, et aussi planifier des tâches, réparer des bugs toi-même.

GLM-5 n’est pas parfait.

Mais sur la conception de systèmes complexes, c’est actuellement le seul modèle open source capable de suivre cette vague « agentielle ».

Vibe Coding, c’est fini.

Ne demande plus à l’IA « peux-tu m’aider à écrire une page web » — c’était en 2025.

Désormais, demande-lui : « peux-tu m’aider à restructurer le module central de ce système à haute concurrence ? »

GLM-5, prêt à construire !

Easter Egg

GLM-5 est déjà intégré dans le pack Max pour les utilisateurs, la version Pro sera supportée dans les 5 prochains jours !

Et juste après, Zhipu a annoncé une augmentation de prix, cette année, le coût du token va forcément augmenter !

Source : Xinzhiyuan

Avertissement de risque et clause de non-responsabilité

Le marché comporte des risques, l’investissement doit être prudent. Cet article ne constitue pas un conseil d’investissement personnel, ni une recommandation spécifique tenant compte des objectifs, situation financière ou besoins particuliers de chaque utilisateur. L’utilisateur doit juger si les opinions, points de vue ou conclusions présentés ici sont adaptés à sa situation. En investissant, il en assume la responsabilité.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler