Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Pre-IPOs
Accédez à l'intégralité des introductions en bourse mondiales
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Le prix de l'action a explosé de 32 %, GLM-5 en tête du classement mondial des open source, une séquence continue de 25 minutes pour dévoiler un système complet
La nuit du 7 février, un modèle mystérieux nommé « Pony Alpha » a discrètement été lancé.
Puis, le web a explosé.
En y insérant un morceau de « code de montagne de merde » que nous n’arrivions pas à finir après une journée, il a simplement restructuré l’architecture ; en lui donnant une simple instruction, il a généré une application Web complète, fluide comme du silk, comprenant 35 stations de radio.
Cette capacité d’ingénierie extrême a directement confirmé l’affirmation d’Andrej Karpathy il y a quelques jours :
Ensuite, Opus 4.6 et GPT-5.3-Codex ont « collisionné » pour une mise en ligne tard dans la nuit suivante, en ne parlant que de « tâches longues, ingénierie système ».
Alors que tout le monde pensait qu’il s’agissait encore d’un monologue d’un géant fermé, le secret de Pony Alpha a été dévoilé —
C’est GLM-5.
Le premier modèle open source à avoir rejoint cette voie, en affrontant frontalement les géants de la Silicon Valley sur le niveau systémique.
Après la révélation, le cours de Zhipu a bondi de 32 % !
Premier open source mondial ! Le « moment Opus » du modèle national
Après une vraie prise en main, notre seul ressenti : c’est vraiment trop fort !
Si Claude Opus représentait le sommet des modèles fermés, alors la sortie de GLM-5 marque sans doute l’arrivée du « moment Opus » pour les modèles open source nationaux.
Le jour même de la sortie, plus d’une dizaine de jeux et outils « bricolés à la main » par des développeurs basés sur GLM-5 ont été présentés et sont disponibles en test, et ces applications seront bientôt déployées dans les principales boutiques d’applications.
Cela signifie que GLM-5 transforme « programmation IA » en « livraison IA », réalisant ainsi un passage fluide d’un outil de productivité à un produit commercial.
Par exemple, ce projet nommé « Pookie World ».
C’est un monde parallèle numérique piloté par GLM-5, doté d’une narration complète et de motivations de vie grâce à une architecture biologique-psychologique à plusieurs couches.
Il y a aussi la version remastérisée de « Minecraft », dont l’effet et le gameplay sont identiques à ceux de Minecraft.
Nous avons également utilisé Claude Code comme interface, en connectant directement l’API de GLM-5 pour des tests multidimensionnels.
Que ce soit un projet full-stack Next.js ou une application native MacOS/iOS, il peut réaliser tout le cycle, de l’analyse des besoins, la conception de l’architecture, la rédaction du code, jusqu’au débogage de bout en bout.
Après plusieurs projets, une sensation mystérieuse s’est dégagée :
· Défi logique complexe : « Univers de connaissances infinies »
Si vous pensez qu’écrire une page web est simple, essayez de faire faire à l’IA un projet « flux infini » avec des exigences très strictes sur le format JSON et impliquant un rendu dynamique.
Prenons notre premier test, « Univers de connaissances infinies ».
C’est un projet typique de séparation front-end/back-end complexe, impliquant un rendu dynamique avec React Flow, la conception de routes API avec Next.js, et des exigences très strictes sur le format JSON de sortie.
Face à cela, la performance de GLM-5 est tout simplement impressionnante.
Il a non seulement généré en une seule fois toute la structure du projet, mais sa logique de débogage est également une surprise.
Lorsqu’un bug de rendu est survenu, nous avons simplement dit : « La page est toujours noire, le premier contenu n’est pas apparu lors de l’initialisation… »
GLM-5 a immédiatement identifié un problème de timing de chargement, et a rapidement proposé une solution de correction.
Voici le prompt complet :
· Projet de middle-platform plus complexe, monté en 11 minutes
Ensuite, on augmente la difficulté : faire développer une application appelée « Soul Mirror » pour l’analyse psychologique.
Les exigences se divisent en deux étapes :
Étape 1 : conception logique — jouer le rôle d’un expert en psychologie jungienne, produire un JSON contenant le texte d’analyse et des paramètres visuels.
Étape 2 : réalisation front-end — coder en Next.js, en particulier un composant ResultCard.
Tout au long, sa compréhension, sa capacité à analyser, donnent parfois l’impression qu’on utilise Opus 4.5.
Mais en regardant de plus près, c’est bien GLM-5.
· 25 minutes, un seul plan, véritable Agentic Coding
Pour tester encore plus la capacité de GLM-5, on lui demande de ne pas utiliser d’API, mais de simuler un utilisateur réel, pour créer un système de surveillance pour une plateforme X.
Résultat : 25 minutes, un seul plan.
On voit que GLM-5 appelle de façon autonome divers agents outils, planifie des tâches, décompose des étapes, et se corrige en consultant la documentation en cas d’erreur.
Cette capacité à maintenir une cohérence logique sur une longue durée est inimaginable pour les modèles open source d’avant.
· Dessiner une app à partir d’une image, une fidélité impressionnante
Enfin, on a pris une capture d’écran d’un projet open source de OpenClaw (un outil de statistiques d’allocations IA), et on l’a donnée à GLM-5 :
En peu de temps, il a « recréé » un produit identique.
Les données étant simulées, mais la mise en page UI et la logique d’interaction sont presque parfaites.
Ce n’est pas seulement une capacité de compréhension visuelle, c’est aussi la capacité de transformer une vision en code SwiftUI prêt à l’emploi.
Maître bricolant : une journée pour refaire « Cursor » en version basique
Pour tester la limite de GLM-5, un développeur expérimenté a décidé de jouer gros :
C’est comme faire une version simplifiée de Cursor.
Après avoir confié la tâche à GLM-5, il n’a pas commencé à écrire frénétiquement du code, mais a d’abord sorti un document d’architecture professionnel (PLAN.md), avec un choix technologique très mûrement réfléchi :
Il a adopté une architecture Monorepo, décomposant le projet en trois packages principaux :
De la gestion d’état avec Zustand, au style Tailwind, en passant par la communication IPC complexe, GLM-5 ressemble à un directeur technique avec dix ans d’expérience, planifiant chaque choix avec précision.
Le développeur pensait qu’il lui faudrait trois jours pour tout configurer, mais en réalité, en un seul jour, tout le processus — environnement, logique, packaging Electron — a été bouclé.
En ouvrant GLMLIFE, il est difficile de croire que c’est une création de l’IA en une journée.
Pourquoi peut-il devenir « l’Opus open source » ?
À l’échelle mondiale, Claude Opus 4.6 et GPT-5.3-Codex sont très prisés car ils possèdent une capacité d’« architecture » très forte.
Mais tout cela repose sur un préalable fatal : ils sont fermés et coûteux.
Aujourd’hui, la sortie de GLM-5 marque une rupture violente pour le modèle open source chinois face à l’ère agentielle.
Elle cible directement le domaine que les géants fermés ne veulent pas lâcher — la capacité systémique — en lançant une offensive « alternative ».
L’équipe de Zhipu sait très bien que dans l’open source, il ne manque pas de modèles capables d’écrire du Python, mais ce qui manque, ce sont ceux qui peuvent gérer le travail sale, lourd, massif.
GLM-5 a renforcé massivement lors de l’entraînement l’importance de la conception d’architecture backend, la mise en œuvre d’algorithmes complexes, et la correction de bugs tenaces, tout en intégrant un mécanisme de réflexion autonome très puissant.
Lorsqu’une compilation échoue, il agit comme un ingénieur expérimenté : analyse les logs, identifie la cause, modifie le code, recompiles, jusqu’à ce que tout fonctionne.
Avec des performances comparables à Opus, et des poids open source, GLM-5 commence à faire trembler la barrière que OpenAI et Anthropic ont construite.
Dominer SOTA
L’évolution de GLM-5 ne peut se résumer qu’en deux mots : brutal.
Puisqu’il s’agit d’un modèle de base pour la conception de systèmes complexes, sa taille doit être maximale.
Mais il faut aussi qu’il soit « économique ».
Comme on le sait, la partie la plus coûteuse pour un agent, c’est le token.
Pour résoudre ce problème, GLM-5 a intégré pour la première fois le mécanisme de Sparse Attention DeepSeek.
Cela lui permet, lors du traitement de contextes très longs, de conserver une mémoire « sans perte » tout en réduisant considérablement les coûts de déploiement.
Et une technologie encore plus avancée — le nouveau cadre d’apprentissage par renforcement asynchrone Slime.
Associé à un apprentissage par renforcement à grande échelle, il transforme le modèle d’un simple outil ponctuel en un « marathonien » intelligent, capable de s’améliorer au fil du temps.
Quant aux scores, ils sont impressionnants :
SWE-bench vérifié à 77,8 points, Terminal Bench 2.0 à 56,2 points, premiers open source. Ces résultats surpassent Gemini 3.0 Pro et se rapprochent de Claude Opus 4.5.
BrowseComp (recherche en ligne), MCP-Atlas (appel d’outils), τ²-Bench (planification complexe) — tous en tête de l’open source.
Dans ce test, le modèle doit gérer seul un distributeur pendant un an.
Devinez quoi, GLM-5 a gagné 4432 dollars d’ici la fin de l’année, un niveau qui frôle Opus 4.5.
Dans l’évaluation interne préférée des développeurs, GLM-5 dépasse nettement la précédente génération GLM-4.7 (avec une moyenne +20 %), notamment en front-end, back-end, et tâches longues.
L’expérience utilisateur est déjà proche d’Opus 4.5.
Créer de l’IA avec de l’IA
Bien sûr, la ambition de GLM-5 ne se limite pas au modèle, mais vise aussi à réinventer nos outils de programmation.
OpenClaw, qui a explosé dans le monde entier, a montré le potentiel de l’IA pour manipuler un ordinateur.
Cette fois, Zhipu a lancé la version AutoGLM d’OpenClaw.
Avec la version originale, il fallait passer une demi-journée à tout configurer, maintenant, c’est déployé en un clic sur le site officiel.
Vous voulez un « stagiaire numérique » qui surveille Twitter, trie l’actualité, ou même écrit des scripts 24/7 ? C’est possible en un clic.
Et aussi Z Code —
Vous pouvez même commander à distance via votre téléphone pour faire travailler l’agent sur votre bureau.
À noter que, tout comme OpenAI a utilisé Codex pour créer Codex, Z Code a été entièrement développé avec la participation du modèle GLM.
La victoire de la puissance de calcul nationale
Après avoir fait exploser la popularité mondiale de GLM, et avec la demande pour des agents qui explose, une « armée d’inconnus » soutient en silence cette charge de calcul massive.
Pour garantir la stabilité de chaque ligne de code, chaque plan d’agent, GLM-5 s’est profondément intégré dans le « cœur » de la puissance de calcul nationale, avec une compatibilité poussée avec Huawei Ascend, Mooresoft, Cambrian, Kunlun, Muxi, Suiyuan, Hygon, etc.
Grâce à une optimisation fine au niveau des opérateurs de bas niveau, GLM-5 peut aussi tourner sur des clusters de puces domestiques avec « haut débit, faible latence ».
Cela signifie que nous disposons non seulement d’un modèle de premier ordre, mais aussi que nous ne sommes pas dépendants de technologies étrangères.
Conclusion
Au printemps 2026, les grands modèles de programmation ont enfin mûri.
Ce que Karpathy appelle « Agentic Engineering » est en réalité une exigence encore plus stricte pour l’IA :
GLM-5 n’est pas parfait.
Mais sur la conception de systèmes complexes, c’est actuellement le seul modèle open source capable de suivre cette vague « agentielle ».
Vibe Coding, c’est fini.
Ne demande plus à l’IA « peux-tu m’aider à écrire une page web » — c’était en 2025.
Désormais, demande-lui : « peux-tu m’aider à restructurer le module central de ce système à haute concurrence ? »
GLM-5, prêt à construire !
Easter Egg
GLM-5 est déjà intégré dans le pack Max pour les utilisateurs, la version Pro sera supportée dans les 5 prochains jours !
Et juste après, Zhipu a annoncé une augmentation de prix, cette année, le coût du token va forcément augmenter !
Source : Xinzhiyuan
Avertissement de risque et clause de non-responsabilité
Le marché comporte des risques, l’investissement doit être prudent. Cet article ne constitue pas un conseil d’investissement personnel, ni une recommandation spécifique tenant compte des objectifs, situation financière ou besoins particuliers de chaque utilisateur. L’utilisateur doit juger si les opinions, points de vue ou conclusions présentés ici sont adaptés à sa situation. En investissant, il en assume la responsabilité.