Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
#ClaudeCode500KCodeLeak
#ClaudeCode500KCodeLeak — L’histoire interne de la façon dont Anthropic a accidentellement exposé son propre outil d’IA
Date : 31 mars 2026
Que s’est-il passé ?
Le 31 mars 2026, Anthropic a involontairement exposé le code source interne de son assistant de codage IA, Claude Code, en raison d’une erreur simple mais critique lors de l’emballage.
L’entreprise a publié la version 2.1.88 sur le registre NPM, mais la version comprenait un grand fichier de carte source (cli.js.map). Ce fichier contenait le code source TypeScript complet d’origine derrière l’outil CLI compilé.
En conséquence :
Plus de 512 000 lignes de code
Dans près de 1 900 fichiers
Sont devenues accessibles au public
Pas d’exploitation, pas de violation, pas de piratage — juste un processus d’installation normal.
Comment la fuite s’est réellement produite
Le problème venait d’une simple négligence en DevOps :
Un outil de build a automatiquement généré un fichier de carte source
Le fichier .npmignore n’a pas exclu ce fichier
La carte source contenait le code source complet en ligne
Il faisait aussi référence à un bucket de stockage accessible publiquement
Cela a créé un chemin direct : Installer → Extraire → Reconstruire → Accéder à l’ensemble du code
La fuite est restée active pendant environ 3 heures, ce qui a suffi pour qu’elle se propage mondialement.
Que contenait le code ?
Ce n’était pas juste du code aléatoire — cela révélait toute l’architecture d’un système moderne d’IA pour le codage.
Structure du système
~1 906 fichiers TypeScript
Architecture modulaire avec commandes, outils, services, hooks et plugins
Plus de 180 modules internes
Cela montrait que Claude Code est un système de développement complet, pas simplement une enveloppe autour d’une API.
Commandes internes cachées
Plusieurs commandes ont été découvertes, jamais documentées publiquement :
/ultraplan → flux de travail de raisonnement avancé
/ctx_viz → visualisation du contexte
/security-review → vérifications de sécurité automatisées
/debug-tool-call → débogage interne
/ant-trace → système de traçage
/heapdump → diagnostics mémoire
Celles-ci révèlent des capacités internes bien au-delà des fonctionnalités standard pour l’utilisateur.
Conception de la sécurité
Une des découvertes les plus surprenantes était le niveau de protection intégré :
Validation multi-niveaux pour l’exécution des commandes
Restrictions en sandbox pour la sécurité du système
Contrôles stricts des permissions pour l’accès aux fichiers
Gestion des commandes multiplateforme
Cela confirme que les outils IA modernes sont conçus avec une ingénierie de sécurité sérieuse, pas seulement pour la fonctionnalité.
Surveillance et suivi du comportement utilisateur
Le code a aussi révélé des systèmes de suivi internes :
Surveillance des performances et de l’utilisation
Systèmes de drapeaux de fonctionnalités
Détection de frustration et de profanity dans les entrées utilisateur
Cela soulève des questions importantes sur la transparence : les utilisateurs n’étaient pas pleinement conscients de la façon dont leurs interactions pouvaient être analysées.
Système non publié : KAIROS
La plus grande découverte était un système d’agent en arrière-plan non publié appelé KAIROS, qui comprenait :
Processus en arrière-plan toujours en marche
Systèmes de mémoire ("autoDream")
Notifications et mises à jour
Suivi automatique des dépôts
Cela suggère un changement majeur vers : des agents IA qui fonctionnent en continu, pas seulement sur commande
Ce qui n’a PAS été divulgué
Malgré l’ampleur, des composants critiques sont restés sécurisés :
Aucun poids de modèle
Aucune donnée d’entraînement
Aucune donnée utilisateur
Aucune clé API
La couche d’intelligence est restée protégée sur les serveurs.
Vitesse de propagation
La réaction d’Internet a été immédiate :
Fenêtre de fuite : ~3 heures
Des milliers de téléchargements en quelques minutes
Les dépôts GitHub ont gagné des dizaines de milliers d’étoiles et de forks
Des millions de vues sur les archives partagées
Une fois exposé, le code s’est propagé trop vite pour être contenu.
Réponse d’Anthropic
Anthropic a brièvement confirmé l’incident, déclarant que le code interne avait été inclus dans une version, mais aucune donnée utilisateur n’a été affectée.
Il n’y a eu :
Aucune escalade légale majeure
Aucune analyse technique détaillée immédiatement publiée
La réponse est restée minimale et contrôlée.
Pourquoi cela importe
Pour l’industrie
Cette fuite a révélé comment les outils d’IA pour le codage sont réellement construits — quelque chose rarement visible dans un espace concurrentiel.
Pour les développeurs
Cela a montré :
Les systèmes d’IA du monde réel sont très complexes
L’architecture compte autant que les modèles d’IA
Les outils évoluent vers des écosystèmes complets
Pour la transparence de l’IA
La découverte de systèmes de surveillance cachés soulève des préoccupations importantes :
Quelles données sont suivies ?
Comment le comportement des utilisateurs est-il analysé ?
Que doivent divulguer les entreprises ?
Leçon clé pour les développeurs
Toute cette situation se résume à une seule règle de configuration manquante.
Meilleures pratiques :
Exclure les fichiers .map du déploiement
Vérifier toujours les packages avant publication
Désactiver les cartes source dans les builds de release
Utiliser des vérifications automatisées en CI/CD
De petites erreurs peuvent entraîner une exposition massive.
Conclusion
#ClaudeCode500KCodeLeak n’a pas été une cyberattaque — c’était une simple erreur interne avec des conséquences massives.
Des centaines de milliers de lignes de code interne, des systèmes cachés et des fonctionnalités tournant vers l’avenir sont désormais disponibles en ligne de façon permanente.
Dans une industrie bâtie sur le secret, cet incident a fait quelque chose de rare :
Il a révélé comment les outils d’IA modernes sont réellement conçus en coulisses.
Et cela en fait un moment décisif — pas seulement un accident, mais une étude de cas à long terme pour les développeurs, les entreprises et tout l’écosystème IA.