Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
NVIDIA dévoile Rubin : six nouvelles puces alimentent le superordinateur d'IA de nouvelle génération
En Bref
Nvidia a dévoilé la plateforme Rubin lors du CES 2026, combinant six nouveaux chips en un superordinateur IA unifié offrant 5 fois la puissance de calcul d’entraînement de sa gamme Blackwell.
La société technologique NVIDIA a présenté la plateforme Rubin au CES 2026, introduisant un superordinateur IA unifié construit à partir de six nouveaux chips qui offrent collectivement cinq fois la puissance de calcul d’entraînement de la série Blackwell. La plateforme est conçue pour établir une nouvelle référence en matière de construction, de déploiement et de sécurisation de systèmes IA à grande échelle tout en minimisant les coûts pour favoriser une adoption plus large de la technologie IA.
La plateforme Rubin atteint ses performances grâce à une co-conception étroite entre ses six composants : le CPU NVIDIA Vera, le GPU NVIDIA Rubin, le Switch NVIDIA NVLink 6, le SuperNIC NVIDIA ConnectX-9, le DPU NVIDIA BlueField-4, et le Switch Ethernet NVIDIA Spectrum-6. Cette approche intégrée réduit les temps d’entraînement et diminue les coûts par jeton d’inférence.
Rubin introduit cinq innovations clés, notamment les interconnexions NVLink de nouvelle génération, le Transformer Engine, le Confidential Computing, le RAS Engine, et le CPU NVIDIA Vera. Ces avancées permettent une IA agentique, un raisonnement avancé, et une inférence de modèles (MoE) à grande échelle avec jusqu’à dix fois moins de coût par jeton comparé à la plateforme Blackwell. Le système peut entraîner des modèles MoE avec quatre fois moins de GPU, accélérant encore l’adoption de l’IA.
La plateforme devrait être déployée par des laboratoires d’IA de premier plan, des fournisseurs de services cloud, des fabricants de matériel, et des startups, notamment Amazon Web Services (AWS), Anthropic, Black Forest Labs, Cisco, Cohere, CoreWeave, Cursor, Dell Technologies, Google, Harvey, HPE, Lambda, Lenovo, Meta, Microsoft, Mistral AI, Nebius, Nscale, OpenAI, OpenEvidence, Oracle Cloud Infrastructure (OCI), Perplexity, Runway, Supermicro, Thinking Machines Lab, et xAI.
Dévoilement du stockage natif IA et de l’infrastructure logicielle pour les usines IA
NVIDIA Rubin introduit un stockage natif IA et une infrastructure sécurisée, définie par logiciel, conçus pour supporter efficacement des charges de travail IA à grande échelle. La plateforme de stockage de mémoire de contexte d’inférence NVIDIA, alimentée par BlueField-4, permet un partage rapide et une réutilisation des données de cache clé-valeur, améliorant le débit et l’efficacité énergétique pour les applications IA agentiques à plusieurs tours. BlueField-4 inclut également l’architecture avancée de ressources de confiance sécurisées (ASTRA), fournissant un point de contrôle unique et fiable pour la provision sécurisée et l’isolation dans des environnements IA bare-metal et multi-locataires.
La plateforme est proposée en plusieurs configurations, notamment la Vera Rubin NVL72, intégrant 72 GPU Rubin, 36 CPU Vera, NVLink 6, ConnectX-9 SuperNICs, et BlueField-4 DPU, ainsi que la HGX Rubin NVL8, reliant huit GPU Rubin pour supporter des plateformes IA génératives basées sur x86. NVIDIA DGX SuperPOD sert d’architecture de référence pour le déploiement à grande échelle des systèmes Rubin, combinant calcul, réseau et logiciels de gestion.
Les réseaux et stockages de nouvelle génération sont assurés par les plateformes Ethernet Spectrum-6 et Spectrum-X, équipées d’optique intégrée, de fabrics optimisés IA, et de communications SerDes 200G à haute vitesse. Ces innovations offrent une fiabilité accrue, une efficacité énergétique améliorée, et une évolutivité, permettant aux usines IA Rubin de fonctionner sur plusieurs sites comme environnements unifiés et de supporter des infrastructures à millions de GPU à l’avenir.
NVIDIA Rubin en production complète, prêt pour le déploiement dans le cloud et les laboratoires IA
La nouvelle plateforme est entrée en production complète, avec des systèmes basés sur Rubin qui devraient être disponibles via des partenaires dans la seconde moitié de 2026. Les principaux fournisseurs de cloud, dont AWS, Google Cloud, Microsoft, et OCI, ainsi que des partenaires cloud NVIDIA tels que CoreWeave, Lambda, Nebius, et Nscale, font partie des premiers à déployer des instances alimentées par Rubin. Microsoft prévoit d’intégrer les systèmes rack-scale NVIDIA Vera Rubin NVL72 dans ses futurs centres de données IA de nouvelle génération, y compris les futurs sites de la super-usine Fairwater AI, formant la base pour des charges de travail avancées d’entraînement et d’inférence dans l’entreprise, la recherche et les applications grand public.
CoreWeave intégrera des systèmes Rubin dans sa plateforme cloud IA, supportant plusieurs architectures et permettant une performance optimisée pour l’entraînement, l’inférence, et les charges de travail IA agentiques. Cisco, Dell, HPE, Lenovo, et Supermicro devraient également proposer des serveurs basés sur les produits Rubin. Des laboratoires d’IA de premier plan, tels qu’Anthropic, Cohere, OpenAI, Meta, et d’autres, adoptent Rubin pour entraîner des modèles plus grands et plus performants, et supporter des systèmes multimodaux à contexte long avec une latence et un coût réduits par rapport aux générations précédentes de GPU.
Les partenaires en infrastructure et stockage, tels qu’IBM, NetApp, Nutanix, Pure Storage, SUSE, et VAST Data, collaborent avec NVIDIA pour concevoir les plateformes Rubin de nouvelle génération. Rubin représente la troisième génération d’architecture rack-scale de NVIDIA, soutenue par plus de 80 partenaires de l’écosystème MGX. Red Hat a annoncé une collaboration élargie pour fournir une pile IA complète optimisée pour Rubin, tirant parti de son portefeuille cloud hybride comprenant Red Hat Enterprise Linux, OpenShift, et Red Hat AI, largement utilisé par les entreprises du Fortune Global 500.