GM À TOUS ☀️


Lorsque Jensen Huang a évoqué la formation d'IA décentralisée, l'attention s'est immédiatement portée sur Bittensor.
Mais cela avait déjà été exploré bien avant ce moment.
En juin 2025, @0G_labs a publié l'article DiLoCoX sur arXiv, montrant que la formation de modèles à grande échelle sur des nœuds décentralisés était bien plus efficace.
Ils ont démontré une formation de plus de 100 milliards de paramètres sur du matériel standard et Internet typique, tout en améliorant l'efficacité de la communication de 357x par rapport aux méthodes traditionnelles.
Il y a aussi une différence clé qui est souvent oubliée. Bittensor se concentre sur un réseau entraîné spécifique, tandis que DiLoCoX est conçu comme un cadre pouvant être utilisé pour entraîner n'importe quel modèle.
C'est également une partie d'une pile plus large qui combine calcul, stockage, disponibilité des données et chaîne.
Prochaine étape : EthCC Cannes 2025 le 1er avril 📍
0G6,46%
Voir l'original
post-image
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler