Nourrir des modèles boîte noire avec vos données personnelles n'est pas audacieux.
C'est une violation par conception.
Le chemin le plus rapide vers une véritable demande en DeAI consiste à permettre aux entreprises et aux consommateurs d'utiliser des données sensibles avec l'IA tout en restant sur des rails ouverts. Le schéma est le suivant : entrées privées, sorties vérifiables.
Un hôpital, une banque ou un studio ne vont pas expédier des données brutes dans un modèle hébergé qui sait où. Ils utiliseront cependant une cryptographie qui garantit que le modèle ne voit jamais le texte en clair.
Deux outils pratiques aujourd'hui : FHE et zkML.
Le Concrete ML de @zama_fhe compile des modèles afin que certaines parties de l'inférence s'exécutent directement sur des données chiffrées. Les documents récents et les versions présentent des démonstrations d'inférence LLM chiffrée et de classification de texte privée. C'est plus lent que le texte en clair, mais cela transforme des charges de travail auparavant "non expédiables" en charges déployables.
Parallèlement, zkML vous permet de prouver qu'une inférence s'est produite correctement sans exposer les invites ou les poids. @ezklxyz gère le parcours du modèle au circuit ; zkML de @MinaProtocol apporte une inférence vérifiable dans les zkApps afin que les contrats puissent accepter des résultats tout en maintenant les entrées cachées. Vous vous retrouvez avec des invites privées et une vérification publique, ce qui est exactement ce dont une organisation conforme a besoin.
Cependant, la seule confidentialité ne règle pas les paiements ou les droits d'accès. Vous avez besoin d'un reçu que tout le monde peut vérifier. C'est là que les zkVM et les zk coprocesseurs entrent en jeu. Le service Bonsai de @RiscZero expose un service de preuve et un vérificateur universel pour transporter des reçus à travers les chaînes ; le SP1 de @SuccinctLabs se concentre sur la performance et la vérification multi-chaînes. Les coprocesseurs comme @axiom_xyz ou @lagrangedev rendent peu coûteux pour les contrats de consommer des calculs lourds via de petites preuves. L'état final : un portefeuille, un DAO ou une application peut accepter votre résultat d'IA sans avoir à relancer le travail ou à apprendre vos données.
En résumé : DeAI gagne lorsque les gens peuvent utiliser leurs données les plus sensibles avec l'IA et continuer à s'installer sur des rails publics.
Utilisez FHE ou zkML privé pour la confidentialité. Ajouter des reçus ZK pour vérification. Accédez aux marchés décentralisés de GPU pour l'échelle.
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Nourrir des modèles boîte noire avec vos données personnelles n'est pas audacieux.
C'est une violation par conception.
Le chemin le plus rapide vers une véritable demande en DeAI consiste à permettre aux entreprises et aux consommateurs d'utiliser des données sensibles avec l'IA tout en restant sur des rails ouverts. Le schéma est le suivant : entrées privées, sorties vérifiables.
Un hôpital, une banque ou un studio ne vont pas expédier des données brutes dans un modèle hébergé qui sait où. Ils utiliseront cependant une cryptographie qui garantit que le modèle ne voit jamais le texte en clair.
Deux outils pratiques aujourd'hui : FHE et zkML.
Le Concrete ML de @zama_fhe compile des modèles afin que certaines parties de l'inférence s'exécutent directement sur des données chiffrées. Les documents récents et les versions présentent des démonstrations d'inférence LLM chiffrée et de classification de texte privée. C'est plus lent que le texte en clair, mais cela transforme des charges de travail auparavant "non expédiables" en charges déployables.
Parallèlement, zkML vous permet de prouver qu'une inférence s'est produite correctement sans exposer les invites ou les poids. @ezklxyz gère le parcours du modèle au circuit ; zkML de @MinaProtocol apporte une inférence vérifiable dans les zkApps afin que les contrats puissent accepter des résultats tout en maintenant les entrées cachées. Vous vous retrouvez avec des invites privées et une vérification publique, ce qui est exactement ce dont une organisation conforme a besoin.
Cependant, la seule confidentialité ne règle pas les paiements ou les droits d'accès. Vous avez besoin d'un reçu que tout le monde peut vérifier. C'est là que les zkVM et les zk coprocesseurs entrent en jeu. Le service Bonsai de @RiscZero expose un service de preuve et un vérificateur universel pour transporter des reçus à travers les chaînes ; le SP1 de @SuccinctLabs se concentre sur la performance et la vérification multi-chaînes. Les coprocesseurs comme @axiom_xyz ou @lagrangedev rendent peu coûteux pour les contrats de consommer des calculs lourds via de petites preuves. L'état final : un portefeuille, un DAO ou une application peut accepter votre résultat d'IA sans avoir à relancer le travail ou à apprendre vos données.
En résumé : DeAI gagne lorsque les gens peuvent utiliser leurs données les plus sensibles avec l'IA et continuer à s'installer sur des rails publics.
Utilisez FHE ou zkML privé pour la confidentialité.
Ajouter des reçus ZK pour vérification.
Accédez aux marchés décentralisés de GPU pour l'échelle.