Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
IOSG: Où sera le prochain point d'explosion de Web3+AI ?
Auteur : IOSG Ventures
Merci pour les commentaires de Zhenyang@Upshot, Fran@Giza, Ashely@Neuronets, Matt@Valence, Dylan@Pond.
Cette étude vise à explorer quels domaines de l’intelligence artificielle sont les plus importants pour les développeurs, ainsi que quelles pourraient être les prochaines opportunités à saisir dans les domaines de l’IA et du Web3.
Avant de partager de nouveaux points de vue de recherche, nous sommes très heureux de participer d’abord à la première levée de fonds de 5 millions de dollars au total de RedPill, et nous sommes également très excités et impatients de pouvoir grandir ensemble avec RedPill à l’avenir !
TL;DR
Avec la combinaison de Web3 et de l’IA devenant un sujet d’attention dans le monde de la longue monnaie, l’infrastructure de base de l’IA dans le monde de la longue monnaie est en plein essor, mais l’utilisation réelle de l’IA ou des applications construites pour l’IA n’est pas longue, et le problème d’homogénéisation de l’infrastructure de base de l’IA apparaît progressivement. Récemment, notre participation au premier tour de financement de RedPill a suscité une compréhension plus approfondie.
Source:IOSG
Introduction
Source:IOSGVentures
1. RedPill:为 OpenAI 提供Décentralisation授权
Le RedPill dans lequel nous avons investi précédemment est un bon point d’entrée.
OpenAI dispose de plusieurs modèles puissants de classe mondiale tels que GPT-4-vision, GPT-4-turbo et GPT-4o, ce qui en fait le choix préféré pour la création de Dapp d’intelligence artificielle avancée.
Les développeurs peuvent intégrer l’API OpenAI dans leur dApp en utilisant Oracle Machine ou une interface frontale.
RedPill regroupe les API OpenAI de différents développeurs sous une seule interface, offrant ainsi aux utilisateurs du monde entier des services d’intelligence artificielle rapides, économiques et vérifiables, démocratisant ainsi l’accès aux ressources des meilleurs modèles d’intelligence artificielle. L’algorithme de routage RedPill dirigera les demandes des développeurs vers un contributeur unique. Les demandes d’API seront exécutées via son réseau de distribution, contournant ainsi toute restriction éventuelle de la part d’OpenAI et résolvant certains problèmes courants auxquels les développeurs sont confrontés, tels que le chiffrement.
En utilisant le même code de requête mais en changeant le nom d’hôte, les développeurs peuvent accéder aux modèles OpenAI de manière économique, hautement évolutive et sans restriction.
2. Réseau de GPU
除了使用 OpenAI 的 API,许多开发人员还会选择自行在家中托管模型。他们可以依托Décentralisation GPU 网络,如 io.net、Aethir、Akash 等流行的网络,自行建立 GPU 集群并部署及运行各种强大的内部或Open Source模型。
Ce type de réseau Décentralisation GPU permet d’utiliser la puissance de calcul des particuliers ou des petits centres de données pour offrir une configuration flexible, un choix de serveur plus long et des coûts plus bas, permettant aux développeurs de mener facilement des expériences liées à l’IA dans un budget limité. Cependant, en raison de la nature Décentralisation de ces réseaux GPU, ils présentent encore certaines limites en termes de fonctionnalité, d’accessibilité et de confidentialité des données.
Au cours des derniers mois, la demande de GPU a été très forte, dépassant la précédente fièvre du minage de BTC. Les raisons de ce phénomène comprennent:
Recommandé : Pour les développeurs Web2 qui ne prêtent pas trop d’attention à l’SLA, io.net offre une expérience simple et facile à utiliser, c’est un choix très rentable.
3. Réseau de raisonnement
C’est le cœur de l’infrastructure native off-chain AI chiffrement. Il prendra en charge des opérations d’inférence AI par milliards à l’avenir. De nombreux couches AI layer1 ou layer2 offrent aux développeurs la capacité d’appeler nativement l’inférence AI off-chain. Les leaders du marché incluent Ritual, Valence et Fetch.ai.
Ces réseaux diffèrent dans les aspects suivants :
3.1 Objectif
L’idéal serait que les développeurs puissent accéder facilement à des services d’inférence d’IA personnalisés, n’importe où et par n’importe quel moyen de preuve, sans pratiquement aucun obstacle pendant l’intégration.
Le réseau de raisonnement fournit tout le support de base dont les développeurs ont besoin, y compris la génération à la demande et la preuve de validation, le calcul de raisonnement, le relais et la validation des données de raisonnement, les interfaces pour Web2 et Web3, le déploiement de modèles en un clic, la surveillance du système, les opérations d’interaction inter-chaînes, l’intégration et l’exécution synchronisée, etc.
Source:IOSGVentures
Avec ces fonctionnalités, les développeurs peuvent intégrer facilement les services d’inférence dans leurs contrats intelligents existants. Par exemple, lors de la construction de robots de trading DeFi, ces robots utilisent des modèles d’apprentissage automatique pour trouver des opportunités d’achat et de vente pour des paires de trading spécifiques, et exécutent des stratégies de trading correspondantes sur la plateforme de trading de base.
Dans un état idéal, toute l’infrastructure est hébergée dans le cloud. Les développeurs doivent simplement télécharger leur modèle de stratégie de transaction au format générique tel que torch, et le réseau d’inférence stockera le modèle et le rendra disponible pour les requêtes Web2 et Web3.
Une fois toutes les étapes de déploiement du modèle terminées, les développeurs peuvent appeler directement l’inférence du modèle via l’API Web3 ou le contrat intelligent. Le réseau d’inférence continuera à exécuter ces stratégies de transaction et à fournir les résultats au contrat intelligent de base. S’il y a une grande quantité de fonds communautaires gérés par les développeurs, il est également nécessaire de fournir une vérification des résultats d’inférence. Une fois les résultats d’inférence reçus, le contrat intelligent effectuera des transactions en fonction de ces résultats.
Source:IOSGVentures
3.1.1 Asynchrone et Synchronisé
En théorie, les opérations de raisonnement asynchrones peuvent améliorer les performances; cependant, cette approche peut être peu pratique en termes d’expérience de développement.
Lors de l’utilisation du mode asynchrone, les développeurs doivent d’abord soumettre la tâche au contrat intelligent du réseau d’inférence. Une fois la tâche d’inférence terminée, le contrat intelligent du réseau d’inférence renverra le résultat. Dans ce mode de programmation, la logique est divisée en deux parties : l’appel d’inférence et le traitement des résultats d’inférence.
Source:IOSGVentures
Si les développeurs ont des appels de raisonnement imbriqués et beaucoup de logique de contrôle, la situation deviendra encore pire.
Source:IOSGVentures
Le mode de programmation asynchrone rend difficile l’intégration avec les smart contracts existants. Cela nécessite que les développeurs écrivent beaucoup de code supplémentaire, gèrent les erreurs et la gestion des dépendances.
Relativement, la programmation synchrone est plus intuitive pour les développeurs, mais elle pose des problèmes en termes de temps de réponse et de conception de la chaîne de blocs. Par exemple, si les données d’entrée sont des données à évolution rapide telles que le temps de bloc ou le prix, une fois le raisonnement terminé, les données ne sont plus fraîches, ce qui peut entraîner un rollback dans l’exécution du Smart Contract dans des cas spécifiques. Imaginez que vous effectuez une transaction avec un prix obsolète.
Source:IOSGVentures
La plupart des infrastructures AI utilisent un traitement asynchrone, mais Valence cherche à résoudre ces problèmes.
3.2 Situation actuelle
En réalité, de nombreux nouveaux réseaux de raisonnement sont encore en phase de test, tels que le réseau Ritual. Selon leurs documents publics, ces réseaux ont actuellement des fonctionnalités assez limitées (telles que la vérification, la preuve, etc. ne sont pas encore en ligne). Ils ne fournissent actuellement pas d’infrastructure cloud pour prendre en charge les calculs d’IA hors chaîne, mais ils fournissent un cadre pour l’auto-hébergement des calculs d’IA et la transmission des résultats hors chaîne.
C’est une architecture qui exécute le modèle de diffusion AIGC NFT. Le modèle de diffusion génère des jetons non fongibles et les télécharge sur Arweave. Le réseau de raisonnement utilisera cette adresse Arweave pour effectuer le minting off-chain de ce jeton non fongible.
Source:IOSGVentures
Ce processus est très complexe, les développeurs doivent déployer et entretenir la plupart des infrastructures eux-mêmes, telles que Ritual Nœud avec une logique de service personnalisée, Stable Diffusion Nœud et Jeton non fongible Smart Contract.
Recommandation : Les réseaux de déduction actuels sont assez complexes en ce qui concerne l’intégration et le déploiement de modèles personnalisés, et la plupart de ces réseaux ne prennent pas encore en charge la fonction de vérification à ce stade. L’application de la technologie de l’IA à la partie frontale offre aux développeurs une option relativement simple. Si vous avez vraiment besoin de la fonction de vérification, Giza, fournisseur de ZKML, est un bon choix.
4. Réseau de proxy
Le réseau de proxy permet aux utilisateurs de personnaliser facilement les proxies. Ce réseau est composé d’entités ou de contrats intelligents capables d’exécuter des tâches de manière autonome, de s’entraider et d’interagir avec le réseau Blockchain, sans intervention directe de l’homme. Il est principalement destiné à la technologie LLM. Par exemple, il peut fournir un chatbot GPT pour approfondir la compréhension d’Ethereum. Les outils actuels de ce chatbot sont assez limités, les développeurs ne peuvent pas encore développer d’applications complexes sur cette base.
Source:IOSGVentures
Mais à l’avenir, le réseau d’agents fournira des outils plus longs aux agents, non seulement des connaissances, mais aussi la capacité d’appeler des API externes, d’exécuter des tâches spécifiques, etc. Les développeurs pourront relier longs agents pour construire des flux de travail. Par exemple, l’écriture de contrats intelligents Solidity impliquera longs agents spécialisés, y compris des agents de conception de protocole, des agents de développement Solidity, des agents d’examen de sécurité du code et des agents de déploiement Solidity.
Source:IOSGVentures
Nous coordonnons la collaboration de ces agents en utilisant des indices et des scénarios.
Des exemples de réseaux de proxy incluent Flock.ai, Myshell et Theoriq.
Recommandation : La plupart des agents actuels ont des fonctionnalités relativement limitées. Pour certains cas d’utilisation, les agents Web2 peuvent mieux servir et disposent d’outils de composition matures tels que Langchain et Llamaindex.
5. Différences entre le réseau d’agents et le réseau de raisonnement
Le réseau d’agents met davantage l’accent sur LLM, fournissant des outils tels que Langchain pour intégrer long agents. En général, les développeurs n’ont pas besoin de développer personnellement des modèles d’apprentissage automatique, le réseau d’agents a déjà simplifié le processus de développement et de déploiement des modèles. Ils ont seulement besoin de lier les agents et les outils nécessaires. Dans de nombreux cas, les utilisateurs finaux utiliseront directement ces agents.
Le réseau d’inférence est l’infrastructure de base du réseau de mandataires qui fournit aux développeurs des autorisations d’accès de niveau inférieur. En général, les utilisateurs finaux n’utilisent pas directement le réseau d’inférence. Les développeurs doivent déployer leurs propres modèles, ce qui n’est pas limité à LLM, et ils peuvent les utiliser via des points d’accès off-chain ou off-chain.
Les réseaux d’agence et les réseaux de raisonnement ne sont pas des produits entièrement indépendants. Nous commençons déjà à voir des produits intégrés verticalement. Ils offrent à la fois des capacités d’agence et de raisonnement car ces deux fonctionnalités dépendent d’infrastructures similaires.
6. Nouvelle opportunité
Outre l’inférence, la formation et les réseaux d’agents de modèles, il existe encore de nombreux nouveaux domaines à explorer dans le domaine de la web3 :
7. Perspectives futures
Nous avons observé une tendance à l’intégration verticale. En construisant une couche de calcul de base, le réseau peut prendre en charge diverses tâches d’apprentissage automatique, notamment la formation, l’inférence et les services de réseau proxy. Ce modèle vise à fournir aux développeurs d’apprentissage automatique Web3 une solution tout-en-un complète.
Actuellement, bien que le raisonnement off-chain soit coûteux et lent, il offre une excellente vérifiabilité et une intégration transparente avec les systèmes backend (comme les smart contracts). Je pense que l’avenir se dirige vers des applications hybrides. Une partie du raisonnement sera effectué en frontal ou off-chain, tandis que les raisonnements critiques et décisifs seront effectués off-chain. Ce modèle est déjà appliqué sur les appareils mobiles. En exploitant la nature des appareils mobiles, il peut exécuter rapidement des petits modèles localement et déplacer des tâches plus complexes vers le cloud pour une plus grande capacité de traitement.