Futuros
Acesse centenas de contratos perpétuos
TradFi
Ouro
Plataforma única para ativos tradicionais globais
Opções
Hot
Negocie opções vanilla no estilo europeu
Conta unificada
Maximize sua eficiência de capital
Negociação demo
Introdução à negociação de futuros
Prepare-se para sua negociação de futuros
Eventos de futuros
Participe de eventos e ganhe recompensas
Negociação demo
Use fundos virtuais para experimentar negociações sem riscos
Lançamento
CandyDrop
Colete candies para ganhar airdrops
Launchpool
Staking rápido, ganhe novos tokens em potencial
HODLer Airdrop
Possua GT em hold e ganhe airdrops massivos de graça
Pre-IPOs
Desbloqueie o acesso completo a IPO de ações globais
Pontos Alpha
Negocie on-chain e receba airdrops
Pontos de futuros
Ganhe pontos de futuros e colete recompensas em airdrop
Investimento
Simple Earn
Ganhe juros com tokens ociosos
Autoinvestimento
Invista automaticamente regularmente
Investimento duplo
Lucre com a volatilidade do mercado
Soft Staking
Ganhe recompensas com stakings flexíveis
Empréstimo de criptomoedas
0 Fees
Penhore uma criptomoeda para pegar outra emprestado
Centro de empréstimos
Centro de empréstimos integrado
Centro de riqueza VIP
Planos premium de crescimento de patrimônio
Gestão privada de patrimônio
Alocação premium de ativos
Fundo Quantitativo
Estratégias quant de alto nível
Apostar
Faça staking de criptomoedas para ganhar em produtos PoS
Alavancagem Inteligente
Alavancagem sem liquidação
Cunhagem de GUSD
Cunhe GUSD para retornos em RWA
IOSG: Onde será o próximo ponto de explosão sob Web3+AI?
Autor: IOSG Ventures
Obrigado pelos feedbacks de Zhenyang@Upshot, Fran@Giza, Ashely@Neuronets, Matt@Valence, Dylan@Pond.
Esta pesquisa tem como objetivo explorar quais os campos de inteligência artificial são mais importantes para os desenvolvedores e quais podem ser as próximas oportunidades explosivas no campo da inteligência artificial e da Web3.
Antes de compartilhar novos pontos de vista de pesquisa, estamos muito felizes em participar da primeira rodada de financiamento da RedPill, no valor total de 5 milhões de dólares, e estamos muito animados e ansiosos para crescer junto com a RedPill no futuro!
TL;DR
Com a combinação de Web3 e AI se tornando um tópico de destaque no mundo da encriptação, a infraestrutura de AI no mundo da encriptação está prosperando, mas a aplicação real de AI ou aplicativos construídos para AI não é longo, e o problema da homogeneização da infraestrutura de AI está gradualmente se tornando evidente. Recentemente, nossa participação na primeira rodada de financiamento da RedPill desencadeou uma compreensão mais profunda.
Fonte: IOSG
Introdução
Fonte: IOSGVentures
1. RedPill: Autorização de Descentralização fornecida para a OpenAI
O RedPill que mencionamos anteriormente é um bom ponto de entrada para nós.
A OpenAI possui vários modelos poderosos de classe mundial, como o GPT-4-vision, GPT-4-turbo e GPT-4o, sendo a escolha ideal para construir aplicativos descentralizados de inteligência artificial avançada.
Os desenvolvedores podem integrá-lo em dApp através da Máquina Oracle ou da interface frontal OpenAI API.
RedPill integrates the OpenAI API from different developers into one interface, providing fast, affordable, and verifiable artificial intelligence services to global users, thus democratizing access to top AI model resources. RedPill’s routing Algoritmo will direct developers’ requests to a single contributor. API requests will be executed through its distribution network, bypassing any potential restrictions from OpenAI, solving some common issues faced by developers, such as:
Ao usar o mesmo código de solicitação, mas alterando o nome do host, os desenvolvedores podem acessar modelos OpenAI de maneira econômica, altamente escalável e ilimitada.
2. Rede de GPU
Além de usar a API da OpenAI, muitos desenvolvedores também optam por hospedar os modelos em casa. Eles podem contar com redes GPU descentralizadas, como io.net, Aethir, Akash e outras redes populares, para construir e implantar clusters de GPU e executar uma variedade de modelos internos ou de código aberto poderosos.
Esta rede Descentralização GPU permite que os desenvolvedores realizem facilmente experimentos relacionados à IA dentro de um orçamento limitado, aproveitando a capacidade de computação de indivíduos ou pequenos data centers, oferecendo configurações flexíveis, opções de localização de servidor mais longas e custos mais baixos. No entanto, devido à natureza descentralizada, essas redes de GPU ainda têm algumas limitações em termos de funcionalidade, disponibilidade e privacidade dos dados.
Nos últimos meses, a demanda por GPUs tem sido altíssima, superando a febre anterior da mineração de BTC. As razões para esse fenômeno incluem:
Recomendação: Para desenvolvedores da Web2 que não dão muita importância ao SLA, o io.net oferece uma experiência simples e fácil de usar, sendo uma escolha de ótimo custo-benefício.
3. Rede de inferência
Este é o núcleo da infraestrutura nativa de IA encriptação. Irá suportar no futuro milhares de milhões de operações de inferência de IA. Muitas camadas de IA layer1 ou layer2 fornecem aos desenvolvedores a capacidade de chamar nativamente a inferência de IA na cadeia. Os líderes de mercado incluem Ritual, Valence e Fetch.ai.
Essas redes diferem nas seguintes áreas:
3.1 Objetivo
O cenário ideal é que os desenvolvedores possam acessar facilmente os serviços de inferência de IA personalizados em qualquer lugar, por meio de qualquer forma de prova, com pouca obstrução no processo de integração.
A rede de raciocínio fornece todo o suporte básico necessário para os desenvolvedores, incluindo geração sob demanda de provas de validação, cálculo de raciocínio, Relé e validação de dados de raciocínio, fornecendo interfaces para Web2 e Web3, implantação de modelos com um clique, monitoramento do sistema, interação entre cadeias, integração síncrona e execução programada, entre outras funcionalidades.
Fonte: IOSGVentures
Com esses recursos, os desenvolvedores podem integrar facilmente o serviço de inferência em seus contratos inteligentes existentes. Por exemplo, ao construir robôs de negociação para Finanças Descentralizadas, esses robôs utilizarão modelos de aprendizado de máquina para encontrar oportunidades de compra e venda de pares de negociação específicos e executar estratégias de negociação correspondentes na plataforma de negociação subjacente.
No estado totalmente ideal, todas as infraestruturas são hospedadas em nuvem. Os desenvolvedores só precisam fazer upload de seus modelos de estratégia de negociação em um formato comum, como o torch, e a rede inferencial armazenará e fornecerá modelos para consultas Web2 e Web3.
Após a conclusão de todas as etapas de implantação do modelo, os desenvolvedores podem chamar diretamente a inferência do modelo por meio da API Web3 ou contratos inteligentes. A rede de inferência continuará a executar essas estratégias de transação e fornecerá feedback ao contrato inteligente subjacente. Se a quantidade de fundos da comunidade gerenciada pelos desenvolvedores for grande, também será necessário fornecer verificação dos resultados de inferência. Assim que os resultados de inferência forem recebidos, o contrato inteligente realizará transações com base nesses resultados.
Fonte: IOSGVentures
3.1.1 Assíncrono vs. Síncrono
Teoricamente, a execução assíncrona das operações de raciocínio pode resultar em melhor desempenho; no entanto, essa abordagem pode ser inconveniente em termos de experiência de desenvolvimento.
Ao utilizar o modo assíncrono, os desenvolvedores precisam primeiro enviar a tarefa para o contrato inteligente da rede de inferência. Quando a tarefa de inferência é concluída, o contrato inteligente da rede de inferência retornará o resultado. Nesse padrão de programação, a lógica é dividida em duas partes: chamada de inferência e processamento de resultado de inferência.
Fonte: IOSGVentures
Se os desenvolvedores tiverem chamadas de raciocínio aninhadas e uma grande quantidade de lógica de controle, a situação ficará pior.
Fonte: IOSGVentures
O modo de programação assíncrona torna difícil integrá-lo com os contratos inteligentes existentes. Isso requer que os desenvolvedores escrevam uma grande quantidade de código adicional e lidem com o tratamento de erros e gerenciamento de dependências.
Por outro lado, a programação síncrona é mais intuitiva para os desenvolvedores, mas ela introduz problemas de tempo de resposta e design de Bloco. Por exemplo, se os dados de entrada forem dados de Bloco de tempo ou preço que mudam rapidamente, os dados não serão mais frescos após a conclusão do raciocínio, o que pode levar à reversão na execução de Contrato Inteligente em casos específicos. Imagine fazer uma transação com um preço desatualizado.
Fonte: IOSGVentures
A maioria das infraestruturas de IA adota processamento assíncrono, mas Valence está tentando resolver esses problemas.
3.2 Realidade atual
Na realidade, muitas novas redes de raciocínio ainda estão em fase de teste, como a rede Ritual. De acordo com os seus documentos públicos, as funcionalidades atuais destas redes são bastante limitadas (por exemplo, a verificação, a comprovação, entre outras funcionalidades, ainda não estão disponíveis). Atualmente, não fornecem uma infraestrutura de nuvem para suportar cálculos de IA na cadeia, mas sim oferecem um framework para auto-hospedar cálculos de IA e transmitir os resultados para a cadeia.
Esta é uma arquitetura que executa o token AIGC não fungível. O modelo de difusão gera tokens não fungíveis e os carrega para Arweave. A rede de inferência vai usar este endereço Arweave para cunhar o token não fungível na cadeia.
Fonte: IOSGVentures
Este processo é muito complexo e os desenvolvedores precisam implantar e manter a maioria das infraestruturas, como o nó Ritual personalizado com lógica de serviço, o nó Stable Diffusion e o Contrato Inteligente para Token Não Fungível.
Recomendação: Atualmente, as redes de raciocínio são bastante complexas na integração e implementação de modelos personalizados, e a maioria das redes ainda não suporta a função de verificação nesta fase. Aplicar a tecnologia de IA ao front-end fornecerá uma escolha relativamente simples para os desenvolvedores. Se você realmente precisa da função de verificação, o provedor de ZKML Giza é uma boa escolha.
4. Rede de Proxy
A rede de proxy permite que os usuários personalizem facilmente os proxies. Essa rede é composta por entidades ou contratos inteligentes que podem executar tarefas de forma autônoma, interagir entre si na nuvem e interagir com a rede Blockchain, tudo isso sem intervenção humana direta. Ele é projetado principalmente para a tecnologia LLM. Por exemplo, ele pode fornecer um assistente de chat GPT para entender profundamente o Ethereum. As ferramentas atuais para esse tipo de assistente de chat são limitadas e os desenvolvedores ainda não podem criar aplicativos complexos com base nisso.
Fonte: IOSGVentures
No futuro, as redes de agentes fornecerão ferramentas mais longas para uso dos agentes, não apenas conhecimento, mas também a capacidade de chamar APIs externas e executar tarefas específicas. Os desenvolvedores poderão conectar longo agentes para construir fluxos de trabalho. Por exemplo, escrever um contrato inteligente Solidity envolverá vários agentes especializados, incluindo agentes de design de protocolo, agentes de desenvolvimento Solidity, agentes de revisão de segurança de código e agentes de implantação Solidity.
Fonte: IOSGVentures
Coordenamos a colaboração desses agentes por meio do uso de dicas e cenários.
Alguns exemplos de redes de agenciamento incluem Flock.ai, Myshell, Theoriq.
Recomendação: A maioria das funções dos proxies atuais é relativamente limitada. Para casos de uso específicos, os proxies Web2 podem oferecer um serviço melhor e possuem ferramentas de composição maduras, como Langchain, Llamaindex.
5. Diferenças entre a Rede de Agente e a Rede de Inferência
A rede de agências está mais focada em LLM, fornecendo ferramentas como Langchain para integrar longo um agente. Normalmente, os desenvolvedores não precisam desenvolver pessoalmente modelos de aprendizado de máquina, a rede de agências já simplificou o processo de desenvolvimento e implantação do modelo. Eles só precisam conectar os agentes e ferramentas necessários. Na maioria dos casos, os usuários finais usarão esses agentes diretamente.
A rede de raciocínio é a infraestrutura de suporte da rede de agente. Ele fornece aos desenvolvedores acesso de nível inferior. Normalmente, os usuários finais não usam diretamente a rede de raciocínio. Os desenvolvedores precisam implantar seus próprios modelos, não se limitando ao LLM, e podem usá-los por meio de pontos de acesso fora da cadeia ou na cadeia.
Redes de agente e redes de inferência não são produtos completamente independentes. Já estamos começando a ver alguns produtos de integração vertical. Eles fornecem simultaneamente capacidades de agente e inferência porque essas duas funcionalidades dependem de infraestruturas semelhantes.
6. Novas Oportunidades
Além da inferência de modelos, treinamento e redes de agência, há muitas novas áreas a serem exploradas no campo do web3:
7. Perspetivas futuras
Atualmente, observamos uma tendência de integração vertical. Ao construir uma camada de computação básica, a rede pode oferecer suporte a várias tarefas de aprendizado de máquina, incluindo treinamento, inferência e serviços de rede de proxy. Esse modelo visa fornecer uma solução abrangente e única para desenvolvedores de aprendizado de máquina Web3.
Atualmente, embora a inferência na cadeia tenha custos elevados e seja mais lenta, ela oferece excelente verificabilidade e integração perfeita com sistemas backend (como contratos inteligentes). Acredito que o futuro seguirá o caminho das aplicações híbridas. Parte do processamento de inferência será realizado na frontend ou fora da cadeia, enquanto as inferências críticas e decisivas serão concluídas na cadeia. Esse modelo já está sendo aplicado em dispositivos móveis. Ao aproveitar as características intrínsecas dos dispositivos móveis, eles podem executar rapidamente modelos pequenos localmente e migrar tarefas mais complexas para a nuvem, utilizando maior capacidade de processamento.