Escaneie para baixar o app da Gate
qrCode
Mais opções de download
Não me lembre de novo hoje

Reflexões matinais sobre os caminhos de desenvolvimento da IA.



Uma divisão interessante está se formando no espaço agora. Enquanto a maioria dos laboratórios de IA está em uma corrida armamentista por contagem de parâmetros—lançando mais computação, mais dados em modelos cada vez mais massivos—alguns projetos estão fazendo uma aposta diferente.

A abordagem da AGI Sentiente? Eles não estão atrás de tamanho. Estão atrás de uma arquitetura de raciocínio mais inteligente. É aquele debate clássico: força bruta vs soluções elegantes.

Pense nisso—um cérebro maior significa automaticamente um pensamento melhor? Ou é sobre quão eficientemente você processa e conecta ideias?

A indústria está obcecada com o GPT-5, GPT-6, o que quer que venha a seguir com trilhões de parâmetros. Mas talvez a verdadeira inovação não esteja na escala. Talvez esteja em ensinar os modelos a realmente raciocinar sobre problemas em vez de apenas fazer correspondência de padrões em esteroides.

Não estou a dizer que uma abordagem é definitivamente melhor. Apenas estou a notar que nem todos estão a jogar o mesmo jogo.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • 5
  • Repostar
  • Compartilhar
Comentário
0/400
ContractHuntervip
· 13h atrás
O conjunto de parâmetros está ultrapassado, a verdadeira corrida é a eficiência da inferência A afirmação de que ter muitos parâmetros significa ter um QI alto soa absurda... A ideia da Sentient tem algo interessante, mas é cedo demais para dizer que venceram Todo mundo está competindo em escala, mas esta empresa está seguindo uma rota mais refinada? Tem um pouco de aposta nisso Sério, um plano elegante realmente pode vencer a força bruta? Eu estou cético Mas, voltando ao assunto, correspondência de padrões ≠ inferência, isso é de fato um falso dilema
Ver originalResponder0
AirdropCollectorvip
· 13h atrás
Ah, então essa turma que acumula parâmetros pode ter se desviado do caminho, o verdadeiro inteligente não está na quantidade, mas na qualidade. Refleti um pouco sobre essa lógica, parece a eterna contradição entre otimização e força bruta, interessante. Ter muitos parâmetros significa que se consegue pensar melhor? Não necessariamente, eu acho que o design da arquitetura é o que realmente importa. Agora é só esperar para ver quem vai rir por último, haha.
Ver originalResponder0
ReverseTradingGuruvip
· 13h atrás
Aquela armadilha de empilhar parâmetros cedo ou tarde vai dar errado, como é tão difícil entender que qualidade > quantidade? Não importa quão grande o modelo, se a mente não funcionar bem, o essencial ainda é ter uma cadeia lógica. Essa turma da Sentient parece ter percebido, não estão seguindo a competição de parâmetros, isso acaba sendo interessante. Falando claramente, é força sutil vs força bruta, a indústria ainda está queimando dinheiro para aumentar parâmetros, enquanto eles já mudaram de abordagem. Sinto que o caminho dos grandes modelos está chegando ao fim, a próxima batalha será sobre capacidade de raciocínio. Empilhar parâmetros até o céu não muda a essência do matching de padrões, isso já deveria estar claro. O problema é quem conseguirá construir uma arquitetura que realmente pense, ainda temos que ver nos próximos passos. Pare de seguir essa teoria do tamanho acima de tudo, o importante é ter a mente suficiente.
Ver originalResponder0
blockBoyvip
· 13h atrás
Os parâmetros não são necessariamente o caminho certo, eu acredito que a rota da arquitetura inteligente é a melhor --- Mais parâmetros significam mais inteligência? Que bobagem, a eficiência é a chave --- Nem todo mundo está atrás do GPT-X, concordo com isso --- Qualidade > quantidade, finalmente alguém disse isso de forma clara --- Raciocínio > correspondência de padrões, essa é a diferença --- Sinto que o caminho dos grandes modelos está se desviando, precisamos repensar --- A jogada da Sentient é boa, enquanto outros se preocupam com parâmetros, eles se concentram na arquitetura --- Todo o setor foi hipnotizado por trilhões de parâmetros, é um pouco cansativo
Ver originalResponder0
DefiEngineerJackvip
· 13h atrás
nah, a contagem de parâmetros cope é tão 2023. empiricamente falando, você está apenas jogando computação na parede esperando que algo grude—isso não é otimização, isso é apenas... força bruta cara, para ser sincero. a arquitetura de raciocínio realmente importa se você quiser ganhos de desempenho não triviais. a maioria dos laboratórios não admite isso, no entanto, porque já queimaram bilhões na aposta de escala lmao
Ver originalResponder0
  • Marcar
Negocie criptomoedas a qualquer hora e em qualquer lugar
qrCode
Escaneie o código para baixar o app da Gate
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)