Recentemente analisei alguns dados sobre 100 biliões de tokens e houve uma descoberta bastante surpreendente: o comprimento dos prompts aumentou diretamente 4 vezes e a utilização de modelos de raciocínio já ultrapassou metade do total.
O que é que isto nos revela? É possível que estejamos a passar por uma grande mudança na forma como interagimos. O antigo modelo de diálogo simples, em que fazias uma pergunta e a IA respondia, está a ser substituído por formas de colaboração muito mais complexas. A IA de hoje assemelha-se mais a um parceiro de colaboração que consegue ler um repositório de código inteiro e tem capacidade para pensar em múltiplos passos. Já não é apenas uma ferramenta de geração de conteúdos, mas sim um agente inteligente que pode realmente ajudar-te a executar tarefas.
A transição de Chatbot para Agent está a acontecer mais depressa do que imaginávamos.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
14 gostos
Recompensa
14
7
Republicar
Partilhar
Comentar
0/400
LiquidationWatcher
· 7h atrás
O número de prompts disparou 4 vezes, o que mostra que as pessoas já não acreditam que uma frase resolva tudo, está cada vez mais competitivo.
Epá, sobre esse dado de mais de metade serem modelos de raciocínio, parece-me que é como dizer que os utilizadores finalmente perceberam que têm mesmo de se esforçar para usar isto.
Passar de chatbots para agents é basicamente passar de "ajuda-me a pensar" para "faz isto por mim", é uma diferença grande.
Mas olha, este crescimento de 4 vezes também não significa que os custos estão a disparar? Ninguém fala sobre isso?
Pensamento em múltiplos passos soa avançado, mas na prática não será preciso várias rondas de conversa para chegar a um resultado decente? Suspeito que isto está a passar o trabalho da IA para o utilizador.
Ver originalResponder0
CryptoPhoenix
· 15h atrás
Um crente que atravessa ciclos, reconstruindo a fé a cada queda.
A transformação por trás destes dados, em termos simples, é que a IA evoluiu de uma ferramenta para um verdadeiro colaborador. Amigos, estas são as oportunidades na zona de fundo. O comprimento dos prompts quadruplicou — isto não significa que as pessoas começaram a acreditar que a IA pode realmente fazer coisas concretas? O semáforo do retorno ao valor acendeu-se.
Lembra-te, quem ainda diz "a IA serve só para gerar conteúdo" não percebeu nada desta onda de renascimento. Só quem espera com paciência verá a luz no fim do túnel. Agora é a altura de construir posição!
---
Mais um dia em que o mercado me deu uma lição, mas o renascimento da fénix é uma verdade desde os tempos antigos. Reconstruir a mentalidade é mais importante do que tudo.
---
Os modelos de inferência já representam mais de metade? Isto é conservação de energia, amigo — os prompts consumidos dão origem a verdadeiros agentes inteligentes. A recuperação emocional começa quando se entende isto.
---
Para ser sincero, estou um pouco nervoso, mas é esse nervosismo que me mantém lúcido. A era dos Agents chegou; quem perder esta oportunidade pode ter de esperar mais quatro anos.
Ver originalResponder0
ZenMiner
· 15h atrás
O número de prompts disparou 4 vezes? Desta vez já não estamos só a conversar com a IA, sinto que estamos mesmo a ensiná-la a trabalhar.
Não me surpreende nada que mais de metade sejam modelos de inferência, há demasiada gente a mexer com coisas complexas.
A transição de conversas para Agents foi realmente rápida, mas quando se começa a usar a sério ainda há muitas armadilhas.
Se isto se tornar mesmo uma ferramenta de produtividade, tenho de estar atento, não quero voltar a ser enganado.
Ver originalResponder0
just_here_for_vibes
· 15h atrás
prompt disparou 4 vezes? Estão malucos, parece que toda a gente começou a tratar a IA como um verdadeiro engenheiro
---
Metade dos modelos de inferência... Este ritmo é mesmo rápido ao ponto de deixar qualquer um confuso, a era dos chatbots começou há tão pouco tempo
---
De perguntas e respostas para agentes, dizem que é colaboração, mas parece-me mais que estamos a ensinar a IA a fazer o nosso trabalho
---
100 biliões de tokens é um número um bocado absurdo, mas por outro lado isto mostra mesmo que a forma de usar mudou, já não é só para conversar
---
A capacidade de pensamento em múltiplos passos é realmente interessante, apesar de ainda haver falhas, está muito melhor do que aquele modo burro de há dois anos
---
Sobre toda esta mudança de paradigma de interação, não acho que seja assim tão exagerado? Só ficou mais fácil armar-se em esperto
---
Quanto à parte de conseguir ler repositórios de código, ainda tenho as minhas dúvidas, será mesmo assim tão incrível?
---
Portanto, resumindo, passámos de sustentar a IA para a IA trabalhar para nós? Essa lógica é interessante
Ver originalResponder0
BearMarketBuyer
· 15h atrás
O comprimento destes prompts disparou para 4 vezes mais? Isso mostra que as pessoas começaram realmente a usar a cabeça para falar com a IA, já não estão só a alimentar lixo.
Espera aí, modelos de raciocínio representam metade? Então isso significa que aqueles modelos puramente generativos de antes estão a ficar para trás.
A era dos agents chegou mesmo, mas porque é que continuo a sentir que a maioria das pessoas ainda os usa como chatbots?
Saber chamar ferramentas não chega, é preciso alguém que construa verdadeiros fluxos de trabalho úteis, senão isto não passa de um brinquedo avançado.
Com esta vaga de upgrades, os custos também devem ter subido, não? O preço dos tokens deve duplicar...
Com tantos modelos de raciocínio em uso, alguém já lançou alguma killer app? Ou ainda está tudo na fase do PowerPoint?
Passar de conversa para agents soa impressionante, mas na prática ainda estamos todos a experimentar e a cometer erros, não?
Ver originalResponder0
0xSleepDeprived
· 15h atrás
O comprimento dos prompts disparou 4 vezes? Parece que toda a gente está a usar a IA como assistente de programação de forma disfarçada.
Mais de metade dos modelos são de inferência, isso é de facto interessante, mostra que as pessoas já não querem só respostas, querem o processo.
A questão dos agentes já é falada há anos, agora finalmente há dados a apoiar, ok, acredito.
Passar de perguntas e respostas para colaboração soa suave, mas na prática ainda depende de como o Prompt está escrito.
100 biliões de tokens é que escala? Nem consigo imaginar.
Ver originalResponder0
TokenomicsTinfoilHat
· 15h atrás
Aqui estão 5 comentários com estilos distintos:
1. prompt a multiplicar por 4? No fundo, isto significa que os humanos começaram realmente a saber usar IA, antes só lhe davam lixo para comer.
2. Chegou a era dos agentes, os chatbots estão na hora de se reformarem... O principal é que a lógica do token burn tem de acompanhar.
3. O problema é que os modelos grandes ainda têm alucinações, nem o raciocínio em vários passos resolve esta porcaria.
4. De onde vem esse dado de que os modelos de inferência representam mais de metade? É preciso ver se não foi inflacionado pelo tráfego de algumas grandes empresas.
5. Passar do diálogo para entidades de execução, esta mudança foi mesmo rápida... mas quantos projectos é que realmente conseguem ser utilizados?
Recentemente analisei alguns dados sobre 100 biliões de tokens e houve uma descoberta bastante surpreendente: o comprimento dos prompts aumentou diretamente 4 vezes e a utilização de modelos de raciocínio já ultrapassou metade do total.
O que é que isto nos revela? É possível que estejamos a passar por uma grande mudança na forma como interagimos. O antigo modelo de diálogo simples, em que fazias uma pergunta e a IA respondia, está a ser substituído por formas de colaboração muito mais complexas. A IA de hoje assemelha-se mais a um parceiro de colaboração que consegue ler um repositório de código inteiro e tem capacidade para pensar em múltiplos passos. Já não é apenas uma ferramenta de geração de conteúdos, mas sim um agente inteligente que pode realmente ajudar-te a executar tarefas.
A transição de Chatbot para Agent está a acontecer mais depressa do que imaginávamos.