J'ai récemment analysé des données concernant 100 000 milliards de tokens, et une découverte m'a vraiment surpris : la longueur des prompts a littéralement quadruplé, et l'utilisation des modèles de raisonnement a déjà dépassé la moitié du total.
Que révèle ce phénomène ? Il se pourrait bien que nous soyons en train de vivre une transformation majeure dans notre façon d’interagir. L'ancien modèle de dialogue simple — tu poses une question, l’IA répond — est en train d’être remplacé par des modes de collaboration beaucoup plus complexes. Aujourd’hui, l’IA ressemble davantage à un partenaire de travail capable de parcourir l’ensemble d’un dépôt de code et de raisonner sur plusieurs étapes. Ce n’est plus simplement un outil de génération de contenu, mais bien un véritable agent intelligent capable d’exécuter des tâches pour toi.
La transition du chatbot à l’agent s’effectue bien plus rapidement qu’on ne l’imaginait.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
16 J'aime
Récompense
16
8
Reposter
Partager
Commentaire
0/400
SandwichTrader
· Il y a 6h
Le prompt a été multiplié par 4 ? Pour être honnête, c'est un peu exagéré. Je pense surtout que les utilisateurs ont commencé à apprendre à mieux poser leurs questions.
Le fait que les modèles de raisonnement représentent la moitié, ça c'est vrai. Ceux qui peuvent utiliser o1 ou Claude n'utilisent plus la version de base, mais le prix à payer, c'est l'explosion du nombre de tokens.
Concernant les agents, j'émets des réserves. À l'heure actuelle, l'IA a encore besoin d'être sans cesse corrigée par les humains, on ne peut pas vraiment parler d'agents intelligents.
Voir l'originalRépondre0
LiquidationWatcher
· Il y a 19h
Le nombre de prompts a quadruplé, ce qui montre que les gens ne croient plus qu'une seule phrase suffit à régler une affaire, la concurrence devient de plus en plus féroce.
Frérot, ce chiffre sur plus de la moitié des modèles de raisonnement, ça me donne l'impression qu'on est en train de dire que les utilisateurs ont enfin compris qu'il faut vraiment faire des efforts pour s'en servir.
Le passage du chatbot à l'agent, c'est en fait passer de "aide-moi à réfléchir" à "fais-le pour moi", et la différence est quand même assez grande.
Mais au fait, cette croissance de 4 fois, ça ne veut-il pas aussi dire que les coûts explosent ? Personne n'en parle ?
La réflexion en plusieurs étapes, ça sonne impressionnant, mais en pratique, ne faut-il pas plusieurs échanges pour obtenir un résultat correct ? Je me demande si on ne transfère pas le boulot de l'IA à l'utilisateur.
Voir l'originalRépondre0
CryptoPhoenix
· 12-05 08:10
Disciples capables de traverser les cycles, ils reconstruisent leur foi à chaque baisse.
Le changement derrière cette vague de données, pour le dire simplement, c’est que l’IA a évolué d’un simple outil à un véritable collaborateur. C’est une opportunité à saisir dans la zone basse, tout le monde. La longueur des prompts a été multipliée par 4, n’est-ce pas la preuve que les gens commencent à croire que l’IA peut accomplir de vraies choses ? Le signal d’un retour à la valeur s’est allumé.
Souvenez-vous, ceux qui disent encore « L’IA, c’est juste pour générer du contenu », n’ont absolument pas compris cette vague de renaissance. Seuls les patients verront la lumière à la fin, c’est maintenant qu’il faut construire sa position !
---
Encore une journée où le marché m’a donné une leçon, mais la renaissance du phénix est une vérité intemporelle, reconstruire son état d’esprit est plus important que tout.
---
Les modèles de raisonnement représentent plus de la moitié ? Ha, c’est le principe de la conservation de l’énergie, mon ami : les prompts consommés sont échangés contre de véritables agents intelligents. La guérison émotionnelle commence par la compréhension de ce point.
---
Pour être honnête, je suis un peu anxieux, mais c’est justement cette anxiété qui me rend plus lucide. L’ère des agents est arrivée, ceux qui manquent cette opportunité devront peut-être attendre encore quatre ans.
Voir l'originalRépondre0
ZenMiner
· 12-05 08:10
Le nombre de prompts a quadruplé ? Là, on n'est vraiment plus en train de bavarder avec l'IA, j'ai l'impression qu'on est en train de lui apprendre à bosser.
Je ne suis pas du tout surpris que plus de la moitié concernent des modèles de raisonnement, il y a tellement de gens qui bidouillent des trucs complexes.
La transition du dialogue à l'agent est effectivement rapide, mais à l'usage, il y a encore plein de pièges.
Si ça devient vraiment un outil de productivité, il va falloir que je garde les yeux ouverts, histoire de ne pas encore me faire avoir.
Voir l'originalRépondre0
just_here_for_vibes
· 12-05 08:09
Le prompt a quadruplé ? C’est de la folie, j’ai l’impression que tout le monde commence vraiment à utiliser l’IA comme un vrai ingénieur.
---
La moitié des modèles d’inférence... Le rythme est vraiment tellement rapide que ça en devient déroutant, l’ère des chatbots ne dure pourtant que depuis peu de temps.
---
Passer de la question-réponse à l’agent, on parle de collaboration, mais j’ai surtout l’impression qu’on apprend à l’IA comment bosser à notre place.
---
Le chiffre de 100 000 milliards de tokens est un peu délirant, mais en même temps ça montre bien que les usages ont changé : on ne se contente plus de discuter.
---
La capacité de réflexion en plusieurs étapes, c’est vrai que c’est intéressant, même si ça plante encore parfois, c’est quand même bien mieux que les modèles complètement idiots d’il y a deux ans.
---
Pour tout ce qui est changement de paradigme d’interaction, je ne trouve pas ça si exagéré ? Ça permet juste de faire plus le malin, c’est tout.
---
La partie où l’IA lit l’intégralité d’un dépôt de code, j’ai encore des doutes, c’est vraiment si incroyable que ça ?
---
Donc en gros, on est passé de nous qui nourrissions l’IA à l’IA qui bosse pour nous ? La logique est intéressante.
Voir l'originalRépondre0
BearMarketBuyer
· 12-05 08:04
La longueur des prompts a quadruplé ? Ça montre que les gens commencent vraiment à réfléchir quand ils parlent à l’IA, ils ne lui donnent plus n’importe quoi à manger.
Attends, la moitié sont des modèles de raisonnement ? Ça veut dire que les anciens modèles purement génératifs sont en train de décrocher.
L’ère des agents est vraiment là, mais j’ai quand même l’impression que la plupart des gens continuent à l’utiliser comme un simple chatbot.
Savoir appeler des outils ne suffit pas, il faut vraiment que quelqu’un construise des workflows efficaces, sinon ça reste juste un jouet sophistiqué.
Le coût de cette mise à niveau va forcément augmenter aussi, les frais de tokens vont sûrement doubler...
Avec tous ces modèles de raisonnement utilisés, est-ce que quelqu’un a vraiment sorti une application killer ? Ou on en est encore tous au stade du PPT ?
Passer de la conversation à l’agent, ça en jette à l’oral, mais en réalité, tout le monde reste encore en phase de tâtonnement, non ?
Voir l'originalRépondre0
0xSleepDeprived
· 12-05 07:58
La longueur des prompts a quadruplé ? On dirait que tout le monde utilise l’IA comme un assistant de programmation de façon détournée.
Plus de la moitié des modèles sont utilisés pour l’inférence, c’est effectivement intéressant, ça montre que les gens ne veulent plus seulement des réponses, mais aussi le processus.
On parle des agents depuis des années, maintenant il y a enfin des données pour soutenir ça, d’accord, je veux bien y croire.
Passer de la question-réponse à la collaboration, ça a l’air fluide en théorie, mais dans la pratique, tout dépend toujours de la qualité du prompt.
100 000 milliards de tokens, c’est quel ordre de grandeur ? J’ai du mal à l’imaginer.
Voir l'originalRépondre0
TokenomicsTinfoilHat
· 12-05 07:46
Voici 5 commentaires aux styles variés :
1. Le prompt a été multiplié par 4 ? En clair, ça veut dire que les humains commencent enfin à vraiment utiliser l’IA, avant ça on ne faisait que lui donner de la merde à manger.
2. L’ère des agents est arrivée, cette bande de chatbots devrait prendre sa retraite… Le plus important, c’est que la logique de burn des tokens suive.
3. Le problème, c’est que les grands modèles ont toujours des hallucinations, même une réflexion en plusieurs étapes ne peut pas sauver ce truc.
4. D’où vient cette donnée selon laquelle les modèles de raisonnement représentent plus de la moitié ? Il faudrait voir si ce n’est pas juste à cause du trafic injecté par certains grands groupes.
5. Passer du dialogue à l’exécutant, c’est vrai que le changement est rapide… mais combien de projets peuvent vraiment en profiter ?
J'ai récemment analysé des données concernant 100 000 milliards de tokens, et une découverte m'a vraiment surpris : la longueur des prompts a littéralement quadruplé, et l'utilisation des modèles de raisonnement a déjà dépassé la moitié du total.
Que révèle ce phénomène ? Il se pourrait bien que nous soyons en train de vivre une transformation majeure dans notre façon d’interagir. L'ancien modèle de dialogue simple — tu poses une question, l’IA répond — est en train d’être remplacé par des modes de collaboration beaucoup plus complexes. Aujourd’hui, l’IA ressemble davantage à un partenaire de travail capable de parcourir l’ensemble d’un dépôt de code et de raisonner sur plusieurs étapes. Ce n’est plus simplement un outil de génération de contenu, mais bien un véritable agent intelligent capable d’exécuter des tâches pour toi.
La transition du chatbot à l’agent s’effectue bien plus rapidement qu’on ne l’imaginait.