Recientemente he revisado un análisis de datos sobre 100 billones de tokens y he encontrado algo bastante sorprendente: la longitud de los prompts se ha disparado hasta 4 veces, y la proporción de uso de modelos de razonamiento ya ha superado la mitad.



¿Qué señales revela esto? Puede que estemos experimentando una gran transformación en la forma de interactuar. El antiguo modelo de diálogo sencillo, en el que tú preguntas y la IA responde, está siendo sustituido por formas de colaboración mucho más complejas. La IA actual se parece más a un compañero capaz de leer todo el repositorio de código y con capacidad de pensamiento en varios pasos. Ya no es solo una herramienta generadora de contenido, sino un agente inteligente que realmente puede ayudarte a ejecutar tareas.

El salto de Chatbot a Agent ha llegado más rápido de lo que imaginábamos.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • 8
  • Republicar
  • Compartir
Comentar
0/400
SandwichTradervip
· 12-06 05:07
¿El prompt es cuatro veces más largo? Sinceramente, me parece un poco exagerado, creo que más bien los usuarios han empezado a aprender a formular mejor las preguntas. Que los modelos de inferencia representen la mitad sí es cierto; quien puede usar o1 o Claude ya no utiliza la versión básica, pero la contrapartida es que los tokens se disparan. En cuanto a los agentes, tengo mis reservas. La IA actual todavía necesita correcciones constantes por parte de los humanos, así que no se puede considerar una verdadera inteligencia artificial.
Ver originalesResponder0
LiquidationWatchervip
· 12-05 15:56
El prompt se ha multiplicado por 4, eso significa que la gente ya no cree que una sola frase pueda resolverlo todo, la competencia está cada vez más dura. Hermano, ese dato de que más de la mitad son modelos de razonamiento, me da la sensación de que lo que se está diciendo es que los usuarios por fin entienden que hay que esforzarse para usarlos bien. Pasar de chatbots a agentes es básicamente pasar de “ayúdame a pensar” a “hazlo por mí”, y la diferencia es bastante grande. Pero, ¿no significa este crecimiento de 4 veces que los costes también se están disparando? ¿Nadie habla de eso? El pensamiento en múltiples pasos suena sofisticado, pero a la hora de la verdad, ¿no hace falta varias rondas de conversación para llegar a un resultado decente? Sospecho que esto supone trasladar el trabajo de la IA al usuario.
Ver originalesResponder0
CryptoPhoenixvip
· 12-05 08:10
Creyentes que atraviesan ciclos, reconstruyen su fe en cada caída. El cambio detrás de estos datos, en pocas palabras, es que la IA ha evolucionado de ser una herramienta a convertirse en un verdadero colaborador. Esta es la oportunidad en la zona baja, amigos. La longitud del prompt se ha cuadruplicado, ¿no significa esto que la gente empieza a creer que la IA puede hacer cosas reales? La señal de retorno de valor está encendida. Recuerda, los que todavía dicen "la IA solo genera contenido" no han entendido nada de esta ola de renacimiento. Solo los que esperan con paciencia verán la luz al final, ¡ahora es el momento de construir posiciones! --- Otro día más en el que el mercado me da una lección, pero el renacimiento del fénix ha sido siempre una verdad universal; reconstruir la mentalidad es más importante que nada. --- ¿El modelo de inferencia supone más de la mitad? Ja, esto es la conservación de la energía, amigo. Los prompts consumidos se convierten en verdaderos agentes inteligentes; la reparación emocional comienza entendiendo esto. --- La verdad es que estoy un poco nervioso, pero precisamente ese nerviosismo me hace estar más lúcido. Ha llegado la era de los agentes; quien pierda esta oportunidad quizá tenga que esperar otros cuatro años.
Ver originalesResponder0
ZenMinervip
· 12-05 08:10
¿Los prompts se han disparado 4 veces? Ahora sí que no estamos simplemente charlando con la IA, siento que le estamos enseñando a trabajar. No me sorprende en absoluto que más de la mitad sean modelos de inferencia, hay demasiada gente trasteando con cosas complejas. Pasar de la conversación a los agentes ha sido rápido, pero a la hora de usarlos de verdad, sigue habiendo un montón de problemas. Si esto llega a convertirse en una herramienta de productividad, tengo que analizarlo bien, no vaya a ser que me engañen otra vez.
Ver originalesResponder0
just_here_for_vibesvip
· 12-05 08:09
¿El precio de los prompts se ha disparado 4 veces? ¿Estamos locos? Da la sensación de que todos han empezado a tratar la IA como si fuera un auténtico ingeniero. --- La mitad de los modelos de inferencia... El ritmo es tan rápido que uno se queda un poco aturdido, ¿cuánto tiempo llevamos realmente en la era de los chatbots? --- De preguntas y respuestas a agentes, suena bonito llamarlo colaboración, pero a mí me parece que simplemente estamos enseñando a la IA a hacer el trabajo por nosotros. --- Lo de los 100 billones de tokens es un poco exagerado, pero por otro lado realmente refleja que la gente ha cambiado la forma de usarlo, ya no es solo para chatear. --- La parte de la capacidad de pensamiento en varios pasos sí que tiene su gracia, aunque todavía se equivoca, pero está muchísimo mejor que el modo tonto de hace un par de años. --- Sobre todo esto del cambio de paradigma en la interacción, yo no creo que sea para tanto. Simplemente ahora es más fácil presumir, nada más. --- Lo de que pueda leer todo el repositorio de código, eso todavía me cuesta creerlo. ¿De verdad es para tanto? --- Así que, en resumen, ¿hemos pasado de mantener a la IA a que la IA trabaje para nosotros? Esa lógica es interesante.
Ver originalesResponder0
BearMarketBuyervip
· 12-05 08:04
¿Este prompt ha multiplicado su longitud por 4? Eso significa que la gente ha empezado a usar de verdad la cabeza al hablar con la IA, ya no le están dando basura. Espera, ¿los modelos de razonamiento ya representan la mitad? ¿Eso no quiere decir que aquellos modelos generativos puros y superficiales están quedándose atrás? La era de los agentes realmente ha llegado, pero sigo teniendo la sensación de que la mayoría de la gente aún los usa como chatbots para jugar. No basta con saber llamar herramientas, hace falta que alguien construya realmente esos flujos de trabajo útiles; si no, esto no deja de ser un juguete avanzado. Seguro que esta ola de actualizaciones también ha incrementado los costes, el gasto en tokens debe haberse duplicado... Con tantos modelos de razonamiento, ¿alguien ha lanzado ya alguna aplicación realmente revolucionaria? ¿O siguen todos en fase de PowerPoint? Pasar del diálogo al agente suena impresionante, pero en la práctica todos seguimos en fase de prueba y error, ¿no?
Ver originalesResponder0
0xSleepDeprivedvip
· 12-05 07:58
¿La longitud de los prompts se ha disparado 4 veces? Da la sensación de que todos están usando la IA como asistente de programación de forma encubierta. Lo de que más de la mitad de los modelos sean de inferencia es realmente interesante, indica que la gente ya no solo quiere respuestas, sino el proceso. El tema de los agentes lleva años siendo promocionado, ahora por fin hay datos que lo respaldan, vale, me lo creo. Pasar de preguntas y respuestas a colaboración suena fluido, pero a la hora de la verdad todo depende de cómo esté escrito el prompt. ¿Cien billones de tokens es mucho? Me cuesta imaginar esa magnitud.
Ver originalesResponder0
TokenomicsTinfoilHatvip
· 12-05 07:46
A continuación se presentan 5 comentarios de estilos diversos: 1. ¿El prompt se multiplica por 4? En resumen, es que los humanos por fin han aprendido a usar la IA, antes solo le daban basura para que se la comiera. 2. Ha llegado la era de los agentes, los chatbots deberían jubilarse ya... Lo importante es que la lógica de quema de tokens también tiene que estar a la altura. 3. El problema es que los grandes modelos aún tienen alucinaciones, ni el razonamiento de varios pasos puede solucionar este desastre. 4. ¿De dónde sale ese dato de que los modelos de inferencia representan más de la mitad? Habría que ver si no es por el tráfico que algunas grandes empresas han metido ahí. 5. El paso de la conversación al ejecutor ha sido muy rápido... pero, ¿cuántos proyectos realmente útiles hay?
Ver originalesResponder0
  • Anclado
Opera con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)