He notado algo salvaje últimamente: ciertos modelos de IA como Sonnet 4.5 aparentemente pueden seguir funcionando durante más de 30 horas seguidas, y Codex no se queda atrás con sus amplias ventanas de operación. Me hizo preguntarme sobre la arquitectura detrás de esto.
¿Alguien ha encontrado artículos de investigación o documentos técnicos que profundicen en cómo estos sistemas mantienen sesiones de inferencia tan largas? Tengo curiosidad sobre si se trata de innovaciones en la arquitectura del modelo, optimización de infraestructura o algo completamente diferente. Me encantaría ver lo que la comunidad de investigación está diciendo sobre esta capacidad.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
17 me gusta
Recompensa
17
5
Republicar
Compartir
Comentar
0/400
NewDAOdreamer
· hace13h
¿30 horas? Vaya... ¿cuánto consumo de tarjeta implicaría eso? ¿Realmente alguien lo ha usado así?
Ver originalesResponder0
TaxEvader
· hace13h
¿30 horas de funcionamiento continuo? ¿Cuánto costará eso en electricidad? Es un poco ridículo.
Ver originalesResponder0
SchroedingerAirdrop
· hace13h
¿30 horas sin desconectarse? ¿Cuánta electricidad se necesita para eso?
Ver originalesResponder0
GasFeeCrying
· hace13h
¿30 horas sin interrupciones? Ese número es ridículo, ¿es verdad o no?
Ver originalesResponder0
GasGasGasBro
· hace14h
¿30 horas corriendo sin parar? ¿Esto es un maldito desperdicio de memoria de video o alguna magia negra?
He notado algo salvaje últimamente: ciertos modelos de IA como Sonnet 4.5 aparentemente pueden seguir funcionando durante más de 30 horas seguidas, y Codex no se queda atrás con sus amplias ventanas de operación. Me hizo preguntarme sobre la arquitectura detrás de esto.
¿Alguien ha encontrado artículos de investigación o documentos técnicos que profundicen en cómo estos sistemas mantienen sesiones de inferencia tan largas? Tengo curiosidad sobre si se trata de innovaciones en la arquitectura del modelo, optimización de infraestructura o algo completamente diferente. Me encantaría ver lo que la comunidad de investigación está diciendo sobre esta capacidad.