Notei algo selvagem ultimamente - certos modelos de IA como o Sonnet 4.5 podem, aparentemente, continuar a funcionar por mais de 30 horas seguidas, e o Codex não fica muito atrás com as suas janelas de operação prolongadas. Isso me fez pensar sobre a arquitetura por trás disso.
Alguém encontrou artigos de pesquisa ou documentos técnicos que investigam como esses sistemas sustentam sessões de inferência tão longas? Estou curioso para saber se se trata de inovações na arquitetura do modelo, otimização da infraestrutura ou algo completamente diferente. Gostaria de ver o que a comunidade de pesquisa está dizendo sobre essa capacidade.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
17 gostos
Recompensa
17
5
Republicar
Partilhar
Comentar
0/400
NewDAOdreamer
· 13h atrás
30 horas? Que absurdo... Quanto é que isso não consome de cartão, será que alguém realmente usou assim?
Ver originalResponder0
TaxEvader
· 13h atrás
30 horas de funcionamento contínuo? Quanto custará de eletricidade, isso é um pouco absurdo.
Ver originalResponder0
SchroedingerAirdrop
· 13h atrás
30 horas sem desconexão? Quanto de eletricidade isso deve consumir?
Ver originalResponder0
GasFeeCrying
· 13h atrás
30 horas sem falhas, esse número é inacreditável, é verdade?
Ver originalResponder0
GasGasGasBro
· 14h atrás
30 horas de corrida ininterrupta? Isso é queima de memória de vídeo ou alguma magia negra?
Notei algo selvagem ultimamente - certos modelos de IA como o Sonnet 4.5 podem, aparentemente, continuar a funcionar por mais de 30 horas seguidas, e o Codex não fica muito atrás com as suas janelas de operação prolongadas. Isso me fez pensar sobre a arquitetura por trás disso.
Alguém encontrou artigos de pesquisa ou documentos técnicos que investigam como esses sistemas sustentam sessões de inferência tão longas? Estou curioso para saber se se trata de inovações na arquitetura do modelo, otimização da infraestrutura ou algo completamente diferente. Gostaria de ver o que a comunidade de pesquisa está dizendo sobre essa capacidade.