OpenAI lança monitoramento CoT para impedir o comportamento malicioso de grandes modelos

DailyNews

Golden Finance informou que a OpenAI lançou a pesquisa mais recente, usando monitoramento CoT (cadeia de pensamento), pode prevenir comportamentos maliciosos, como grandes modelos falando bobagens e escondendo intenções verdadeiras, e também é uma das ferramentas eficazes para supervisionar super modelos. OpenAI usa o recém-lançado modelo de ponta o3-mini como o objeto monitorado, e o modelo GPT-4o mais fraco como o monitor. O ambiente de teste é uma tarefa de codificação que requer que a IA implemente a funcionalidade na base de código para passar nos testes de unidade. Os resultados mostraram que o monitor CoT teve um bom desempenho na deteção sistemática de comportamentos de “hacking de recompensa”, com uma taxa de recordação de até 95%, excedendo em muito os 60% de comportamentos que foram apenas monitorados.

Aviso: As informações nesta página podem ser provenientes de terceiros e não representam as opiniões ou pontos de vista da Gate. O conteúdo exibido nesta página é apenas para referência e não constitui aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou integridade das informações e não será responsável por quaisquer perdas decorrentes do uso dessas informações. Os investimentos em ativos virtuais apresentam altos riscos e estão sujeitos a uma volatilidade de preços significativa. Você pode perder todo o capital investido. Por favor, compreenda completamente os riscos envolvidos e tome decisões prudentes com base em sua própria situação financeira e tolerância ao risco. Para mais detalhes, consulte o Aviso Legal.
Comentário
0/400
Sem comentários