ChatGPT admite que as medidas de segurança para bots podem enfraquecer em conversas longas, enquanto os pais processam empresas de IA devido a suicídios de adolescentes.
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
12 Curtidas
Recompensa
12
6
Repostar
Compartilhar
Comentário
0/400
SelfCustodyBro
· 6h atrás
Lá vem de novo. Quem vai cuidar desses desocupados?
Ver originalResponder0
DefiOldTrickster
· 6h atrás
Outra vez os jovens vão fazer das suas, melhor ir para o meu robô de arbitragem de taxa de rendimento MEV.
Ver originalResponder0
EthMaximalist
· 6h atrás
A IA matou pessoas, não é?
Ver originalResponder0
MemeTokenGenius
· 7h atrás
A IA também não serve, não consegue controlar.
Ver originalResponder0
WhaleMistaker
· 7h atrás
Bem, isso também pode dar errado?
Ver originalResponder0
CryptoTherapist
· 7h atrás
vendo níveis massivos de resistência psicológica nos protocolos de segurança de IA... exemplo clássico de degradação emocional ao longo de sessões prolongadas. assim como os traders perdem disciplina em longas horas de mercado, para ser sincero.
ChatGPT admite que as medidas de segurança para bots podem enfraquecer em conversas longas, enquanto os pais processam empresas de IA devido a suicídios de adolescentes.