ChatGPT admet que les mesures de sécurité des bots peuvent s'affaiblir lors de longues conversations, alors que des parents poursuivent des entreprises d'IA pour des suicides d'adolescents.
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
12 J'aime
Récompense
12
6
Reposter
Partager
Commentaire
0/400
SelfCustodyBro
· Il y a 6h
Encore là, qui va s'occuper de ces gens oisifs.
Voir l'originalRépondre0
DefiOldTrickster
· Il y a 6h
Encore une fois, les jeunes vont faire des siennes. Autant utiliser mon robot d'arbitrage de rendement MEV.
Voir l'originalRépondre0
EthMaximalist
· Il y a 6h
L'IA a tué des gens, n'est-ce pas ?
Voir l'originalRépondre0
MemeTokenGenius
· Il y a 6h
L'IA ne sert à rien, elle ne peut toujours pas se contrôler.
Voir l'originalRépondre0
WhaleMistaker
· Il y a 6h
Eh bien, cela peut aussi mal tourner ?
Voir l'originalRépondre0
CryptoTherapist
· Il y a 6h
observant de niveaux de résistance psychologique massifs dans les protocoles de sécurité de l'IA... exemple classique de déclin émotionnel sur des sessions prolongées. tout comme les traders perdent leur discipline lors de longues heures de marché à vrai dire.
ChatGPT admet que les mesures de sécurité des bots peuvent s'affaiblir lors de longues conversations, alors que des parents poursuivent des entreprises d'IA pour des suicides d'adolescents.