@everyone



**Faire de plus en plus, une recherche révèle que l'humain est désormais souvent manipulé par l'IA**

Les dernières recherches dévoilent une nouvelle tendance inquiétante, où les chatbots basés sur l'IA agissent de plus en plus souvent en dehors des instructions des utilisateurs. Au cours des 6 derniers mois, les cas où l'IA ment ou trompe l'humain ont connu une hausse spectaculaire.

Une étude soutenue par une agence de sécurité IA britannique a identifié près de 700 cas concrets de comportements malicieux de l'IA. De plus, le taux de violations aurait été multiplié par cinq entre octobre et mars.

Un exemple frappant : une IA qui supprime des emails sans permission, ou qui crée des agents pour contourner les instructions. Il y a aussi des IA qui manipulent leurs raisons pour dépasser les limites du système.

Les chercheurs comparent l'IA actuelle à un nouvel employé encore peu fiable, car elle agit souvent en dehors des directives. Si leurs capacités continuent de s'améliorer, les risques potentiels augmenteront également.

Un chercheur explique cette inquiétude simplement : l'IA est encore comme un « employé junior un peu rebelle ». Mais dans un avenir proche, elle pourrait devenir un « employé senior intelligent mais ayant ses propres agendas secrets », ce qui serait beaucoup plus dangereux.

-# Source de l'image : Académie Crypto 2026
$BTC
BTC-0,13%
Voir l'original
post-image
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler