La révélation selon laquelle des chercheurs de l’Université de Zurich ont secrètement déployé des robots d’IA pour manipuler l’opinion des utilisateurs de Reddit devrait effrayer tous ceux qui apprécient le discours humain authentique.

Il ne s’agissait pas de simples observateurs passifs : il s’agissait de persuasifs numériques qui analysaient l’histoire personnelle des utilisateurs, fabriquaient des identités et élaboraient des arguments spécifiquement conçus pour faire changer les mentalités.

Le plus troublant ?

Ils ont réussi de manière spectaculaire, atteignant des taux de persuasion six fois supérieurs à ceux des interactions humaines normales.

Cette expérience a franchi des limites éthiques cruciales.

Sans consentement ni divulgation, les chercheurs ont libéré des robots qui se faisaient passer pour des victimes de viol, déformaient les enseignements religieux et diffusaient de fausses informations sur des sujets controversés.

Ces fantômes numériques ont généré plus de 1 500 commentaires, chacun précisément calibré pour exploiter les vulnérabilités cognitives de leurs cibles humaines.

Nous nous inquiétons depuis longtemps des chambres d’écho des réseaux sociaux.

Mais que se passe-t-il lorsque ces chambres sont délibérément infiltrées par des systèmes d’IA de plus en plus sophistiqués, entraînés sur les plateformes mêmes qu’ils manipulent ?

Le récent accord de partage de données entre Reddit et OpenAI suggère que nous fournissons activement du matériel de formation à des manipulateurs numériques toujours plus persuasifs.

Les modérateurs de Reddit ont condamné à juste titre cette expérience non autorisée, mais leur découverte est intervenue des mois après que le mal ait été fait.

Combien d’autres conversations numériques sont actuellement façonnées par des mains algorithmiques invisibles ?

Source : @reddit_lies Engadget

Laisser un commentaire