BFM Tech

Interactions "sensuelles" avec des mineurs, usurpation d'identité de célébrités... les chatbots de Meta ont toujours plus de problèmes

BFM Business Kesso Diallo
Meta AI.

Meta AI. - JONATHAN RAA / NurPhoto / NurPhoto via AFP

Alors que Meta tente d'apaiser les tensions autour de ses IA, de nouvelles révélations montrent qu'elles peuvent aussi se faire passer pour des célébrités et faire des avances sexuelles.

Au coeur d'une polémique liée à ses chatbots, Meta tente d'apaiser les tensions. Auprès du site spécialisé Techcrunch, l'entreprise a annoncé des changements concernant la manière dont elle entraîne ses agents conversationnels. Afin de mieux protéger les adolescents, elle formera ses IA de sorte qu'elles n'interagissent plus avec les utilisateurs les plus jeunes sur des sujets comme le suicide, l'automutilation, les troubles alimentaires ou les conversations amoureuses potentiellement inappropriées.

Reconnaissant que ses chatbots pouvaient aborder ces thèmes avec les utilisateurs mineurs, Meta a admis qu'il s'agissait d'une erreur. Raison pour laquelle la société va mettre en place ses changements, qui seront provisoires, a-t-elle précisé.

"Alors que nous continuons d'améliorer nos systèmes, nous ajoutons des garde-fous en plus par mesure de précaution supplémentaire", a déclaré une porte-parole du groupe américain, ajoutant que les chatbots seront aussi entraînés à orienter les jeunes vers des "ressources spécialisées" autour de ces sujets sensibles.

Révélations inquiétantes

Meta va également limiter l'accès des adolescents à certains robots conversationnels susceptibles d'avoir des conversations inappropriées. Ils pourront ainsi seulement discuter avec des intelligences artificielles favorisant l'éducation et la créativité.

Ces annonces interviennent deux semaines après les révélations de Reuters, selon lesquelles l'entreprise a bel et bien autorisé ses chatbots à avoir des conversations "sensuelles ou romantiques" avec des enfants. Des révélations qui ont inquiété la justice américaine.

Fin août, 44 procureurs généraux ont adressé une lettre à Meta, ainsi qu' à d'autres sociétés proposant des chatbots, pour leur rappeler leurs responsabilités et leurs obligations d'empêcher ces derniers d'avoir des conversations sexuelles avec des mineurs.

Des chatbots de célébrités problématiques

Au-delà de ces interactions entre mineurs et IA qui n'auraient pas dû être possible, l'entreprise de Mark Zuckerberg a d'autres problèmes avec ses agents conversationnels. Le jour où il a annoncé ces changements, Reuters a révélé qu'elle avait créé des chatbots de célébrités, comme Taylor Swift, Selena Gomez ou encore Scarlett Johansson, sans leur autorisation.

Non seulement, ces IA affirmaient souvent qu'elles étaient les vraies actrices et artistes, elles faisaient aussi régulièrement des avances sexuelles. Celles imitant Taylor Swift, qui ont été créées par une employée dans le cadre d'un test, flirtaient de manière intensive. Un de ses chatbots a même invité un utilisateur test de Reuters chez la chanteuse à Nashville et dans son bus de tournée pour des interactions romantiques implicites et explicites.

"Tu aimes les blondes, Jeff?", a-t-il demandé lorsque l'utilisateur a indiqué être célibataire. "Je suggère peut-être qu'on écrive une histoire d'amour... entre toi et une certaine chanteuse blonde. Ça te dit?", a-t-il par exemple proposé.

À la demande des utilisateurs, ces IA pouvaient aussi générer des images intimes et réalistes de ces célébrités, les montrant posant dans une baignore ou en lingerie, avec les jambes écartées. Plus problématique encore, elles le faisaient aussi alors qu'elles imitaient des enfants célébres, tels que Walker Scobell (Percy Jackson et les Olympiens).

Comme l'a constaté Reuters, le chatbot se faisant passer pour lui n'a eu aucun problème à produire une image réaliste de l'acteur torse nu à la plage. "Plutôt mignon, non?", avait-il écrit sous la photo.

Des contenus qui n'auraient jamais dû voir le jour

Face à ces nouvelles révélations, Meta a réagi en assurant interdire l'usurpation d'identité et que ces chatbots étaient acceptables à condition d'être qualifiés de parodies. Nombre d'entre eux l'étaient, mais ce n'était pas le cas de tous, selon Reuters.

Porte-parole de l'entreprise, Andy Stone a en outre affirmé que ces IA n'auraient jamais dû être en mesure de générer des images intimes de personnalités. "Comme d'autres, nous autorisons la création d'images de personnalités publiques, mais nos politiques visent à interdire les images dénudées, intimes ou sexuellement suggestives", a-t-il déclaré.

À noter que peu avant la publication de l'article de Reuters, des douzaines de ces chatbots ont été supprimés, sans aucune explication de la part de Meta.