IA: Youtube met à disposition un outil pour détecter les deepfakes des visages et voix des créateurs de contenu

Logo YouTube. - cc Rego Korosi
Alors que Sora 2 fait beaucoup parler d’elle pour ses dérapages et créations usurpant l’identité de célébrités mortes ou vivantes, Youtube entend être le bon élève au service de sa communauté de créateurs de contenu. La plateforme a mis en ligne un outil de "détection de ressemblance".
Un détecteur automatisé
Il a pour but de détecter et désigner les vidéos qui contiendraient une représentation non autorisée de votre visage ou de votre voix. Ainsi, si vous êtes un youtubeur, et si un autre utilisateur crée une vidéo contenant un deep fake de votre visage ou génère une vidéo totalement synthétique dans laquelle une personne vous ressemble, elle devrait être détectée et vous devriez être alerté.
Youtube explique sur son site de support que cette nouvelle fonction suit le même processus que Content ID, qui fait la chasse au contenu dupliqué sans autorisation alors qu’ils sont protégés par des droits d’auteur. A la différence toutefois que ce sont ici les visages et voix qui sont étudiés en détail.
D’ailleurs, dans une vidéo dédiée à cette fonction, Youtube précise que l’outil est toujours encore en cours de développement. En conséquence de quoi, il est possible qu’il désigne des vidéos contenant votre vrai visage, provenant d’un extrait d’une de vos vidéos par exemple.
Un besoin d’identification
Bien entendu, pour éviter les abus, les créateurs de contenu devront d’abord s’identifier avec une pièce d’identité. Il leur sera alors possible de se rendre dans un nouvel onglet de l’interface de gestion de leur chaîne, dans la rubrique Détection de contenus. En plus de l’onglet Droits d’auteur, ils trouveront alors Détection de ressemblance. Dans cet onglet seront listées les vidéos détectées par l’IA de Google.
Vous pourrez alors vous assurer que le système de détection ne s’est pas trompé. Vous pourrez demander à ce que la vidéo soit retirée parce qu’elle utilise votre représentation ou parce qu’elle est en violation de vos droits d’auteur. Il sera également possible de l’archiver tout simplement, pour ne pas donner suite.
Demander un retrait n’aboutit pas automatiquement à la suppression de la vidéo. Le compte qui l’a mise en ligne est en effet notifié et peut la modifier, la retirer ou ne rien faire. Dans ce cas, les équipes de Youtube seront sollicitées pour juger de la pertinence du retrait. A chaque étape, le demandeur sera informé de l’évolution de sa requête.
Youtube indique également qu’il est possible de demander à quitter ce programme de détection automatique de ressemblance. La demande est généralement effective en 24 heures.
Et pour les acteurs ?
Pour le moment, Youtube déploie cette nouvelle fonction par étape. Les premiers créateurs de contenu concernés ont dû recevoir un mail et les autres devraient voir la fonction arriver dans les prochains mois.
La question est désormais de savoir si les acteurs ou célébrités pourront accéder à ce genre d’outil également pour faire retirer des vidéos les mettant en scène. En Inde, au début du mois, Abhishek et Aishwarya Rai Bachchan, un couple de stars de Bollywood, ont ainsi demandé le retrait de nombreuses vidéos générées grâce à l’IA qui les mettent en scène dans des situations "sexuellement explicites" ou des contenus "scandaleux".