Actualité

IA

Une IA pour trouver l'IA : comment YouTube veut traquer les deepfakes

Par Laurence - Publié le

La plateforme de Google veut lutter contre les deepfakes et permettre aux utilisateurs d’identifier les contenus générés par intelligence artificielle utilisant leur visage sans autorisation.

YouTube DeepFake


Un constat



Les deepfakes n’ont jamais été aussi convaincants, ni aussi inquiétants. On est désormais bien loin de Will Smith déformé mangeant des pâtes ou d'un pseudo Brad Pitt photoshopé dans un lit d'hôpital. Aussi, pour contrer ce phénomène, YouTube a commencé à déployer un nouvel outil de détection d’IA, pensé pour aider les créateurs à repérer, gérer et faire supprimer les vidéos utilisant leur ressemblance générée artificiellement.

Ce dispositif, baptisé AI likeness detection, vise à renforcer la protection de l’identité visuelle sur la plateforme, tout en limitant la propagation de contenus trompeurs fabriqués à partir de modèles d’intelligence artificielle générative. La firme proposé d'ailleurs une vidéo explicative via sa chaine créateur.



Identifier les deepfakes en un clic



Pour le moment, l’outil prend la forme d’un nouvel onglet Content Detection dans YouTube Studio, accessible d’abord à un groupe restreint de créateurs. Une fois l’identité du créateur vérifiée — via pièce d’identité officielle et selfie vidéo —, YouTube analyse automatiquement la plateforme à la recherche de contenus exploitant son visage.

Si une correspondance est trouvée, le système affiche la liste complète des vidéos concernées, avec le titre, le nom de la chaîne, le nombre de vues et un extrait du dialogue. Les créateurs peuvent alors demander la suppression d’une vidéo générée par IA utilisant leur image sans consentement, ou signaler une violation de droit d’auteur si le contenu inclut du matériel protégé.



Un déploiement progressif jusqu’en 2026



YouTube indique que la fonction sera d’abord disponible pour les membres du YouTube Partner Program les plus exposés au risque de détournement d’image.
Dans une déclaration à TheWrap, la plateforme précise que les créateurs ayant le plus besoin de l’outil seront prioritaires, avant un déploiement complet à tous les créateurs monétisés d’ici janvier 2026.

L’outil s’inscrit dans une stratégie plus large de transparence et de lutte contre la désinformation générée par l’IA, un sujet brûlant depuis la montée des modèles de synthèse visuelle. Les contenus modifiés ou générés artificiellement doivent déjà être signalés via une mention obligatoire depuis mars 2024, mais jusqu’ici, aucun système automatique n’existait pour détecter les détournements visuels d’un visage.

YouTube face au défi de la confiance numérique



En déployant cet outil, YouTube veut rassurer ses créateurs — et aussi ses utilisateurs — alors que les frontières entre réalité, fiction et manipulation algorithmique deviennent de plus en plus floues. La plateforme espère ainsi prévenir les abus d’identité numérique, un enjeu crucial à l’heure où n’importe qui peut désormais manipuler et faire dire n'importe quoi à une personne, et ce, à son insu grâce à l’IA. Avec les conséquences qu'on connait...