Un conseil technique  : comment repérer les images deepfake générées par l'IA

  • La propagation alarmante des images deepfake sur internet - Comment utiliser la technologie pour détecter un deepfake
  • Les défis à venir dans la lutte contre les fausses images générées par l'IA

IA devient rapidement l'un des plus gros problèmes auxquels nous sommes confrontés en ligne. Les images, vidéos et fichiers audio trompeurs prolifèrent en raison de l’essor et de l’utilisation abusive des outils d’intelligence artificielle générative.

Avec l’apparition presque quotidienne de deepfakes IA, représentant tout le monde, de Taylor Swift à Donald Trump, il devient de plus en plus difficile de distinguer ce qui est réel de ce qui ne l’est pas. Les générateurs de vidéos et d'images comme DALL-E, Midjourney et Sora d'OpenAI permettent aux personnes sans aucune compétence technique de créer facilement des deepfakes : il suffit de taper une demande et le système la crache.

Ces fausses images peuvent sembler inoffensives. Mais ils peuvent être utilisés pour commettre des escroqueries et des usurpations d’identité ou pour faire de la propagande et des manipulations électorales.

Voici comment éviter d’être trompé par les deepfakes :

Un conseil technique  : comment repérer les images deepfake générées par l'IA

Comment repÉrer un deepfake

Au début des deepfakes, la technologie était loin d’être parfaite et laissait souvent des signes révélateurs de manipulation. Les vérificateurs de faits ont signalé des images comportant des erreurs évidentes, comme des mains à six doigts ou des lunettes dont les verres ont des formes différentes.

Mais à mesure que l’IA s’est améliorée, elle est devenue beaucoup plus difficile. Certains conseils largement partagés – comme la recherche de schémas de clignement non naturels parmi les personnes dans des vidéos deepfake – ne tiennent plus, a déclaré Henry Ajder, fondateur du cabinet de conseil Latent Space Advisory et expert de premier plan en IA générative.

Il y a néanmoins certaines choses à surveiller, a-t-il déclaré.

De nombreuses photos falsifiées par l'IA, en particulier celles de personnes, ont un éclat électronique, “une sorte d'effet esthétique de lissage” qui laisse la peau “incroyablement polie”, a déclaré Ajder.

Il a toutefois averti que l’incitation à la créativité peut parfois éliminer ce signe et bien d’autres signes de manipulation de l’IA.

Si vous pensez que la vidéo d’une personne parlant a été falsifiée, regardez sa bouche. Les mouvements de leurs lèvres correspondent-ils parfaitement au son ?

Ajder suggère de regarder les dents. Sont-ils clairs, ou sont-ils flous et ne correspondent pas à leur apparence dans la vie réelle ?

La société de cybersécurité Norton affirme que les algorithmes ne sont peut-être pas encore assez sophistiqués pour générer des dents individuelles, donc le manque de contours pour les dents individuelles pourrait être un indice.

Le site de journalisme Poynter indique que si vous voyez une personnalité publique faire quelque chose qui semble « exagéré, irréaliste ou sans caractère », il pourrait s’agir d’un deepfake.

Par exemple, le pape porterait-il réellement une doudoune de luxe, comme le montre une fausse photo notoire ? S'il le faisait, n'y aurait-il pas des photos ou des vidéos supplémentaires publiées par des sources légitimes ?

Utiliser l'ia pour trouver les faux

Une autre approche consiste à utiliser l’IA pour combattre l’IA.

Microsoft a développé un outil d'authentification capable d'analyser des photos ou des vidéos pour déterminer si elles ont été manipulées. FakeCatcher de Chipmaker Intel utilise des algorithmes pour analyser les pixels d'une image afin de déterminer si elle est réelle ou fausse.

Il existe des outils en ligne qui promettent de détecter les contrefaçons si vous téléchargez un fichier ou collez un lien vers le matériel suspect. Mais certains, comme l'authentificateur de Microsoft, ne sont disponibles que pour des partenaires sélectionnés et non pour le public. En effet, les chercheurs ne veulent pas alerter les mauvais acteurs et leur donner un avantage accru dans la course aux armements deepfake.

Le libre accès aux outils de détection pourrait également donner aux gens l’impression qu’ils sont « des technologies divines qui peuvent sous-traiter la pensée critique à notre place », alors que nous devons plutôt être conscients de leurs limites, a déclaré Ajder.

Les obstacles À la trouver des faux

Cela étant dit, l’intelligence artificielle progresse à une vitesse vertigineuse et les modèles d’IA sont formés sur les données Internet pour produire un contenu de plus en plus de qualité avec moins de défauts.

Cela signifie que rien ne garantit que ces conseils seront toujours valables même dans un an.

Les experts affirment qu’il pourrait même être dangereux de confier aux gens ordinaires le fardeau de devenir des Sherlocks numériques, car cela pourrait leur donner un faux sentiment de confiance, car il devient de plus en plus difficile, même pour des yeux avertis, de repérer les deepfakes.

___

Swenson a rapporté de New York.

___

Pour en savoir plus sur l’initiative démocratique d’AP L'