Voici 4 façons de repérer des images générées par l'IA comme Trump, le pape François

Les photos deepfake de Donald Trump et du pape François générées par l’intelligence artificielle ont récemment fait feeling en ligne.

que David Holz a fondé l’année dernière.

Le programme, qui crée des visuals basées sur des descriptions textuelles fournies par les utilisateurs, a été utilisé pour produire des visuals trompeuses de personnalités bien connues, dont certaines de l’ancien président Donald Trump en cours d’arrestation.

Midjourney a depuis suspendu les essais gratuits “en raison d’une combinaison de demande extraordinaire et d’abus d’essai”, a déclaré Holz.

Voici 4 façons de repérer des images générées par l'IA comme Trump, le pape François

Pourtant, cela ne signifie pas la fin des fausses photos, selon Henry Ajder, un qualified en intelligence artificielle et présentateur qui fait partie du conseil consultatif européen de Meta’s Truth Labs. Il a dit des outils tels que Dall d’OpenAI. E 2 et Secure Diffusion avaient cette capacité.

“La seule façon dont la falsification réaliste a été attainable dans le passé au niveau que nous voyons maintenant quotidiennement était dans les studios hollywoodiens”, a déclaré Ajder. “C’était en quelque sorte la crème de la crème des travaux VFX et CGI, alors que maintenant beaucoup de gens ont le pouvoir d’un studio hollywoodien dans la paume de leurs mains.”

Il a averti que les conséquences des photographs deepfake iront des fausses nouvelles sur les politiciens aux visuals pornographiques non consensuelles.

In addition récemment, une application d’échange de visage appelée Facemega a été utilisée pour promouvoir une publicité sexuellement suggestive utilisant le visage d’Emma Watson.

Cependant, ce ne sont pas seulement les “fake explosifs” dont les gens doivent s’inquiéter, a déclaré Adjer. Les plus subtils comme le pape François peuvent « lentement ébranler notre confiance dans les médias visuels et rendre additionally difficile la navigation dans la vérité ».

Lui et un autre specialist ont proposé quatre conseils pour aider à distinguer les visuals générées par l’IA de la réalité.

Certaines photographs générées par l’IA ont un part “plastique”

Un signe révélateur qu’une image était sur Midjourney est une apparence “plastique”, mais la plate-forme peut aplanir ce problème au fur et à mesure de son développement.

Ajder a déclaré que Midjourney était un outil développé en pensant aux artistes  : “Beaucoup d’images ont une apparence très stylisée, presque lisse, brillante et plastifiée.”

Bien que cela ne soit pas cohérent avec les autres plates-formes d’IA, c’est quelque chose à surveiller.

Attention aux incohérences esthétiques

Ajder a souligné que les programmes d’IA ont généralement du mal avec les “cohérences sémantiques”, telles que l’éclairage, les formes et la subtilité.

Certains exemples incluent la vérification si l’éclairage d’une personne dans une graphic est au bon endroit  si la tête de quelqu’un est légèrement trop grosse ou même des sourcils et une construction osseuse exagérés.

D’autres incohérences incluent le sourire avec des dents inférieures dans une impression, motor vehicle généralement “les gens sourient avec leurs dents supérieures, pas leurs dents inférieures”.

Toutes les photos n’auront pas ces signes, mais ce sont des pointeurs utiles.

Alexey Khitrov, fondateur de la société de sécurité biométrique ID R&D, a déclaré que l’image du pape François est “l’artefact de quelque selected de complètement contre character” et contient des caractéristiques “physiquement impossibles”.

Le crucifix que le pape semblait porter sur l’image avait une chaîne attachée à un seul côté, par exemple.

D’autres erreurs comprenaient la forme étrange de ses oreilles ainsi que la distance entre ses lunettes et leur ombre sur son visage.

Le contexte est la clé

Les facteurs esthétiques ne suffisent pas toujours à identifier les deepfakes, d’autant in addition que les outils d’IA commencent à devenir additionally sophistiqués.

Khitrov a conseillé de questionner les pictures suspectes  : “Essayez de faire une recherche sur l’image comme si vous faisiez une recherche sur les informations que vous recevez.”

Ajder a convenu que le contexte était essentiel, ce qui valait la peine d’essayer de trouver une “source faisant autorité”.

“Nous devons être conscients que si quelque selected semble scandaleux ou sensationnel, il y a de fortes odds qu’il y ait quelque selected qui ne va pas. Dans ce contexte, il s’agit de s’adresser aux organisations qui ont la capacité connue, pour la vérification des faits et la vérification.”

Il conseille de poser des inquiries telles que  : “Qui l’a partagé ? Où a-t-il été partagé ? Pouvez-vous le renvoyer à une supply plus établie avec des capacités de vérification des faits connues ?”

Ajder a recommandé Google Lens ou la fonction de recherche visuelle de Yandex pour les capacités de recherche d’images inversées.