Distinguer si le contenu numérique a été produit par un humain ou par une IA est une tâche difficile de nos jours. Mais sept sociétés Major Tech et AI viennent de s’associer à la Maison Blanche pour intensifier leurs efforts pour signaler ce contenu. Les entreprises pourraient bientôt déployer des systèmes qui filigranent ou identifient les origines des matériaux générés par l’IA.
Il y a de fortes likelihood que vous ayez été dupé – ou du moins que vous ayez fait une double prise – du contenu généré par l’IA au cours des derniers mois.
Mais les jours de la tromperie sont peut-être comptés. Une coalition de géants de la technologie et de startups s’est engagée vendredi à filigraner le contenu produit par l’IA.
Le groupe – composé des piliers Big Tech Google, Microsoft, Meta et Amazon, ainsi que des bastions génératifs de l’IA OpenAI, Anthropic et Inflection – a pris des «engagements volontaires» envers l’administration Biden dans le but de rendre leurs produits furthermore sûrs et de freiner la tendance de la technologie à perpétuer les préjugés et à produire de la désinformation, selon un communiqué de la Maison Blanche vendredi.
L’engagement comprenait des engagements pour les entreprises à créer des “systèmes robustes” qui identifient ou filigranent le contenu produit par leurs outils d’IA. Ces identifiants ou filigranes permettraient de distinguer quel support d’IA a été utilisé pour générer le contenu, mais omettent toute details qui pourrait être utilisée pour identifier l’utilisateur d’origine.
Depuis la sortie de ChatGPT par OpenAI en novembre dernier, les outils d’IA générative ont ébloui les utilisateurs avec leur capacité à évoquer du texte et des images lorsqu’ils y sont invités. Mais le pouvoir de la technologie émergente de produire des textes convaincants et des images photoréalistes a déjà été utilisé pour diffuser de fausses informations.
L’image n’a jamais été confirmée comme ayant été créée à l’aide de l’IA, mais contenait de nombreux éléments irréalistes qui apparaissent parfois dans les images générées par l’IA, tels que des objets physiques se fondant les uns dans les autres.
Une annonce politique publiée mardi en soutien au gouverneur de Floride, Ron DeSantis, aurait utilisé l’IA pour reproduire la voix de Donald Trump et créer une phrase sonore qui n’a jamais eu lieu. Cela survient un mois après qu’une autre publicité de DeSantis ait présenté une graphic de Trump étreignant et embrassant Anthony Fauci, l’ancien conseiller médical en chef de la Maison Blanche, qui, selon les authorities, était probablement générée par l’IA.
Une étude publiée en juin a révélé qu’une majorité de personnes étaient incapables de dire si un tweet avait été écrit par un humain ou par ChatGPT. Les individuals interrogés ont même trouvé les tweets ChatGPT additionally convaincants que leurs homologues humains.
Plusieurs des entreprises qui ont conclu l’accord avec la Maison Blanche ont souligné leurs récentes déclarations sur le partenariat
Dans un posting de website sur l’accord, Google a directement fait référence à ses initiatives continus pour intégrer le filigrane, ainsi que pour développer son outil “À propos de cette image”, qui permettrait aux utilisateurs d’identifier l’origine d’une graphic en ligne et si elle a été présentée sur des websites de vérification des faits ou des publications d’actualités.
Inflection, le studio derrière le chatbot d’IA staff nommé “Pi”, a déclaré dans un short article de web site sur l’accord que “le projet de rendre l’IA vraiment sûre et digne de confiance n’en est encore qu’à sa phase initiale”.
“Nous voyons cela simplement comme un tremplin et un catalyseur pour en faire moreover”, a ajouté Inflection.
L’anxiété croissante autour de la façon de repérer les fake contenus a incité de nombreuses startups d’IA à développer des outils qui vérifient si un élément de contenu a été produit par un humain ou une IA. Mais dans les études et les essais, de nombreux programmes ont fait preuve de biais ou ont produit de mauvais résultats.