in

La FEC s’apprête à réglementer potentiellement les deepfakes de l’IA dans les publicités de campagne

La Commission électorale fédérale a entamé un processus visant à réglementer potentiellement les deepfakes générés par l’IA dans les publicités politiques avant les élections de 2024, une mesure qui, selon ses partisans, protégerait les électeurs contre une forme particulièrement insidieuse de désinformation électorale.

Le vote de procédure unanime de la FEC jeudi fait avancer une pétition lui demandant de réglementer les publicités qui utilisent l’intelligence artificielle pour dénaturer les opposants politiques en disant ou en faisant quelque chose qu’ils n’ont pas fait – une question grave qui est déjà mise en évidence lors de l’actuelle primaire présidentielle du GOP de 2024.

Bien que la circulation de fausses images, vidéos ou clips audio convaincants ne soit pas nouvelle, les outils innovants d’IA générative les rendent moins chers, plus faciles à utiliser et plus susceptibles de manipuler la perception du public. En conséquence, certaines campagnes présidentielles pour la course de 2024 – y compris celle du gouverneur républicain de Floride, Ron DeSantis – les utilisent déjà pour persuader les électeurs.

Le Comité national républicain a publié en avril une publicité entièrement générée par l’IA destinée à montrer l’avenir des États-Unis si le président Joe Biden est réélu. Il a utilisé des photos fausses mais réalistes montrant des devantures de magasins fermées, des patrouilles militaires blindées dans les rues et des vagues d’immigrants semant la panique.

En juin, la campagne de DeSantis a partagé une publicité d’attaque contre son principal adversaire du GOP, Donald Trump, qui utilisait des images générées par l’IA de l’ancien président serrant dans ses bras l’expert en maladies infectieuses, le Dr Anthony Fauci.

SOS America PAC, qui soutient le maire républicain de Miami, Francis Suarez, a également expérimenté l’IA générative, en utilisant un outil appelé VideoAsk pour créer un chatbot IA à son effigie.

La réunion de la FEC de jeudi intervient après que le groupe de défense Public Citizen a demandé à l’agence de clarifier qu’une loi fédérale existante contre les « fausses déclarations frauduleuses » dans les communications de campagne s’applique aux deepfakes générés par l’IA.

Le vote du panel montre l’intention de l’agence d’examiner la question, mais elle ne décidera pas d’élaborer ou non des règles régissant les publicités avant une période de consultation publique de 60 jours, qui devrait commencer la semaine prochaine.

En juin, la FEC s’est retrouvée dans l’impasse sur une pétition antérieure du groupe, certains commissaires exprimant leur scepticisme quant à leur autorité pour réglementer les publicités sur l’IA. Public Citizen est revenu avec une nouvelle pétition identifiant la loi sur les fausses déclarations frauduleuses et expliquant qu’elle pensait que la FEC avait compétence.

Un groupe de 50 législateurs démocrates dirigé par le représentant de la Chambre Adam Schiff a également écrit une lettre à la FEC exhortant l’agence à faire avancer la pétition, déclarant : « L’évolution rapide de la technologie de l’IA rend de plus en plus difficile pour les électeurs d’identifier avec précision le matériel vidéo et audio frauduleux. ce qui est de plus en plus troublant dans le contexte des publicités de campagne.

Le commissaire républicain Allen Dickerson a déclaré lors de la réunion de jeudi qu’il n’était pas convaincu que l’agence avait le pouvoir de réglementer les publicités deepfake.

“Je noterai qu’il n’y a absolument rien de spécial concernant les deepfakes ou l’IA générative, les mots à la mode du moment, dans le contexte de cette pétition”, a-t-il déclaré, ajoutant que si la FEC avait cette autorité, cela signifierait qu’elle pourrait également punir d’autres. types de médias falsifiés ou mensonges dans les publicités de campagne.

Dickerson a soutenu que la loi ne va pas aussi loin, mais a noté que la FEC a demandé à l’unanimité au Congrès plus d’autorité. Il a également fait part de ses craintes que cette décision refroidisse à tort les expressions protégées par le premier amendement.

Le président de Public Citizen, Robert Weissman, a contesté les arguments de Dickerson, affirmant dans une interview jeudi que les deepfakes sont différents des autres fausses déclarations ou médias car ils prétendent frauduleusement parler au nom d’un candidat d’une manière convaincante pour le téléspectateur.

“Le deepfake a la capacité de tromper l’électeur en lui faisant croire qu’il voit lui-même une personne dire ou faire quelque chose qu’elle n’a pas dit”, a-t-il déclaré. “C’est un saut technologique par rapport aux outils existants.”

Weissman a déclaré que le fait de reconnaître que les deepfakes sont une fraude résout également les préoccupations du premier amendement de Dickerson – même si les faux discours sont protégés, la fraude ne l’est pas.

Lisa Gilbert, vice-présidente exécutive de Public Citizen, a déclaré que dans le cadre de sa proposition, les candidats auraient également la possibilité de divulguer de manière visible l’utilisation de l’intelligence artificielle pour déformer un adversaire, plutôt que d’éviter complètement cette technologie.

Elle a soutenu qu’une action était nécessaire, car si un deepfake accusant de manière trompeuse un candidat circulait sans clause de non-responsabilité et n’était pas publiquement démystifié, cela pourrait influencer injustement une élection.

Par exemple, le RNC a révélé l’utilisation de l’IA dans sa publicité, mais en petits caractères qui ont manqué à de nombreux téléspectateurs. Gilbert a déclaré que la FEC pourrait établir des lignes directrices sur où, comment et pendant combien de temps les campagnes et les partis doivent afficher ces avertissements.

Même si la FEC décidait d’interdire les deepfakes d’IA dans les publicités de campagne, cela ne couvrirait pas toutes les menaces qu’ils représentent pour les élections.

Par exemple, la loi sur les fausses déclarations frauduleuses ne permettrait pas à la FEC d’exiger que des groupes extérieurs, comme les PAC, divulguent lorsqu’ils imitent un candidat en utilisant la technologie de l’intelligence artificielle, a déclaré Gilbert.

Cela signifie que cela ne couvrirait pas une publicité récemment publiée par Never Back Down, un super PAC soutenant DeSantis, qui utilisait un outil de clonage de voix d’IA pour imiter la voix de Trump, donnant l’impression qu’il a raconté une publication sur les réseaux sociaux.

Cela n’empêcherait pas non plus les utilisateurs individuels des médias sociaux de créer et de diffuser du contenu trompeur – comme ils le font depuis longtemps – avec des mensonges générés par l’IA et d’autres médias déformés, souvent qualifiés de « contrefaçons bon marché ».

Le Congrès pourrait toutefois adopter une législation créant des garde-fous contre les contenus trompeurs générés par l’IA, et les législateurs, dont le chef de la majorité sénatoriale Chuck Schumer, ont exprimé leur intention de le faire.

Plusieurs États ont également discuté ou adopté des lois liées à la technologie des deepfakes.

Daniel Weiner, directeur du programme élections et gouvernement au Brennan Center for Justice, a déclaré que la désinformation sur les élections frauduleusement volées est déjà une « force puissante dans la politique américaine ».

Selon lui, une IA plus sophistiquée menace d’aggraver ce problème.

“À quel degré? Vous savez, je pense que nous sommes encore en train d’évaluer », a-t-il déclaré. « Mais est-ce que je m’en inquiète ? Absolument.”

Pour en savoir plus sur l’initiative démocratique d’AP L’AP est seul responsable de tout le contenu.