Google, Meta, Microsoft et d’autres sociétés qui dirigent le développement de la technologie de l’intelligence artificielle pour répondre à un ensemble de garanties en matière d’IA négociées par sa Maison Blanche constituent une étape importante vers gérer les « énormes » promesses et les risques posés par la technologie.
Biden a annoncé que son administration avait obtenu des engagements volontaires de la part de sept entreprises américaines destinées à garantir la sécurité de leurs produits d’IA avant leur commercialisation. Certains engagements appellent à une surveillance par des tiers du fonctionnement de la prochaine génération de systèmes d’IA, bien qu’ils ne précisent pas qui auditera la technologie ou demandera des comptes aux entreprises.
« Nous devons être lucides et vigilants quant aux menaces que les technologies émergentes peuvent représenter », a déclaré Biden, ajoutant que les entreprises ont une « obligation fondamentale » de garantir la sécurité de leurs produits.
« Les médias sociaux nous ont montré le mal qu’une technologie puissante peut causer sans la mise en place des garanties adéquates », a ajouté Biden. « Ces engagements constituent une étape prometteuse, mais nous avons encore beaucoup de travail à accomplir ensemble. »
Une vague d’investissements commerciaux dans des outils d’IA générative capables d’écrire des textes convaincants ressemblant à des humains et de produire de nouvelles images et d’autres médias a suscité la fascination du public ainsi que des inquiétudes quant à leur capacité à tromper les gens et à propager de la désinformation, entre autres dangers.
Les quatre géants de la technologie, ainsi que le créateur de ChatGPT OpenAI et les startups Anthropic et Inflection, se sont engagés à effectuer des tests de sécurité « effectués en partie par des experts indépendants » pour se prémunir contre les risques majeurs, tels que la biosécurité et la cybersécurité, a déclaré la Maison Blanche dans un communiqué. déclaration.
Ces tests examineront également le potentiel de préjudices sociétaux, tels que les préjugés et la discrimination, ainsi que les dangers plus théoriques liés aux systèmes d’IA avancés qui pourraient prendre le contrôle de systèmes physiques ou « s’auto-répliquer » en faisant des copies d’eux-mêmes.
Les sociétés se sont également engagées à utiliser des méthodes de signalement des vulnérabilités de leurs systèmes et à utiliser le filigrane numérique pour aider à distinguer les images ou l’audio réels des images générées par l’IA, connues sous le nom de deepfakes.
Les dirigeants des sept sociétés se sont réunis à huis clos avec Biden et d’autres responsables vendredi pour s’engager à respecter les normes.
« Il a été très ferme et clair » sur le fait qu’il souhaitait que les entreprises continuent à être innovantes, mais en même temps « estimait que cela nécessitait beaucoup d’attention », a déclaré Mustafa Suleyman, PDG d’Inflection, dans une interview après le rassemblement à la Maison Blanche.
« C’est une grosse affaire de rassembler tous les laboratoires, toutes les entreprises », a déclaré Suleyman, dont la startup basée à Palo Alto, en Californie, est la plus jeune et la plus petite des entreprises. « C’est super compétitif et nous ne nous réunirions pas dans d’autres circonstances. »
Les entreprises signaleront également publiquement les failles et les risques liés à leur technologie, y compris les effets sur l’équité et les préjugés, selon l’engagement.
Les engagements volontaires sont censés être un moyen immédiat de faire face aux risques avant une action à plus long terme visant à amener le Congrès à adopter des lois réglementant cette technologie.
Certains partisans de la réglementation de l’IA ont déclaré que la décision de Biden est un début, mais qu’il reste encore beaucoup à faire pour responsabiliser les entreprises et leurs produits.
« Une délibération à huis clos avec des acteurs économiques aboutissant à des garanties volontaires ne suffit pas », a déclaré Amba Kak, directeur exécutif de l’AI Now Institute. « Nous avons besoin d’un débat public beaucoup plus vaste, et cela soulèvera des questions sur lesquelles les entreprises ne s’engageront certainement pas volontairement, car cela conduirait à des résultats fondamentalement différents, qui pourraient avoir un impact plus direct sur leurs modèles économiques. »
Voici les dernières nouvelles du vendredi 21 juillet : le Pentagone enquête sur la façon dont un soldat est entré en Corée du Nord ; La Russie attaque le sud de l’Ukraine ; Des familles réclament une législation sur les armes à feu au Tennessee après une fusillade dans une école ; Des acteurs et écrivains en grève défilent à Chicago.
Bien que volontaire, accepter de se soumettre aux tests de « l’équipe rouge » qui testent leurs systèmes d’IA n’est pas une promesse facile, a déclaré Suleyman.
« L’engagement que nous avons pris pour que les équipes rouges tentent essentiellement de casser nos modèles, d’identifier les faiblesses, puis de partager ces méthodes avec les autres grands développeurs de modèles de langage est un engagement assez important », a déclaré Suleyman.
Le chef de la majorité au Sénat, Chuck Schumer, DN.Y. a déclaré qu’il présenterait une législation visant à réglementer l’IA et qu’il travaillait en étroite collaboration avec l’administration Biden « et nos collègues bipartites » pour s’appuyer sur les engagements pris vendredi.
Un certain nombre de dirigeants du secteur technologique ont réclamé une réglementation, et plusieurs d’entre eux ont participé à un précédent sommet de la Maison Blanche en mai.
Le président de Microsoft, Brad Smith, a déclaré vendredi dans un article de blog que son entreprise prenait des engagements allant au-delà de l’engagement de la Maison Blanche, notamment en soutenant une réglementation qui créerait un « régime de licence pour les modèles hautement performants ».
Certains experts et concurrents débutants craignent que le type de réglementation proposée ne soit une aubaine pour les premiers arrivés aux poches profondes, menés par OpenAI, Google et Microsoft, alors que les petits acteurs sont mis à l’écart par le coût élevé de l’adhésion de leurs systèmes d’IA aux restrictions réglementaires..
L’engagement de la Maison Blanche indique qu’il ne s’applique principalement qu’aux modèles qui « sont globalement plus puissants que la frontière actuelle de l’industrie », définie par des modèles récents tels que le GPT-4 d’OpenAI et le générateur d’images DALL-E 2 et des versions similaires d’Anthropic, Google et Amazone.
Un certain nombre de pays ont étudié les moyens de réglementer l’IA, notamment les législateurs de l’Union européenne qui ont négocié des règles radicales en matière d’IA pour le bloc de 27 pays, qui pourraient restreindre les applications considérées comme présentant les risques les plus élevés.
Le secrétaire général de l’ONU, Antonio Guterres, a récemment déclaré que les Nations Unies étaient « l’endroit idéal » pour adopter des normes mondiales et a nommé un conseil d’administration qui fera rapport sur les options de gouvernance mondiale de l’IA d’ici la fin de l’année.
Guterres a également déclaré qu’il saluait les appels de certains pays en faveur de la création d’un nouvel organisme des Nations Unies pour soutenir les efforts mondiaux visant à gouverner l’IA, inspiré par des modèles tels que l’Agence internationale de l’énergie atomique ou le Groupe d’experts intergouvernemental sur l’évolution du climat.
La Maison Blanche a déclaré vendredi avoir mené des consultations sur les engagements volontaires avec un certain nombre de pays.
L’engagement est fortement axé sur les risques de sécurité, mais ne répond pas à d’autres inquiétudes concernant les dernières technologies d’IA, notamment l’effet sur l’emploi et la concurrence sur le marché, les ressources environnementales nécessaires à la construction des modèles et les problèmes de droits d’auteur concernant les écrits, l’art et d’autres droits humains. un travail manuel utilisé pour enseigner aux systèmes d’IA comment produire un contenu de type humain.
Le montant qu’il paiera pour ce contenu n’a pas été divulgué.
/li>
O’Brien a rapporté de Providence, Rhode Island.