Sam Altman dit qu'OpenAI pourrait "cesser d'opérer" en Europe

Sam Altman d’OpenAI a averti que le fabricant de ChatGPT pourrait cesser de fonctionner en Europe si le bloc mettait en œuvre ses propositions de règles sur l’intelligence artificielle.

“Les détails comptent vraiment”, a déclaré Altman aux journalistes lors de sa tournée dans certaines capitales européennes. “Nous essaierons de nous conformer, mais si nous ne pouvons pas nous y conformer, nous cesserons nos activités”, a rapporté le Fiscal Situations.

Le projet de loi sur l’IA proposé par l’UE, qui est “la première loi sur l’IA par un régulateur majeur du monde”, selon son web page Internet, se concentre sur la réglementation de l’IA et la protection des Européens contre certains risques d’IA classés dans trois catégories. Le Parlement européen a voté à une significant majorité en faveur de l’adoption de la loi sur l’IA. La loi doit maintenant être adoptée, le 14 juin étant fixé comme day provisoire.

Selon les règles européennes proposées :

Sam Altman dit qu'OpenAI pourrait

  • Les systèmes d’IA classés dans la catégorie de risque la furthermore élevée de la loi sur l’IA seraient interdits. Ce serait pour l’IA qui, selon la réglementation, “créerait un risque inacceptable, comme une notation sociale gérée par le gouvernement du variety utilisé en Chine
  • La deuxième catégorie de risque serait “soumise à des exigences légales spécifiques” et concernerait les systèmes d’IA qui seraient utilisés pour scanner les CV et classer les candidats
  • La troisième catégorie concerne les systèmes d’IA qui ne sont “pas explicitement interdits ou répertoriés comme à haut risque” et seraient donc “largement laissés non réglementés”

Les règles de la loi sur l’IA obligeraient également les entreprises d’IA à concevoir des modèles d’IA pour les empêcher de “générer du contenu illégal” et à publier des “résumés des données protégées par le droit d’auteur utilisées pour la formation”.

Lorsque OpenAI a publié GPT-4 en mars, certains membres de la communauté de l’IA ont été déçus qu’OpenAI n’ait pas divulgué d’informations sur les données utilisées pour previous le modèle, son coût et la manière dont il a été créé.

Ilya Sutskever, cofondateur et scientifique en chef d’OpenAI, a précédemment déclaré à The Verge que la société n’avait pas partagé ces informations en raison de la concurrence et de la sécurité.

“Il a fallu à peu près tout OpenAI travailler ensemble pendant très longtemps pour produire cette selected”, a déclaré Sutskever. “Et il y a beaucoup d’entreprises qui veulent faire la même chose, donc d’un point de vue concurrentiel, vous pouvez voir cela comme une maturation du domaine.”

Sutskever a également déclaré que, même si la concurrence est désormais une priorité, la sécurité deviendra as well as importante à l’avenir.

Alors qu’Altman s’est dit préoccupé par la manière dont la loi sur l’IA affectera la présence d’OpenAI en Europe, il a récemment déclaré au Sénat américain qu’il devrait y avoir une agence gouvernementale pour superviser les projets d’IA qui fonctionnent “au-dessus d’une certaine échelle de capacités”.

Altman fait pression pour qu’une agence gouvernementale accorde des licences aux entreprises d’IA et les retire si elles outrepassent les règles de sécurité.