La peur de l'IA pourrait avoir conduit à l'éviction de Sam Altman à OpenAI

  • Les craintes concernant la vitesse de développement de l’IA chez OpenAI ont peut-être semé la discorde au sein de ses rangs supérieurs
  • Certains membres du conseil d’administration d’OpenAI n’étaient peut-être pas d’accord avec l’approche d’Altman en matière d’innovation en matière d’IA
  • Le cofondateur d’OpenAI, Ilya Sutskever, appelle depuis longtemps à la prudence, craignant que l’IA ne nuise à l’humanité

Le licenciement éventuellement bref de Sam Altman d’OpenAI a révélé un schisme entre les principaux dirigeants de l’entreprise sur la manière de freiner la menace existentielle posée par l’IA.

Alors qu’Altman a parlé des risks d’une IA « potentiellement effrayante » et de la nécessité « critique » de la réglementer, l’ancien PDG d’OpenAI a été principalement un modèle d’innovation rapide en matière d’IA.

Altman était connu pour positionner de manière agressive OpenAI pour rester en tête du peloton dans la training course aux armements de l’IA, en recherchant de grandes quantités de financement et un développement rapide.

En septembre, Altman a tenté d’obtenir un financement d’un milliard de dollars auprès de Softbank pour un périphérique matériel permettant d’exécuter des outils comme ChatGPT, par exemple. Le PDG du conglomérat japonais, Mayoshi San, a déjà déclaré qu’il utilisait ChatGPT quotidiennement et qu’il croyait au pouvoir de l’IA.

Ilya Sutskever, cofondateur d’OpenAI, scientifique en chef et membre du conseil d’administration qui a joué un rôle dans le licenciement d’Altman, a préféré faire preuve de additionally de prudence étant donné les menaces potentielles que l’IA représente pour la société.

Sutskever a créé une équipe de « Tremendous Alignement » au sein de l’entreprise pour garantir que les futures variations de GPT-4, la technologie derrière ChatGPT, ne seraient pas nocives pour l’humanité, selon le New York Situations.

Deux autres membres du conseil d’administration d’OpenAI – Helen Toner, directrice du Centre pour la sécurité et les systems émergentes de l’Université de Georgetown, et l’entrepreneur technologique Tasha McCauley – ont également des liens avec le mouvement dit d’altruisme efficace, qui s’efforce de garantir que les progrès de l’intelligence artificielle s’alignent sur le meilleur intérêt des humains.

Si leur inquiétude quant à l’engagement d’Altman dans le mouvement altruiste efficace était à l’origine de son éviction, ce ne serait pas la première fois que de tels désaccords sur les risks de l’IA poussent des gens à quitter l’entreprise.

En 2021, Dario Amodei et plusieurs autres employés d’OpenAI ont quitté l’entreprise pour fonder Anthropic, un rival d’OpenAI qui a placé la development d’une IA furthermore sûre au cœur de sa mission.

Même Elon Musk, qui a quitté le conseil d’administration d’OpenAI en 2018 en invoquant un conflit d’intérêts avec Tesla, s’inquiétait de la mesure dans laquelle (ou peu) l’entreprise accordait la priorité à la sécurité, selon Wired.

Le conseil d’administration d’OpenAI n’a pas fourni as well as de détails sur ce qui les a conduits à licencier Altman, se contentant de noter qu’ils avaient « perdu confiance » en lui et qu’il n’était pas « toujours franc » dans ses communications.

Les conséquences de ce licenciement brutal ont cependant été rapides. Plusieurs dirigeants ont démissionné en signe de protestation et de nombreux employés d’OpenAI réclament désormais le retour d’Altman.