L'IA doit ralentir pour son propre bien

Il y a de précieux petits cofondateurs d’Apple, Steve Wozniak et Elon Musk, d’accord ces jours-ci, à une exception noteworthy près : l’IA doit ralentir.

Wozniak, Musk et additionally de 1 000 autres chefs d’entreprise ont signé une lettre demandant des garde-fous et une pause sur la formation des modèles d’IA à mesure que la technologie devient furthermore puissante. La lettre soutient que de puissants modèles d’IA comme le GPT-4 d’OpenAI “ne devraient être développés qu’une fois que nous sommes convaincus que leurs effets seront positifs et que leurs risques seront gérables”.

Bien sûr, ce n’est pas la première fois que les gens demandent des garde-fous pour l’IA. Cependant, à mesure que l’IA est devenue additionally sophistiquée, les appels à la prudence se multiplient à leur tour.

“C’est une très bonne idée de ralentir le développement de nouveaux modèles car si l’IA finit par être bonne pour nous, alors il n’y a pas de mal à attendre des mois ou des années, nous arriverons de toute façon au level last”, a déclaré James Grimmelmann, professeur de numérique. et le droit de l’information à l’Université Cornell. “Si c’est nocif, alors nous nous sommes simplement donné plus de temps pour élaborer des stratégies sur les meilleures façons de réagir et de comprendre remark le combattre.”

L'IA doit ralentir pour son propre bien

Autrement dit, Wozniak et les autres leaders technologiques ont raison. L’IA a été jetée dans la nature, laissée à se développer sans surveillance et de plus en furthermore forte chaque jour. Mais maintenant, nous avons la prospect de le ralentir, donnant le potentiel de mieux cultiver la technologie pour le bien de la société.

La montée en puissance de ChatGPT montre les risks potentiels d’aller trop vite

Lorsque le blockbuster ChatGPT d’OpenAI est sorti pour des tests publics en novembre de l’année dernière, il a fait feeling. Naturellement, les gens ont commencé à pousser les capacités de ChatGPT. Il est vite devenu évident à quel level cela pouvait perturber la société. Il a commencé à réussir des examens de licence médicale. Il a donné des directions sur la façon de fabriquer des bombes (après un peu d’incitation supplémentaire). Il s’est créé un alter moi.

In addition nous utilisons l’IA – en particulier les outils d’IA dits génératifs comme ChatGPT ou l’outil de conversion de texte en image Stable Diffusion – furthermore nous voyons ses défauts, son potentiel de création de biais et à quel point nous, les humains, ne sommes pas préparés à exercer son pouvoir.

Comme les médias sociaux, il peut exploiter le meilleur et le pire de l’humanité. Mais contrairement aux médias sociaux, l’IA sera beaucoup furthermore intégrée dans la vie des gens.

ChatGPT et d’autres produits d’IA similaires ont déjà tendance à déformer les informations et à faire des erreurs, ce dont Wozniak a parlé publiquement. Il est sujet aux hallucinations, et même le PDG d’OpenAI, Sam Altman, a admis que le modèle de son entreprise pouvait cracher des réponses racistes, sexistes et biaisées. Stable Diffusion s’est heurté à des problèmes de droits d’auteur et a été accusé de voler des œuvres d’art à des artistes numériques.

Au fur et à mesure que l’IA s’intègre dans une technologie moreover quotidienne, nous risquons d’apporter additionally de désinformation dans le monde, à furthermore grande échelle. Même des tâches apparemment bénignes pour l’IA, comme aider à planifier des vacances, peuvent ne pas produire de résultats fiables.

Il est difficile de se développer de manière responsable lorsque le marché libre exige d’évoluer rapidement

Pour être clair, l’IA, en particulier l’IA générative comme ChatGPT, est une technologie incroyablement transformatrice. Il n’y a rien de mal à développer des equipment qui effectuent une grande partie du travail fastidieux que les gens détestent.

Même si la technologie a créé une crise existentielle au sein de la primary-d’œuvre, elle a également été célébrée comme un outil d’égalisation pour l’industrie technologique. Il n’y a également aucune preuve que ChatGPT soit prêt à mener une rébellion de robots dans les prochaines années.

Et de nombreuses entreprises d’IA ont des éthiciens soucieux de développer la technologie de manière responsable. Mais une équipe dédiée à la création d’IA en toute sécurité ne peut pas faire son travail si la précipitation à sortir des produits est placée plus haut que son affect sociétal.

La vitesse semble également être le nom du jeu. OpenAI a compris que s’il bouge assez rapidement, il peut éloigner la concurrence et devenir le chief dans le domaine de l’IA générative. Cela a poussé Microsoft, Google et à peu près tout le monde à emboîter le pas.

La publication de modèles d’IA puissants avec lesquels le general public peut jouer avant qu’ils ne soient prêts n’améliore pas la technologie. Les gens ne peuvent pas trouver les meilleurs cas d’utilisation de l’IA car or truck les développeurs doivent éteindre les incendies créés par leur technologie et les utilisateurs sont distraits par le bruit.

Tout le monde ne veut pas une pause de l’IA

La lettre a ses détracteurs, qui disent qu’elle rate la cible.

Emily M. Bender, professeur à l’Université de Washington, a déclaré dans un fil Twitter que Musk et les autres leaders de la technologie cèdent au cycle de battage médiatique en se concentrant sur la puissance de l’IA et non sur les dommages réels qu’elle peut causer.

Grimmelman ajoute que les leaders technologiques signant la lettre “sont en retard à la fête” et ont ouvert une boîte de Pandore de issues potentielles pour eux-mêmes.

“Maintenant qu’ils ont signé la lettre, ils ne peuvent pas se retourner et dire que les mêmes politiques ne peuvent pas être faites pour d’autres technologies comme les voitures autonomes”, a-t-il déclaré.

Un moratoire ou moreover de réglementation peut ou non se concrétiser. Mais la dialogue a maintenant tourné.

L’IA existe depuis des décennies ça peut attendre encore quelques années.