in

Le « parrain de l'IA » s'inquiète de la façon dont DeSantis ou Poutine pourraient utiliser l'IA

Geoffrey Hinton a déclaré au MIT Tech Overview qu’il s’inquiétait de la manière dont les outils d’intelligence artificielle qu’il a contribué à créer seront utilisés. Il a déclaré que “de mauvais acteurs comme Poutine ou DeSantis” pourraient utiliser des outils d’IA dans les guerres et les élections. Hinton a déclaré que Poutine “n’hésiterait pas” à utiliser des “robots hyper-intelligents” pour tuer des Ukrainiens.

Le “parrain de l’IA” a déclaré qu’il s’inquiétait de la façon dont les gens utiliseront les outils d’IA qu’il a contribué à créer, en annonçant le nom du président russe Vladimir Poutine et du gouverneur de Floride Ron DeSantis dans une interview avec le MIT Technologies Critique.

“Écoutez, voici une façon dont tout cela pourrait mal tourner”, a déclaré Geoffrey Hinton au MIT Tech Review. “Nous savons que beaucoup de gens qui veulent utiliser ces outils sont de mauvais acteurs comme Poutine ou DeSantis. Ils veulent les utiliser pour gagner des guerres ou manipuler des électeurs.”

Hinton a déclaré au MIT Tech Evaluate qu’il pense que les outils d’IA générative seront bientôt capables de créer leurs propres “sous-objectifs”, ce qui signifie que les equipment seraient capables de comprendre remark prendre des décisions additionally importantes qui pourraient potentiellement être utilisées à mauvais escient.

Le « parrain de l'IA » s'inquiète de la façon dont DeSantis ou Poutine pourraient utiliser l'IA

“Ne pensez pas un seul prompt que Poutine ne fabriquerait pas des robots hyper-intelligents dans le but de tuer des Ukrainiens”, a déclaré Hinton. “Il n’hésiterait pas. Et si vous voulez qu’ils soient bons dans ce domaine, vous ne voulez pas les microgérer – vous voulez qu’ils trouvent remark le faire.”

Poutine a parlé de l’importance de l’IA lors d’une conférence aux étudiants en 2017, affirmant que “celui qui deviendra le leader dans ce domaine deviendra le dirigeant du monde”, a rapporté le média russe RT.

Après une décennie chez Google, Hinton a annoncé qu’il quittait l’entreprise lundi. Il a déclaré au New York Moments qu’il regrettait son rôle de pionnier de la technologie de l’IA. Hinton, avec deux de ses étudiants diplômés de l’Université de Toronto, a jeté les bases du développement de l’IA.

“Je me console avec l’excuse normale : si je ne l’avais pas fait, quelqu’un d’autre l’aurait fait”, a déclaré Hinton au Periods.

Hinton a déclaré sur Twitter qu’il avait quitté Google, non pas pour critiquer l’entreprise, mais pour qu’il « puisse parler des potential risks de l’IA sans tenir compte de l’impact de cela sur Google », et a noté que « Google a agi de manière très responsable ».

Dans son entretien avec le Occasions, Hinton a partagé ses inquiétudes concernant les hazards de l’IA.

“Il est difficile de voir comment vous pouvez empêcher les mauvais acteurs de l’utiliser pour de mauvaises choses”, a déclaré Hinton.

D’autres authorities en IA, dont Elon Musk, qui a cofondé le créateur de ChatGPT OpenAI en 2015 et construit actuellement son propre projet d’IA rival, ont publié une lettre ouverte en mars appelant à une pause de 6 mois sur la development de systèmes d’IA qui seraient as well as puissants que la dernière variation d’OpenAI. GPT-4.

La lettre be aware que les auteurs n’appellent pas à une pause “sur le développement de l’IA en général”, mais “simplement à un recul de la program dangereuse vers des modèles de boîte noire imprévisibles de furthermore en as well as grands avec des capacités émergentes”.

Dans une interview en mars, le PDG d’OpenAI, Sam Altman, a déclaré que lui et l’entreprise avaient “un peu peur” de ce que l’intelligence artificielle pourrait être able de faire à l’avenir.

Hinton, pour sa portion, a déclaré au Times qu’il pensait qu’il serait peut-être trop tard pour arrêter la system à l’IA des géants de la technologie, et qu’une collaboration et une dialogue prudentes autour du contrôle de la technologie pourraient être la seule solution.

“Je ne pense pas qu’ils devraient intensifier cela tant qu’ils n’ont pas compris s’ils peuvent le contrôler”, a-t-il déclaré.