Lorsque Sam Altman mettait fin à sa première startup au début de 2012, rien n’indiquait que son chemin à suivre serait parallèle à celui de Mark Zuckerberg, alors prodige de la Silicon Valley.
sa startup de partage de localisation, le PDG de Facebook était à l’avant-garde de la prise de contrôle mondiale des médias sociaux et menait son entreprise à une offre publique initiale à succès qui valorisait l’idée originale de Zuckerberg à 104 milliards de dollars. Mais un peu plus d’une décennie plus tard, les rôles ont radicalement tourné. De nos jours, la promesse des médias sociaux en tant que power unificatrice pour le bien s’est pratiquement effondrée. Et c’est Altman, un décrocheur de Stanford de 37 ans, qui voit maintenant son étoile atteindre des sommets vertigineux – et qui fait facial area aux pièges d’une grande puissance.
Altman et sa société Open up AI ont mis la Silicon Valley en garde depuis la publication de ChatGPT au community en novembre. Le modèle d’intelligence artificielle, qui peut écrire de la prose, coder et bien furthermore encore, est peut-être la technologie la as well as puissante et la furthermore imprévisible de sa génération. Cela a également été une mine d’or pour Altman, menant à un accord pluriannuel de plusieurs milliards de bucks de Microsoft et à l’intégration de 100 millions d’utilisateurs au cours de ses deux premiers mois. Le rythme de croissance dépasse de loin la marche de TikTok et d’Instagram vers ce jalon.
Tout comme les médias sociaux en 2012, l’industrie de l’IA est au bord d’un enormous changement. Et tandis que les médias sociaux ont continué à remodeler notre monde au cours des 10 prochaines années. Selon les chercheurs, les modèles d’IA actuels effleurent à peine la surface area du potentiel de la technologie. Et alors qu’Altman et sa cohorte vont de l’avant, l’IA pourrait fondamentalement remodeler notre économie et nos vies encore additionally que les médias sociaux.
“L’IA a le potentiel d’être une technologie transformatrice de la même manière qu’Internet, la télévision, la radio, la presse Gutenberg”, a déclaré le professeur Michael Wooldridge, directeur de la recherche fondamentale sur l’IA à l’Institut Turing. “Mais la façon dont il va être utilisé, je pense, nous ne pouvons qu’à peine l’imaginer.”
Comme l’ont prouvé les antécédents de Zuckerberg chez Fb, la technologie déchaînée peut avoir de profondes conséquences – et si l’IA n’est pas contrôlée ou si la croissance est prioritaire sur la sécurité, les répercussions pourraient être irréparables.
Technologie révolutionnaire, faite dangereusement
Dan J. Wang, maintenant professeur agrégé de commerce et de sociologie à la Columbia Small business College, avait l’habitude de passer devant le bureau Loopt d’Altman à Palo Alto, en Californie, en tant qu’étudiant de leading cycle à Stanford. Il m’a dit qu’il avait vu beaucoup de parallèles entre Altman et Zuckerberg : les deux sont des “évangélistes de la technologie” et des “leaders vraiment convaincants” qui peuvent gagner la foi de ceux qui les entourent. Aucun des deux hommes n’a été le leading à se lancer dans leurs domaines respectifs. Dans le cas de Facebook, des rivaux comme Myspace et Friendster avaient une longueur d’avance, tandis que l’IA est en développement depuis des décennies. Mais ce qui leur manque en originalité, ils le compensent en tolérance au risque. a déclaré Wang. “L’autre selected qui est vraiment intéressante à propos de ces deux leaders, c’est qu’ils sont vraiment doués pour rendre les systems accessibles”, m’a-t-il dit.
Mais la frontière entre la diffusion de systems de pointe pour améliorer la vie des gens et la diffusion d’un produit non testé sur un public sans méfiance peut être mince. Et les antécédents de Zuckerberg fournissent de nombreux exemples de la façon dont cela peut mal tourner. Dans les années qui ont suivi l’introduction en bourse de Fb en 2012, la société a déployé des dizaines de produits auprès du public, tout en influençant profondément le monde hors ligne.
La réputation endommagée de Facebook est le résultat de la training course de l’entreprise devant les consommateurs, les régulateurs et les investisseurs qui n’ont pas compris les conséquences de milliards de personnes interagissant en ligne à une échelle et à une vitesse sans précédent. Si les médias sociaux aidaient à exposer les pires impulsions de l’humanité à grande échelle, l’IA générative pourrait être un turbocompresseur qui accélère la propagation de nos défauts.
“Le fait que la technologie d’IA générative ait été lancée sans beaucoup de diligence raisonnable ou sans beaucoup de mécanismes de consentement – ce style de chose est vraiment aligné sur cet état d’esprit” aller vite et casser les choses “”, Margaret Mitchell, une Un chercheur en intelligence artificielle qui a cofondé la division AI-ethics de Google, a déclaré.
Pour Heidy Khlaaf, directrice de la société de cybersécurité et de sécurité Trail of Bits et ancienne ingénieure en sécurité des systèmes chez OpenAI, le cycle de battage médiatique actuel autour de l’IA générative qui donne la priorité à la valeur commerciale plutôt qu’à l’impact sociétal est, en partie, alimenté par des entreprises affirmations exagérées sur la technologie pour leur propre bénéfice.
“Tout le monde essaie de le déployer et de le mettre en œuvre sans comprendre les risques sur lesquels de nombreux chercheurs vraiment incroyables se sont penchés depuis au moins cinq ans”, a-t-elle déclaré.
“Votre nouvelle technologie ne devrait pas être diffusée dans le monde si elle peut causer ces dommages en aval.”
Cela devrait constituer un avertissement sévère pour Altman, OpenAI et le reste de l’industrie de l’intelligence artificielle, m’a dit Mitchell. ce n’est pas seulement une nouveauté”, a-t-elle déclaré.
OpenAI ouvre la boîte de Pandore
Alors que la technologie sous-jacente qui alimente l’IA existe depuis un particular temps, l’équilibre des pouvoirs entre l’éthique et la rentabilité dans l’industrie commence à évoluer dans une path différente. OpenAI serait désormais évalué à 30 milliards de bucks et n’a pas perdu de temps pour commercialiser sa technologie. Microsoft a annoncé l’intégration de la technologie d’OpenAI dans son moteur de recherche Bing le 7 février et a déclaré qu’il prévoyait d’infuser l’IA dans d’autres produits Microsoft.
Cette décision a déclenché une sorte de study course aux armements contre l’IA. Google, qui a longtemps été la force dominante de la Silicon Valley en matière d’IA, a accéléré le rythme avec ses propres initiatives de commercialisation. l’annonce de lancement était truffée d’erreurs et les actions de Google ont chuté en conséquence. Et ce n’est pas comme si Bard était le seul outil d’IA avec des problèmes. Au cours de sa courte vie, ChatGPT a montré qu’il était sujet aux “hallucinations” – des réponses confiantes qui semblent vraies mais qui sont fausses. Les biais et les inexactitudes sont également fréquents.
Mitchell m’a dit que même si de nombreuses entreprises auraient eu trop peur d’être les premières, compte tenu de l’attention que cela aurait attiré sur elles, les projets hautement publics d’OpenAI ont rendu les choses beaucoup as well as faciles. pour que tout le monde suive. “C’est un peu comme quand tu es sur l’autoroute et que tout le monde accélère, et que tu te dis : ‘Eh bien, regarde ces autres gars. Ils accélèrent. Je peux faire ça aussi'”, a-t-elle dit.
Les professionals disent que Bing, Bard et d’autres modèles d’IA devraient généralement résoudre les problèmes technologiques au fur et à mesure de leur évolution. Le vrai hazard, m’ont-ils dit, est la surveillance humaine de tout cela. “Il y a un défi technologique où je suis as well as confiant que l’IA s’améliorera avec le temps, mais il y a ensuite le défi de la gouvernance de la façon dont les humains gouverneront l’IA – là, je suis un peu plus sceptique que nous soyons sur la bonne voie “, a déclaré Johann Laux, chercheur postdoctoral à l’Oxford Net Institute.
Wooldridge de l’Institut Turing estime que des problèmes pernicieux comme les fausses nouvelles pourraient voir une véritable “industrialisation” aux mains de l’IA, une grande inquiétude étant donné que les modèles “produisent déjà régulièrement des mensonges très plausibles”. “Ce que cette technologie va faire, c’est qu’elle va simplement remplir notre monde de mensonges imperceptibles”, a-t-il déclaré. “Cela rend très difficile de distinguer la vérité de la fiction.”
D’autres problèmes pourraient également survenir. Yacine Jernite, chercheur à la société d’IA Hugging Encounter, voit de nombreuses raisons de s’inquiéter de l’utilisation des chatbots d’IA pour des escroqueries financières. “Ce dont vous avez besoin pour arnaquer quelqu’un avec son argent, c’est de construire une relation avec lui. Vous avez besoin de quelque selected qui va lui parler et se sentir engagé”, a-t-il déclaré. “Ce n’est pas seulement l’utilisation abusive des chatbots – c’est l’utilisation principale des chatbots et ce qu’ils essaient d’améliorer.”
Khlaaf, quant à lui, voit un risque beaucoup plus répandu : un démantèlement général de l’intégrité scientifique, une exagération extrême des “stéréotypes qui nuisent aux communautés marginalisées” et les hazards physiques indicibles du déploiement de l’IA dans des domaines critiques pour la sécurité tels que la médecine et les transports.
Les authorities sont clairs sur le fait que l’IA est encore loin de son plein potentiel. GPT-4, une model améliorée de ChatGPT, est à l’horizon. Pour les dirigeants. a déclaré Mitchell.
La création par Fb d’un conseil de surveillance est un signe que l’entreprise est prête à assumer une component de responsabilité, même si beaucoup diront que c’est trop peu, trop tard pour tuer les démons déchaînés par la plateforme. Et maintenant, Altman fait encounter au même dilemme.
Altman a montré certains signes qu’il est conscient des dommages potentiels de l’IA. “Si vous pensez que vous comprenez l’impact de l’IA, vous ne comprenez pas et n’avez pas encore reçu d’instructions supplémentaires. Si vous savez que vous ne comprenez pas, alors vous comprenez vraiment. (-alan watts, en quelque sorte)”, a-t-il tweeté. le 3 février. Cela dit, les chercheurs ont peu d’informations sur les données qui ont été introduites dans la device d’OpenAI. en fait, ouvert. Lever le couvercle de sa boîte noire contribuerait grandement à montrer qu’il prend ses problèmes au sérieux.
Wang, de Columbia, pense qu’Altman est aux prises avec les conséquences de l’IA, qu’il s’agisse de son équité, de sa précision ou de sa transparence. Mais respecter un système d’éthique qui s’assure de ne pas nuire, tout en essayant de développer la prochaine grande technologie, “est presque not possible”, selon Wang.
“Si vous regardez ses tweets récemment, il est reasonable à tous ces problèmes, mais le problème d’être practical à tous ces problèmes est qu’il y aura invariablement des contradictions avec ce que vous pouvez réaliser”, a déclaré Wang.
Le rythme glacial avec lequel les régulateurs ont décidé d’agir contre Fb ne changera probablement pas une fois qu’ils auront décidé de prendre au sérieux la surveillance des menaces posées par l’IA. Cela signifie qu’Altman sera largement décoché pour ouvrir la boîte de Pandore de l’IA. Les médias sociaux ont amplifié les problèmes de société, comme le dit Wooldridge. Mais l’IA pourrait très bien en créer de nouveaux. Altman devra bien faire les choses, pour le bien de tous. Sinon, cela pourrait être l’extinction des feux pour tous.