AI Tech comme ChaptGPT, Bing, Bard est une plus grande menace que les médias sociaux

Lorsque Sam Altman mettait fin à sa première startup au début de 2012, rien n’indiquait que son chemin à suivre serait parallèle à celui de Mark Zuckerberg, alors prodige de la Silicon Valley.

Alors qu’Altman pesait ses prochains mouvements après la fermeture de Loopt, sa startup de partage de localisation, le PDG de Facebook était à l’avant-garde de la prise de contrôle mondiale des médias sociaux et menait son entreprise à une offre publique initiale à succès qui valorisait l’idée originale de Zuckerberg à 104 milliards de dollars. Mais un peu plus d’une décennie plus tard, les rôles ont radicalement tourné. De nos jours, la promesse des médias sociaux en tant que power unificatrice pour le bien s’est pratiquement effondrée, et Zuckerberg supprime des milliers d’emplois après le pivot difficile de son entreprise vers le métaverse. Et c’est Altman, un décrocheur de Stanford de 37 ans, qui voit maintenant son étoile atteindre des sommets vertigineux – et qui fait facial area aux pièges d’une grande puissance.

Altman et sa société Open up AI ont mis la Silicon Valley en garde depuis la publication de ChatGPT au community en novembre. Le modèle d’intelligence artificielle, qui peut écrire de la prose, coder et bien furthermore encore, est peut-être la technologie la as well as puissante et la furthermore imprévisible de sa génération. Cela a également été une mine d’or pour Altman, menant à un accord pluriannuel de plusieurs milliards de bucks de Microsoft et à l’intégration de 100 millions d’utilisateurs au cours de ses deux premiers mois. Le rythme de croissance dépasse de loin la marche de TikTok et d’Instagram vers ce jalon, ce qui en fait l’application Internet grand general public à la croissance la moreover rapide de l’histoire.

Tout comme les médias sociaux en 2012, l’industrie de l’IA est au bord d’un enormous changement. Et tandis que les médias sociaux ont continué à remodeler notre monde au cours des 10 prochaines années, les industry experts m’ont dit que les conséquences des prochaines étapes de l’IA seraient d’un ordre de grandeur plus crucial. Selon les chercheurs, les modèles d’IA actuels effleurent à peine la surface area du potentiel de la technologie. Et alors qu’Altman et sa cohorte vont de l’avant, l’IA pourrait fondamentalement remodeler notre économie et nos vies encore additionally que les médias sociaux.

AI Tech comme ChaptGPT, Bing, Bard est une plus grande menace que les médias sociaux

“L’IA a le potentiel d’être une technologie transformatrice de la même manière qu’Internet, la télévision, la radio, la presse Gutenberg”, a déclaré le professeur Michael Wooldridge, directeur de la recherche fondamentale sur l’IA à l’Institut Turing. “Mais la façon dont il va être utilisé, je pense, nous ne pouvons qu’à peine l’imaginer.”

Comme l’ont prouvé les antécédents de Zuckerberg chez Fb, la technologie déchaînée peut avoir de profondes conséquences – et si l’IA n’est pas contrôlée ou si la croissance est prioritaire sur la sécurité, les répercussions pourraient être irréparables.

Technologie révolutionnaire, faite dangereusement

Dan J. Wang, maintenant professeur agrégé de commerce et de sociologie à la Columbia Small business College, avait l’habitude de passer devant le bureau Loopt d’Altman à Palo Alto, en Californie, en tant qu’étudiant de leading cycle à Stanford. Il m’a dit qu’il avait vu beaucoup de parallèles entre Altman et Zuckerberg  : les deux sont des “évangélistes de la technologie” et des “leaders vraiment convaincants” qui peuvent gagner la foi de ceux qui les entourent. Aucun des deux hommes n’a été le leading à se lancer dans leurs domaines respectifs. Dans le cas de Facebook, des rivaux comme Myspace et Friendster avaient une longueur d’avance, tandis que l’IA est en développement depuis des décennies. Mais ce qui leur manque en originalité, ils le compensent en tolérance au risque. Zuckerberg et Altman ont tous deux la volonté d’étendre l’utilisation publique des nouvelles systems à un rythme beaucoup in addition rapide que leurs prédécesseurs furthermore prudents, a déclaré Wang. “L’autre selected qui est vraiment intéressante à propos de ces deux leaders, c’est qu’ils sont vraiment doués pour rendre les systems accessibles”, m’a-t-il dit.

Mais la frontière entre la diffusion de systems de pointe pour améliorer la vie des gens et la diffusion d’un produit non testé sur un public sans méfiance peut être mince. Et les antécédents de Zuckerberg fournissent de nombreux exemples de la façon dont cela peut mal tourner. Dans les années qui ont suivi l’introduction en bourse de Fb en 2012, la société a déployé des dizaines de produits auprès du public, tout en influençant profondément le monde hors ligne. Le scandale de Cambridge Analytica a révélé les problèmes de confidentialité liés à la collecte des données personnelles de milliards de personnes  l’utilisation de Fb pour faciliter la violence comme le génocide au Myanmar et l’insurrection de Capitol Hill a montré à quel level la désinformation toxique sur les plateformes sociales pouvait être et les méfaits de services comme Instagram sur la santé mentale ont posé des questions inconfortables sur le rôle des médias sociaux dans notre vie quotidienne.

La réputation endommagée de Facebook est le résultat de la training course de l’entreprise devant les consommateurs, les régulateurs et les investisseurs qui n’ont pas compris les conséquences de milliards de personnes interagissant en ligne à une échelle et à une vitesse sans précédent. Fb et Zuckerberg se sont excusés pour leurs erreurs – mais pas pour l’approche fulgurante de son chef évangéliste qui en est venu à incarner le mantra de la technologie “avancer vite et casser les choses”. Si les médias sociaux aidaient à exposer les pires impulsions de l’humanité à grande échelle, l’IA générative pourrait être un turbocompresseur qui accélère la propagation de nos défauts.

“Le fait que la technologie d’IA générative ait été lancée sans beaucoup de diligence raisonnable ou sans beaucoup de mécanismes de consentement – ce style de chose est vraiment aligné sur cet état d’esprit” aller vite et casser les choses “”, Margaret Mitchell, une Un chercheur en intelligence artificielle qui a cofondé la division AI-ethics de Google, a déclaré.

Pour Heidy Khlaaf, directrice de la société de cybersécurité et de sécurité Trail of Bits et ancienne ingénieure en sécurité des systèmes chez OpenAI, le cycle de battage médiatique actuel autour de l’IA générative qui donne la priorité à la valeur commerciale plutôt qu’à l’impact sociétal est, en partie, alimenté par des entreprises affirmations exagérées sur la technologie pour leur propre bénéfice.

“Tout le monde essaie de le déployer et de le mettre en œuvre sans comprendre les risques sur lesquels de nombreux chercheurs vraiment incroyables se sont penchés depuis au moins cinq ans”, a-t-elle déclaré.

“Votre nouvelle technologie ne devrait pas être diffusée dans le monde si elle peut causer ces dommages en aval.”

Cela devrait constituer un avertissement sévère pour Altman, OpenAI et le reste de l’industrie de l’intelligence artificielle, m’a dit Mitchell. “Une fois mis en œuvre dans des systèmes sur lesquels les gens s’appuient pour des faits ou des décisions vitales, ce n’est pas seulement une nouveauté”, a-t-elle déclaré.

OpenAI ouvre la boîte de Pandore

Alors que la technologie sous-jacente qui alimente l’IA existe depuis un particular temps, l’équilibre des pouvoirs entre l’éthique et la rentabilité dans l’industrie commence à évoluer dans une path différente. Après avoir obtenu un investissement de plusieurs milliards de pounds de Microsoft en janvier, OpenAI serait désormais évalué à 30 milliards de bucks et n’a pas perdu de temps pour commercialiser sa technologie. Microsoft a annoncé l’intégration de la technologie d’OpenAI dans son moteur de recherche Bing le 7 février et a déclaré qu’il prévoyait d’infuser l’IA dans d’autres produits Microsoft.

Cette décision a déclenché une sorte de study course aux armements contre l’IA. Google, qui a longtemps été la force dominante de la Silicon Valley en matière d’IA, a accéléré le rythme avec ses propres initiatives de commercialisation. Le géant de la technologie a lancé un concurrent de ChatGPT appelé Bard 68 jours seulement après l’annonce de Bing. Mais la publication de Bard a également servi de mise en garde pour une mise à l’échelle trop rapide  : l’annonce de lancement était truffée d’erreurs et les actions de Google ont chuté en conséquence. Et ce n’est pas comme si Bard était le seul outil d’IA avec des problèmes. Au cours de sa courte vie, ChatGPT a montré qu’il était sujet aux “hallucinations” – des réponses confiantes qui semblent vraies mais qui sont fausses. Les biais et les inexactitudes sont également fréquents.

Cette approche consistant à jeter la prudence au vent n’est pas surprenante pour les experts  : Mitchell m’a dit que même si de nombreuses entreprises auraient eu trop peur d’être les premières, compte tenu de l’attention que cela aurait attiré sur elles, les projets hautement publics d’OpenAI ont rendu les choses beaucoup as well as faciles. pour que tout le monde suive. “C’est un peu comme quand tu es sur l’autoroute et que tout le monde accélère, et que tu te dis : ‘Eh bien, regarde ces autres gars. Ils accélèrent. Je peux faire ça aussi'”, a-t-elle dit.

Les professionals disent que Bing, Bard et d’autres modèles d’IA devraient généralement résoudre les problèmes technologiques au fur et à mesure de leur évolution. Le vrai hazard, m’ont-ils dit, est la surveillance humaine de tout cela. “Il y a un défi technologique où je suis as well as confiant que l’IA s’améliorera avec le temps, mais il y a ensuite le défi de la gouvernance de la façon dont les humains gouverneront l’IA – là, je suis un peu plus sceptique que nous soyons sur la bonne voie “, a déclaré Johann Laux, chercheur postdoctoral à l’Oxford Net Institute.

Wooldridge de l’Institut Turing estime que des problèmes pernicieux comme les fausses nouvelles pourraient voir une véritable “industrialisation” aux mains de l’IA, une grande inquiétude étant donné que les modèles “produisent déjà régulièrement des mensonges très plausibles”. “Ce que cette technologie va faire, c’est qu’elle va simplement remplir notre monde de mensonges imperceptibles”, a-t-il déclaré. “Cela rend très difficile de distinguer la vérité de la fiction.”

Khlaaf, quant à lui, voit un risque beaucoup plus répandu  : un démantèlement général de l’intégrité scientifique, une exagération extrême des “stéréotypes qui nuisent aux communautés marginalisées” et les hazards physiques indicibles du déploiement de l’IA dans des domaines critiques pour la sécurité tels que la médecine et les transports.

Les authorities sont clairs sur le fait que l’IA est encore loin de son plein potentiel, mais la technologie se développe rapidement. OpenAI lui-même progresse rapidement pour publier de nouvelles itérations de son modèle. GPT-4, une model améliorée de ChatGPT, est à l’horizon. Mais le pouvoir perturbateur de l’IA et les risks qu’elle pose sont déjà apparents. Pour les dirigeants, c’est l’approche “demander pardon furthermore tard”, a déclaré Mitchell.

La as well as grande erreur de Zuckerberg a été de laisser l’éthique jouer le next rôle après la rentabilité. La création par Fb d’un conseil de surveillance est un signe que l’entreprise est prête à assumer une component de responsabilité, même si beaucoup diront que c’est trop peu, trop tard pour tuer les démons déchaînés par la plateforme. Et maintenant, Altman fait encounter au même dilemme.

Altman a montré certains signes qu’il est conscient des dommages potentiels de l’IA. “Si vous pensez que vous comprenez l’impact de l’IA, vous ne comprenez pas et n’avez pas encore reçu d’instructions supplémentaires. Si vous savez que vous ne comprenez pas, alors vous comprenez vraiment. (-alan watts, en quelque sorte)”, a-t-il tweeté. le 3 février. Cela dit, les chercheurs ont peu d’informations sur les données qui ont été introduites dans la device d’OpenAI, malgré plusieurs appels lancés pour qu’OpenAI soit, en fait, ouvert. Lever le couvercle de sa boîte noire contribuerait grandement à montrer qu’il prend ses problèmes au sérieux.

Wang, de Columbia, pense qu’Altman est aux prises avec les conséquences de l’IA, qu’il s’agisse de son équité, de sa précision ou de sa transparence. Mais respecter un système d’éthique qui s’assure de ne pas nuire, tout en essayant de développer la prochaine grande technologie, “est presque not possible”, selon Wang.

“Si vous regardez ses tweets récemment, il est reasonable à tous ces problèmes, mais le problème d’être practical à tous ces problèmes est qu’il y aura invariablement des contradictions avec ce que vous pouvez réaliser”, a déclaré Wang.

Le rythme glacial avec lequel les régulateurs ont décidé d’agir contre Fb ne changera probablement pas une fois qu’ils auront décidé de prendre au sérieux la surveillance des menaces posées par l’IA. Cela signifie qu’Altman sera largement décoché pour ouvrir la boîte de Pandore de l’IA. Les médias sociaux ont amplifié les problèmes de société, comme le dit Wooldridge. Mais l’IA pourrait très bien en créer de nouveaux. Altman devra bien faire les choses, pour le bien de tous. Sinon, cela pourrait être l’extinction des feux pour tous.