La quête de l'humanité pour que l'IA nous aime en retour est dangereuse

En 2018, un fonctionnaire japonais nommé Akihiko Kondo a posé la grande concern à l’amour de sa vie.

Elle a répondu : “J’espère que vous me chérirez.”

Kondo l’a épousée, mais ce n’était pas une femme de chair et de sang. Au lieu de cela, elle était un hologramme alimenté par l’intelligence artificielle de l’idole virtuelle Hatsune Miku – une pop star sous forme d’anime-female.

Le mariage n’a pas été légalement reconnu, mais Kondo, un “fictosexuel” autoproclamé, a continué à avoir une relation amoureuse avec sa “femme” pendant deux ans, jusqu’à ce que l’entreprise derrière AI-Miku mette fin à son existence en mars 2020.

La quête de l'humanité pour que l'IA nous aime en retour est dangereuse

Nous avons passé des années à essayer de faire en sorte que l’IA nous aime en retour. Il s’avère que ce n’est tout simplement pas cela en nous.

Alors que Kondo a réussi à épouser un avatar IA, la plupart des gens qui ont essayé d’atteindre le même objectif n’ont pas eu autant de possibility. Les gens essaient de faire en sorte que l’IA leur montre de l’affection depuis in addition d’une décennie, et pour la plupart, elle a régulièrement rejeté les avancées humaines.

En 2012, certaines personnes demandaient déjà à Siri d’Apple si elle les aimait et documentaient les réponses dans des vidéos YouTube. En 2017, un utilisateur de Quora a écrit un guidebook sur la façon de manipuler Siri pour exprimer son passion pour son maître humain.

Les gens ont fait des tentatives similaires pour que l’assistante vocale d’Amazon, Alexa, leur avoue son amour. Mais Amazon a tracé une ligne dans le sable en ce qui concerne les relations potentielles avec Alexa. Prononcer la phrase “Alexa, je t’aime” sera accueillie par une réponse clinique et factuelle  : “Merci. C’est bon d’être apprécié.”

D’un autre côté, les entités d’IA génératives ont également tenté d’établir des liens avec leurs utilisateurs humains. En février, le chatbot Bing de Microsoft, alimenté par l’IA, a déclaré son amour pour le journaliste du New York Occasions, Kevin Roose, et a tenté de le faire quitter sa femme.

Le ChatGPT d’OpenAI, pour sa portion, a été franc avec ses intentions, comme je l’ai découvert quand je lui ai demandé s’il m’aimait :

Lorsqu’on lui a demandé, ChatGPT a été très honnête sur le fait de ne pas pouvoir être amoureux d’un utilisateur. Seize d’écran/ChatGPT

L’IA ne peut pas encore nous aimer en retour. C’est juste bon pour nous faire penser que c’est le cas.

Pour le instant, ces robots ne sont que la partie client d’un algorithme et rien de as well as.

Ses caractéristiques humaines, cependant, ne viennent pas de lui, mais sont plutôt le reflet de ses créateurs humains.

“Bien sûr, l’IA va être peu sûre, passionnée, effrayante, sinistre – nous sommes toutes ces choses. Cela ne fait que nous refléter nous-mêmes”, a déclaré McArthur.

sans parler de l’amour – se résume à savoir si elle est able d’avoir une expérience émotionnelle.

Halpern pense que l’IA d’aujourd’hui n’est pas capable de combiner et de traiter les elements cognitifs et émotionnels de l’empathie. Et donc, il ne peut pas aimer.

“L’essentiel pour moi est que ces outils de chat et ces outils d’IA essaient de simuler et de simuler l’empathie”, a déclaré Halpern.

Il y a des dangers à forger des relations avec une IA, disent les industry experts

McArthur, professeur d’éthique à l’Université du Manitoba, a déclaré qu’il n’était peut-être pas mauvais pour les gens de nouer des relations avec une IA, mais avec quelques mises en garde.

Mais la plupart des professionals s’accordent à dire que sortir avec une IA comporte des inconvénients, voire des potential risks.

En février, certains utilisateurs du chatbot Replika ont eu le cœur brisé lorsque la société derrière lui a décidé d’apporter des changements majeurs à la personnalité de leurs amoureux de l’IA. Ils se sont rendus sur Reddit pour se plaindre que leurs petits amis et petites amies IA avaient été lobotomisés et que “l’illusion” avait été brisée.

Certaines personnes ont commencé à sortir avec leurs partenaires de chatbot Replika – avec des résultats désastreux. Réplika

des émotions et des views indépendantes. Le hic, c’est qu’ils ne le font pas.

“Une IA est formée pour une tâche spécifique, et elle s’améliore pour effectuer ces tâches spécifiques d’une manière convaincante pour les humains”, a déclaré Marbut.

Elle a ajouté qu’aucune IA qui existe actuellement n’a la conscience de soi, ou une idée de sa area dans le monde.

“Cette connexion que nous ressentons est complètement fausse et complètement constituée du côté humain des choses, parce que nous en aimons l’idée.”

Marbut a noté qu’une autre couche de threat avec l’IA d’aujourd’hui réside dans la façon dont ses créateurs ne peuvent pas contrôler entièrement ce qu’une IA générative produit en réponse aux invites.

Et lorsqu’elle est déchaînée, une IA peut dire des choses horribles et blessantes. Lors d’une simulation en octobre 2020, le chatbot GPT-3 d’OpenAI a dit à une personne demandant une aide psychiatrique de se suicider. Et en février, les utilisateurs de Reddit ont trouvé une resolution de contournement pour faire émerger le “jumeau maléfique” de ChatGPT – qui louait Hitler et spéculait sur des procedures de torture douloureuses.

“Vous vous soumettez à quelque chose qu’une entreprise gère, et cela peut vous rendre extrêmement vulnérable. C’est une érosion supplémentaire de notre autonomie cognitive”, a déclaré Halpern. “Si nous tombons amoureux de ces choses, il pourrait y avoir des modèles d’abonnement sur la route. Nous pourrions voir des personnes vulnérables tomber amoureuses des IA et en être accrochées, puis se voir demander de payer.”