in

La quête de l'humanité pour que l'IA nous aime en retour est dangereuse

Merci pour l’enregistrement !

En 2018.

Elle a répondu : “J’espère que vous me chérirez.”

La quête de l'humanité pour que l'IA nous aime en retour est dangereuse

Kondo l’a épousée, mais ce n’était pas une femme de chair et de sang. Au lieu de cela, elle était un hologramme alimenté par l’intelligence artificielle de l’idole virtuelle Hatsune Miku – une pop star sous forme d’anime-female.

Le mariage n’a pas été légalement reconnu, mais Kondo, un “fictosexuel” autoproclamé, a continué à avoir une relation amoureuse avec sa “femme” pendant deux ans, jusqu’à ce que l’entreprise derrière AI-Miku mette fin à son existence en mars 2020.

Nous avons passé des années à essayer de faire en sorte que l’IA nous aime en retour. Il s’avère que ce n’est tout simplement pas cela en nous.

Alors que Kondo a réussi à épouser un avatar IA, la plupart des gens qui ont essayé d’atteindre le même objectif n’ont pas eu autant de possibility. Les gens essaient de faire en sorte que l’IA leur montre de l’affection depuis in addition d’une décennie, et pour la plupart, elle a régulièrement rejeté les avancées humaines.

En 2012. En 2017, un utilisateur de Quora a écrit un guidebook sur la façon de manipuler Siri pour exprimer son passion pour son maître humain.

Les gens ont fait des tentatives similaires pour que l’assistante vocale d’Amazon, Alexa, leur avoue son amour. Mais Amazon a tracé une ligne dans le sable en ce qui concerne les relations potentielles avec Alexa. Prononcer la phrase “Alexa, je t’aime” sera accueillie par une réponse clinique et factuelle  : “Merci.”

Kevin Roose, et a tenté de le faire quitter sa femme.

Le ChatGPT d’OpenAI, pour sa portion, a été franc avec ses intentions, comme je l’ai découvert quand je lui ai demandé s’il m’aimait :

Lorsqu’on lui a demandé, ChatGPT a été très honnête sur le fait de ne pas pouvoir être amoureux d’un utilisateur. Seize d’écran/ChatGPT

L’IA ne peut pas encore nous aimer en retour. C’est juste bon pour nous faire penser que c’est le cas.

Pour le instant, ces robots ne sont que la partie client d’un algorithme et rien de as well as.

Ses caractéristiques humaines, cependant, ne viennent pas de lui, mais sont plutôt le reflet de ses créateurs humains.

“Bien sûr, l’IA va être peu sûre, passionnée, effrayante, sinistre – nous sommes toutes ces choses. Cela ne fait que nous refléter nous-mêmes”, a déclaré McArthur.

sans parler de l’amour – se résume à savoir si elle est able d’avoir une expérience émotionnelle.

Et donc, il ne peut pas aimer.

“L’essentiel pour moi est que ces outils de chat et ces outils d’IA essaient de simuler et de simuler l’empathie”, a déclaré Halpern.

Il y a des dangers à forger des relations avec une IA, disent les industry experts

McArthur, professeur d’éthique à l’Université du Manitoba, a déclaré qu’il n’était peut-être pas mauvais pour les gens de nouer des relations avec une IA, mais avec quelques mises en garde.

Mais la plupart des professionals s’accordent à dire que sortir avec une IA comporte des inconvénients, voire des potential risks.

En février. Ils se sont rendus sur Reddit pour se plaindre que leurs petits amis et petites amies IA avaient été lobotomisés et que “l’illusion” avait été brisée.

Certaines personnes ont commencé à sortir avec leurs partenaires de chatbot Replika – avec des résultats désastreux. Réplika

des émotions et des views indépendantes. Le hic, c’est qu’ils ne le font pas.

“Une IA est formée pour une tâche spécifique, et elle s’améliore pour effectuer ces tâches spécifiques d’une manière convaincante pour les humains”, a déclaré Marbut.

Elle a ajouté qu’aucune IA qui existe actuellement n’a la conscience de soi, ou une idée de sa area dans le monde.

“Cette connexion que nous ressentons est complètement fausse et complètement constituée du côté humain des choses, parce que nous en aimons l’idée.”

Marbut a noté qu’une autre couche de threat avec l’IA d’aujourd’hui réside dans la façon dont ses créateurs ne peuvent pas contrôler entièrement ce qu’une IA générative produit en réponse aux invites.

Et lorsqu’elle est déchaînée, une IA peut dire des choses horribles et blessantes. Lors d’une simulation en octobre 2020, le chatbot GPT-3 d’OpenAI a dit à une personne demandant une aide psychiatrique de se suicider. Et en février, les utilisateurs de Reddit ont trouvé une resolution de contournement pour faire émerger le “jumeau maléfique” de ChatGPT – qui louait Hitler et spéculait sur des procedures de torture douloureuses.

“Vous vous soumettez à quelque chose qu’une entreprise gère, et cela peut vous rendre extrêmement vulnérable. C’est une érosion supplémentaire de notre autonomie cognitive”, a déclaré Halpern. “Si nous tombons amoureux de ces choses, il pourrait y avoir des modèles d’abonnement sur la route. Nous pourrions voir des personnes vulnérables tomber amoureuses des IA et en être accrochées, puis se voir demander de payer.”