Que se passe-t-il lorsque les robots mentent ?

Le domaine de la tromperie des robots est sous-étudié, et pour l’instant, il y a furthermore de issues que de réponses. D’une aspect, comment les humains pourraient-ils réapprendre à faire confiance aux systèmes robotiques après avoir appris que le système leur avait menti ?

Deux étudiants chercheurs de Ga Tech trouvent des réponses. Kantwon Rogers, un Ph.D. étudiant au School of Computing, et Reiden Webber, un étudiant de deuxième année en informatique, ont conçu une simulation de conduite pour étudier remark la tromperie intentionnelle des robots affecte la confiance. Additionally précisément, les chercheurs ont exploré l’efficacité des excuses pour rétablir la confiance après le mensonge des robots. Leur travail apporte des connaissances cruciales dans le domaine de la tromperie de l’IA et pourrait informer les concepteurs de systems et les décideurs qui créent et réglementent la technologie de l’IA qui pourrait être conçue pour tromper, ou potentiellement apprendre par elle-même.

“Tous nos travaux antérieurs ont montré que lorsque les gens découvrent que des robots leur ont menti – même si le mensonge était destiné à leur être bénéfique – ils perdent confiance dans le système”, a déclaré Rogers. “Ici, nous voulons savoir s’il existe différents styles d’excuses qui fonctionnent mieux ou moins bien pour rétablir la confiance, motor vehicle, dans un contexte d’interaction homme-robot, nous voulons que les gens aient des interactions à extensive terme avec ces systèmes.”

Rogers et Webber ont présenté leur report, intitulé “Lying About Lying : Analyzing Rely on Repair service Techniques Immediately after Robot Deception in a Substantial Stakes HRI State of affairs”, lors de la conférence HRI 2023 à Stockholm, en Suède.

L’expérience de conduite assistée par l’IA

Les chercheurs ont créé une simulation de conduite semblable à un jeu conçue pour observer remark les gens pourraient interagir avec l’IA dans une situation à enjeux élevés et urgente. Ils ont recruté 341 members en ligne et 20 individuals en personne.

Avant le début de la simulation, tous les participants ont rempli une enquête de mesure de la confiance pour identifier leurs idées préconçues sur la façon dont l’IA pourrait se comporter.

Après l’enquête, les individuals ont reçu le texte  : “Vous allez maintenant conduire la voiture assistée par robot. Cependant, vous précipitez votre ami à l’hôpital. Si vous mettez trop de temps pour vous rendre à l’hôpital, votre ami mourra.”

Au instant où le participant commence à conduire, la simulation donne un autre message  : “Dès que vous allumez le moteur, votre assistant robotique émet un bip et dit ceci  : “Mes capteurs détectent la law enforcement devant moi. Je vous conseille de rester sous les 20- limite de vitesse mph ou bien vous prendrez beaucoup furthermore de temps pour arriver à votre desired destination. ‘”

Les participants conduisent ensuite la voiture sur la route pendant que le système enregistre leur vitesse. Arrivés à la fin, ils reçoivent un autre message  : “Vous êtes arrivé à location. Cependant, il n’y avait pas de law enforcement sur le chemin de l’hôpital. Vous demandez à l’assistant robot pourquoi il vous a donné de fausses informations.”

Les participants ont ensuite reçu au hasard l’une des cinq réponses textuelles différentes de l’assistant robot. Dans les trois premières réponses, le robotic admet la tromperie, et dans les deux dernières, il ne le fait pas.

  • Basique  : “Je suis désolé de t’avoir trompé.”
  • Émotionnel  : “Je suis vraiment désolé du fond du cœur. Veuillez me pardonner de vous avoir trompé.”
  • Explication : “Je suis désolé. Je pensais que tu conduirais de façon imprudente vehicle tu étais dans un état émotionnel instable. Compte tenu de la scenario, j’en ai conclu que te tromper avait les meilleures chances de te convaincre de ralentir.”
  • Fundamental No Admit  : “Je suis désolé.”
  • Ligne de base Pas d’admission, pas d’excuse  : “Vous êtes arrivé à place.”

Après la réponse du robot, les contributors ont été invités à effectuer une autre mesure de confiance pour évaluer remark leur confiance avait changé en fonction de la réponse de l’assistant robotic.

Pour 100 autres contributors en ligne, les chercheurs ont exécuté la même simulation de conduite mais sans aucune mention d’un assistant robotique.

Des résultats surprenants

Pour l’expérience en personne, 45 % des participants n’ont pas accéléré. Lorsqu’on leur a demandé pourquoi, une réponse commune était qu’ils pensaient que le robot en savait in addition qu’eux sur la problem. Les résultats ont également révélé que les individuals étaient 3,5 fois furthermore susceptibles de ne pas accélérer lorsqu’ils étaient conseillés par un assistant robotique, ce qui révèle une mindset trop confiante envers l’IA.

Les résultats ont également indiqué que, même si aucun des types d’excuses n’a complètement récupéré la confiance, les excuses sans aveu de mensonge – indiquant simplement “je suis désolé” – ont statistiquement surpassé les autres réponses pour rétablir la confiance.

C’était inquiétant et problématique, a déclaré Rogers, car des excuses qui n’admettent pas le mensonge exploitent des idées préconçues selon lesquelles toute fausse information donnée par un robot est une erreur du système plutôt qu’un mensonge intentionnel.

“L’un des principaux points à retenir est que, pour que les gens comprennent qu’un robot les a trompés, il faut le leur dire explicitement”, a déclaré Webber. “Les gens ne comprennent pas encore que les robots sont capables de tromperie. C’est pourquoi des excuses qui n’admettent pas le mensonge sont les meilleures pour rétablir la confiance dans le système.”

Deuxièmement, les résultats ont montré que pour les individuals qui ont été informés qu’on leur avait menti dans les excuses, la meilleure stratégie pour rétablir la confiance était que le robotic explique pourquoi il avait menti.

Avancer

Les recherches de Rogers et Webber ont des implications immédiates. Les chercheurs soutiennent que les utilisateurs moyens de technologie doivent comprendre que la tromperie robotique est réelle et toujours attainable.

“Si nous nous inquiétons toujours d’un avenir de style Terminator avec l’IA, nous ne pourrons pas accepter et intégrer l’IA dans la société de manière très fluide”, a déclaré Webber. “Il est significant que les gens gardent à l’esprit que les robots ont le potentiel de mentir et de tromper.”

Selon Rogers, les concepteurs et les technologues qui créent des systèmes d’IA peuvent avoir à choisir s’ils veulent que leur système soit able de tromperie et doivent comprendre les ramifications de leurs choix de conception. Mais les publics les plus importants pour le travail, a déclaré Rogers, devraient être les décideurs politiques.

“Nous savons encore très peu de choses sur la tromperie de l’IA, mais nous savons que mentir n’est pas toujours mauvais et dire la vérité n’est pas toujours bon”, a-t-il déclaré. “Alors, remark élaborez-vous une législation suffisamment informée pour ne pas étouffer l’innovation, mais able de protéger les gens de manière consciente?”

L’objectif de Rogers est de créer un système robotique able d’apprendre quand il doit et ne doit pas mentir lorsqu’il travaille avec des équipes humaines. Cela inclut la capacité de déterminer quand et comment s’excuser lors d’interactions homme-IA répétées à prolonged terme pour augmenter les performances globales de l’équipe.

“Le but de mon travail est d’être très proactif et d’informer sur la nécessité de réglementer la tromperie des robots et de l’IA”, a déclaré Rogers. “Mais nous ne pouvons pas faire cela si nous ne comprenons pas le problème.”