La nouvelle IA brillante de Google a donné des informations erronées dans une vidéo promotionnelle

  • La nouvelle IA de Google a donné des conseils erronés dans une vidéo promotionnelle
  • Cela soulève les dangers potentiels des chatbots IA : prédictions incorrectes et mauvais conseils
  • Certaines entreprises peuvent être légalement responsables du contenu produit par leurs robots AI

Mais la vidéo de Google de mardi montre l’un des principaux pièges de l’IA : des conseils erronés, et pas seulement mauvais. Une moment après le début de la vidéo flashy et rapide, Gemini AI dans la recherche Google a présenté une erreur factuelle repérée pour la première fois par The Verge.

” Gemini suggest immédiatement une liste de options, dont une qui détruirait toutes ses shots.

Les photographes professionnels – ou tous ceux qui ont utilisé un appareil photograph argentique – savent que c'est une très mauvaise idée. Ouvrir une caméra à l'extérieur, là où se déroule la vidéo, pourrait ruiner tout ou partie du movie en l'exposant à une lumière vive.

Google a été confronté à des problèmes similaires avec des produits d'IA antérieurs.

L'année dernière, une vidéo de démonstration de Google montrant le chatbot Bard indiquait à tort que le télescope spatial James Webb était le premier à photographier une planète en dehors de notre propre système solaire.

As well as tôt cette année, le chatbot Gemini a été critiqué pour avoir refusé de produire des photographs de personnes blanches. Il a été critiqué pour être trop « réveillé » et avoir développé des pics truffées d’inexactitudes historiques comme celles des nazis asiatiques et des pères fondateurs noirs. Les dirigeants de Google se sont excusés, affirmant qu'ils “avaient raté le but”.

La vidéo de mardi met en évidence les risks des chatbots IA, qui produisent des hallucinations, qui sont des prédictions incorrectes, et donnent de mauvais conseils aux utilisateurs. L'année dernière, les utilisateurs de Bing, le chatbot IA de Microsoft, ont signalé d'étranges interactions avec le bot. Il a qualifié les utilisateurs d’illusoires, a essayé de leur expliquer en quelle année nous sommes et a même déclaré son amour à certains utilisateurs.

Les entreprises utilisant de tels outils d’IA peuvent également être légalement responsables de ce que disent leurs robots. En février, un tribunal canadien a tenu Air Canada responsable du fait que son chatbot avait fourni à un passager des informations erronées sur les réductions en cas de deuil.

Google n'a pas immédiatement répondu à une demande de commentaire envoyée en dehors des heures normales de bureau.

[sharethis-inline-buttons]