Amazon a lancé jeudi Amazon Halo, un groupe portable pour concurrencer FitBit et Apple Observe. Comme ses concurrents, Halo peut suivre la fréquence cardiaque et les schémas de sommeil, mais il cherche également à se différencier avec une fonctionnalité particulière: juger de votre état émotionnel à partir de votre ton de voix.




« Amazon Tone » prétend vous dire remark vous parlez aux autres. Il utilise « l'apprentissage automatique pour analyser l'énergie et la positivité dans la voix d'un shopper afin qu'il puisse mieux comprendre remark il peut sonner aux autres, contribuant ainsi à améliorer sa interaction et ses relations », lit-on dans le communiqué de presse d'Amazon pour Halo.

Les authorities en IA doutent que le nouveau moveable Halo d'Amazon puisse juger avec précision l'émotion dans votre voix et s'inquiéter des risques pour la vie privée

Pour donner un exemple, le médecin-chef d'Amazon, Maulik Majmudar, a déclaré que Tone pourrait vous donner des commentaires tels que: « Le matin, vous aviez l'air calme, ravi et chaleureux. » Selon Majmudar, Tone analyse les qualités vocales comme votre « hauteur, intensité, tempo et rythme » pour vous dire comment il pense que vous sonnez aux autres.




Les authorities doutent qu’un algorithme puisse capturer la nuance de la parole humaine

« Je doute que la technologie actuelle soit able de déchiffrer le code de communication humain très complexe et le fonctionnement interne de l'émotion », a déclaré le Dr Sandra Wachter, professeur agrégé d'éthique de l'IA à l'Université d'Oxford.

« La façon dont nous utilisons notre voix et notre langage est grandement influencée par les attentes sociales, la society et les coutumes. Attendre qu'un algorithme soit able de lire et de comprendre toutes ces subtilités ressemble additionally à une entreprise ambitieuse », a-t-elle déclaré.

Wachter a ajouté que revendiquer l'algorithme peut vous dire remark les autres jugent votre voix brouille encore as well as les eaux.

« Ici, la machine doit comprendre comment quelqu'un parle (et ce qu'il dit) ET déduire remark quelqu'un d'autre comprend et interprète ces mots. C'est une tâche encore moreover complexe motor vehicle il faut lire deux esprits. Un algorithme de médiateur ou d'interprète semble très étrange, je doute qu'un système (du moins à ce stade) soit capable de déchiffrer ce code social complexe « , a-t-elle déclaré.

Le collègue de Mozilla, Frederike Kaltheuner, a convenu que l'analyse vocale a des limites inhérentes. Les systèmes de reconnaissance vocale ont également eu des difficultés avec différents sorts de voix, a-t-elle déclaré. « La précision est généralement plus faible pour les personnes qui parlent avec un accent ou qui parlent dans une deuxième langue. »

Amazon dit que Tone n’est pas un risque pour la vie privée. Les professionals ne sont pas si sûrs.

Amazon dit avoir opté pour la fonctionnalité Tone pour les propriétaires de Halo. Une fois que vous l'allumez, il s'exécute en arrière-plan, enregistrant de courts extraits de votre voix tout au very long de la journée pour analyse. Il existe également une possibility pour l'activer pour des conversations spécifiques, d'une durée maximale de 30 minutes.

Amazon affirme que toutes ces données sont conservées en toute sécurité, avec tout le traitement effectué localement sur votre téléphone, qui supprime ensuite les données. « Les échantillons vocaux ne sont jamais envoyés au cloud, ce qui signifie que personne ne les entend jamais, et vous avez le contrôle overall de vos données vocales », a écrit Majmudar.

L'insistance d'Amazon pour que les employés humains n'écoutent aucun des enregistrements de Tone semble faire allusion au minute où Amazon, ainsi que les autres grandes entreprises, a été pris dans un scandale après que des rapports ont révélé que des enregistrements Alexa sensibles étaient envoyés à des business owners humains pour examen.

Amazon Tone vous dira dans l'application Halo comment il pense que vous sonnez.

Amazone

Mais les gurus affirment que même sans que les êtres humains n'écoutent les enregistrements audio Tone, il y a des implications importantes pour la vie privée.

« Ma première impression est que c'est presque comme si Amazon avançait aussi vite que feasible pour devancer les révélations publiques sur ses propres incursions dans l'espace insurtech », a déclaré Stefflbauer.

« Je suis alarmé lorsque j'entends parler de ce form d'évaluation, car, bien que je ne vois aucun avantage à en tirer, les employeurs pourraient certainement le faire. Les assureurs le pourraient certainement. Les administrateurs publics qui supervisent la dilemma des prestations (comme le chômage) pourraient certainement, » elle a ajouté.

« Le signe ultime pour moi que vous, en tant que shopper, n'êtes pas la cible ultime des données collectées est qu'Amazon a déjà des partenariats avec des assureurs comme John Hancock et des sociétés de dossiers médicaux comme Cerner », a ajouté Stefflbauer.

John Hancock a annoncé jeudi qu'il serait le leading assureur-vie à intégrer Amazon Halo. « À partir de cet automne, tous les shoppers de John Hancock Vitality pourront associer l'Amazon Halo Band au programme pour gagner des details Vitality pour les petits pas quotidiens qu'ils prennent pour essayer de vivre furthermore longtemps et en meilleure santé », a déclaré la compagnie d'assurance dans un communiqué de presse.

Kaltheuner a déclaré qu'il était bon que la fonction Tone soit activée, mais les données anonymisées de Halo pourraient toujours être partagées en masse avec des tiers. « Même si c'est global et anonyme, ce n'est peut-être pas quelque chose que vous voulez que votre montre fasse », a-t-elle déclaré.

« Nos émotions sont l’un des elements les moreover intimes et personnels de notre personnalité »

Chris Gilliard, un qualified en surveillance et en confidentialité au Digital Pedagogy Lab

« Amazon a ressenti la chaleur quand il a été révélé que de vrais humains écoutaient des enregistrements Alexa, c'est donc leur effort and hard work pour court-circuiter cette critique particulière, mais dire que ces systèmes seront` `privés  » étire le sens de ce mot au-delà de toute reconnaissance,  » il a dit.

Wachter a déclaré que si, comme le prétend Amazon, un algorithme était capable d'analyser avec précision l'émotion dans la voix des gens, cela pourrait poser un problème potentiel de droits de l'homme.

« Nos pensées et nos émotions sont protégées par la loi sur les droits de l'homme, par exemple la liberté d'expression et le droit à la vie privée », a déclaré Wachter.

« Nos émotions et nos pensées sont l'un des areas les as well as intimes et personnels de notre personnalité. De plus, nous ne sommes souvent pas capables de contrôler nos émotions. Nos pensées et nos émotions intérieures sont en même temps très importantes pour former des views et les exprimer. C'est l'une des raisons pour lesquelles le droit des droits de l'homme ne permet aucune intrusion sur eux.

« Par conséquent, il est très important que cette barrière ne soit pas envahie et que cette frontière soit respectée », a-t-elle ajouté.