L’algorithme de YouTube recommande à ses utilisateurs des vidéos répréhensibles, controversées ou autrement problématiques, selon les résultats d’une nouvelle étude de crowdsourcing.
Les résultats de l’étude, qui ont été publiés par le fabricant de Firefox Mozilla, ont trouvé des milliers d’instances de YouTube recommandant des vidéos “regrettables”. Cette vaste catégorie comprend les vidéos contenant des propos haineux, de la violence et de la désinformation.
Selon la recherche, 71% des vidéos signalées comme problématiques provenaient des propres recommandations de YouTube. Les vidéos qui ont fait surface avaient tendance à être beaucoup moreover populaires, ce qui suggère que le contenu contenant des éléments controversés est favorisé par le système.
Approximativement 9 % des vidéos « regrettables » ont ensuite été retirées par YouTube pour avoir enfreint la plate-forme de politique de l’entreprise. L’enquête a également révélé que les utilisateurs des pays non anglophones se sont vu recommander des contenus problématiques à un taux 60 % as well as élevé.
Pour résoudre le problème de recommandation de YouTube, Mozilla appelle à “des lois de transparence de bon sens, une meilleure surveillance et une pression des consommateurs”.
“Les recherches de Mozilla et d’innombrables autres industry experts ont confirmé qu’il existe des dommages importants associés à YouTube”, a écrit l’organisation. “YouTube a clairement indiqué qu’ils adoptaient la mauvaise approche pour gérer cette responsabilité. Nous ne nous rapprocherons de la bonne approche qu’avec moreover d’ouverture, de transparence, de responsabilité et d’humilité.”
Mozilla a mené l’étude sur une période de 10 mois through les extensions Firefox et Chrome qui permettaient aux utilisateurs de signaler un contenu « regrettable » ou un contenu qu’ils regrettaient d’avoir regardé.
Au complete, Mozilla a rassemblé 3 362 rapports soumis par 1 622 utilisateurs individuels dans 91 pays. L’étude a été réalisée entre juillet 2020 et juin 2021. Après avoir obtenu les données, Mozilla a embauché 42 chercheurs de l’Université d’Exeter pour examiner les soumissions et vérifier si les vidéos enfreignaient les politiques de YouTube.
En ce qui concerne une définition in addition spécifique d’un “regret YouTube”, le rapport de Mozilla le détaille comme “un discours de haine, une désinformation politique et scientifique démystifiée et d’autres catégories de contenu qui pourraient probablement … violer le règlement de la communauté YouTube”. Cela pourrait également inclure du “contenu limite”, qui pourrait contourner les limites des politiques de YouTube sans les enfreindre. Ce contenu peut conduire les téléspectateurs sur des « chemins dangereux ». Mozilla a identifié pour la première fois “YouTube Regret” dans une étude de crowdsourcing en 2019 dans laquelle les personnes interrogées ont auto-identifié le contenu comme “regrettable”.
Les résultats complets de l’étude, y compris l’analyse des chercheurs, sont disponibles ici.
vous pouvez prendre en cost le podcast AppleInsider en vous abonnant pour 5 $ par mois by using l’application Podcasts d’Apple, ou by way of Patreon si vous préférez un autre lecteur de podcast.