Un modérateur de contenu TikTok a allégué dans un procès que le travail lui avait causé un TSPT – et maintenant son avocat dit que l'entreprise ne la laissera pas travailler

L’employée a allégué dans un recours collectif qu’elle avait vu “des milliers d’actes de violence extrême et graphique”, y compris le viol d’enfants et le cannibalisme.

  • Un modérateur de contenu TikTok poursuit l’entreprise en justice, alléguant qu’elle n’offrait pas un lieu de travail sûr
  • L’avocat de Frazier a déclaré que TikTok ne la laisserait pas travailler et qu’il n’est pas clair si elle sera payée
  • Fb a payé 52 hundreds of thousands de bucks dans un règlement de recours collectif aux modérateurs diagnostiqués avec le SSPT

TikTok empêche une modératrice de contenu de travailler après avoir poursuivi l’entreprise, alléguant qu’elle n’offrait pas un lieu de travail sûr et que son travail lui causait un difficulty de worry submit-traumatique (SSPT), a déclaré son avocat.

Williams a déclaré qu’il n’était “pas clair” si Frazier serait payé pour le travail manqué.

La plainte, déposée jeudi devant le tribunal de district des États-Unis pour le district central de Californie, a déclaré que le travail de Frazier incluait de passer 12 heures par jour à examiner le contenu « dérangeant ». Pendant son travail, Frazier a été témoin de “milliers d’actes de violence extrême et graphique”, notamment de viols d’enfants, de mutilations d’animaux, d’agressions sexuelles et de fusillades de masse, selon la poursuite.

En raison de “l’exposition constante et non atténuée à un contenu hautement toxique”, Frazier a développé un TSPT, de l’anxiété et une dépression, selon la poursuite.

Le costume indique également que Frazier fait “d’horribles cauchemars” et rejoue souvent “des vidéos qu’elle a vues dans sa tête” en essayant de dormir.

Bien qu’il soit conscient de la façon dont le travail de modération de contenu peut être dommageable, la poursuite allègue que ByteDance et TikTok n’ont pas mis en œuvre des normes de sécurité à l’échelle de l’industrie, telles que la désactivation de l’audio, la réduction ou le flou des events du contenu perturbant. La poursuite allègue également que les entreprises ne fournissent pas un soutien adéquat en matière de santé mentale.

Les modérateurs de contenu regardent trois à 10 vidéos en même temps et ne passent pas additionally de 25 secondes sur une seule vidéo en raison du “quantity absolu” du contenu TikTok, selon la combinaison.

ByteDance et TikTok peuvent superviser les modérateurs de contenu by way of un programme exclusif de révision de vidéos pour vérifier qu’ils “respectent strictement les pauses”, allègue la poursuite, et l’entreprise peut “refuser le paiement” si un employé utilise in addition que le temps de pause qui lui est alloué.

Interrogé sur l’affirmation de Williams selon laquelle Frazier avait été réprimandé et incapable de travailler à la suite du procès, TikTok n’était pas immédiatement disponible pour commenter.

Frazier est employé par la société Telus Worldwide, qui have interaction des modérateurs de contenu pour TikTok, et est un “modérateur de contenu de leading niveau” depuis janvier 2018, indique la poursuite. Telus Worldwide, qui n’est pas désigné comme défendeur dans le procès, n’a pas répondu à une demande de commentaire.

Frazier demande un procès devant jury et une indemnisation pour elle-même et d’autres modérateurs de contenu américains qui ont été exposés à des vidéos et des images dérangeantes sur TikTok, et pour que TikTok et ByteDance fournissent un soutien et un traitement en matière de santé mentale aux modérateurs de contenu.

Les modérateurs de contenu alléguant qu’ils ont développé des problèmes psychologiques en raison de leur travail ont été un problème majeur sur d’autres plateformes de médias sociaux. Fb a payé 52 millions de pounds dans un règlement de 2020 aux modérateurs diagnostiqués avec un TSPT à la suite de leur travail, que The Verge a qualifié de « reconnaissance historique du tribut que la modération de contenu fait peser sur ses effectifs ».