Les grandes entreprises utilisent l'IA pour suivre les messages Slack

  • Des grandes entreprises comme Starbucks et Walmart utilisent l'intelligence artificielle pour suivre les messages de leurs employés.
  • La startup Informed propose un outil d'IA pour surveiller le comportement des travailleurs et détecter les menaces potentielles.
  • Certains experts en matière de confidentialité s'inquiètent de l'utilisation de cette technologie, craignant des erreurs de décision et des violations de la vie privée.

Mindful, une startup de logiciels, utilise l'IA pour lire les messages des employés envoyés sur des plateformes de interaction d'entreprise telles que Slack, Microsoft Groups et Place of work by Meta. Son objectif : surveiller le comportement des salariés pour tenter de comprendre le risque.

Certaines des moreover grandes entreprises américaines, notamment Starbucks, Chevron, T-Cellular, Walmart et Delta, utilisent Conscious pour évaluer jusqu'à 20 milliards de messages individuels adressés à plus de 3 millions d'employés, a déclaré la société, selon CNBC.

Mais même si la surveillance du lieu de travail n’a rien de nouveau, certains authorities ont exprimé leurs inquiétudes quant au fait que l’utilisation de la technologie naissante de l’IA pour suivre les employés peut conduire à une prise de décision erronée – et à un cauchemar en matière de confidentialité.

Delta a déclaré à BI qu'elle utilisait Knowledgeable sur sa plate-forme interne de médias sociaux pour « la surveillance de regimen des tendances et des sentiments » et pour la gestion des dossiers juridiques.

Les grandes entreprises utilisent l'IA pour suivre les messages Slack

Les employeurs utilisent l'outil d'IA d'Knowledgeable, en partie, pour évaluer la manière dont les membres de leur foundation réagissent aux changements dans la politique de l'entreprise ou aux campagnes de internet marketing, a déclaré à CNBC Jeff Schumann, co-fondateur et PDG d'Conscious. De cette façon, les employeurs pourraient voir comment les attitudes des employés diffèrent en fonction de caractéristiques telles que leur âge et leur lieu de résidence, a-t-il déclaré.

Knowledgeable est également utilisé pour identifier les risques potentiels sur le lieu de travail. Formée aux interactions avec les employés, la suite de grands modèles de langage de la startup a la capacité d'analyser le texte et les visuals présents dans les discussions pour signaler les incidents liés à ce qu'une entreprise qualifie d'intimidation, de discrimination, de harcèlement, de pornographie, de nudité et d'autres comportements dits toxiques. a déclaré Schumann.

“Il fit toujours le sentiment des employés en temps réel, ainsi que la toxicité en temps réel”, a-t-il déclaré à propos de l'outil d'IA.

Le PDG a déclaré que les données recueillies par Conscious sur les sentiments et la toxicité des travailleurs n'incluent pas leurs noms. Mais dans des cas extrêmes, la confidentialité peut être révoquée.

Informed dispose d'une fonctionnalité appelée eDiscovery, qui permet à l'IA d'extraire le nom d'un individu si la technologie signale certains mots-clés et déclarations dans un concept Slack ou Groups comme une violation de la politique. Si l'IA identifie le information comme un « risque extrême », l'employeur peut envoyer le nom de l'auteur présumé aux ressources humaines, a déclaré Schumann à CNBC.

“Certains des cas les furthermore courants sont la violence extrême, l'intimidation extrême, le harcèlement, mais cela varie selon le secteur”, a déclaré le PDG. Les incidents tels que les délits d'initiés, a-t-il ajouté, seraient suivis à l'aide de cet outil.

Alors que le PDG d&#39Aware a déclaré à CNBC que ses modèles d'IA ne sont pas utilisés par les entreprises pour prendre des décisions et ne servent pas non moreover de foundation à des mesures disciplinaires, certains experts en matière de confidentialité semblent être en désaccord.

“Aucune entreprise n'est essentiellement en mesure de donner des garanties générales quant à la confidentialité et à la sécurité des LLM et de ce type de systèmes”, a déclaré à CNBC Amba Kak, directeur exécutif de l'AI Now Institute de l'Université de New York.

“Remark faites-vous facial area à votre accusateur quand on sait que l'explicabilité de l'IA est encore immature ?” Jutta Williams, cofondatrice de Humane Intelligence, une organisation à but non lucratif, a déclaré au média, faisant référence au fait que les conclusions d'AI ne dressent pas un tableau complet d'un incident particulier sur le lieu de travail.

Alors que Starbucks, Chevron, T-Mobile, Walmart et Delta n'ont pas informé BI s'ils divulguaient leurs pratiques de surveillance à leurs employés, certaines lois d'État, comme le projet de loi S2628 du Sénat de New York, exigent que les employeurs informent leurs employés de leurs pratiques de surveillance numérique..

L’utilisation de l’IA pour suivre les employés est l’une des dernières façons dont les grandes entreprises semblent surveiller leurs employés – d’autant in addition que les employeurs imposent des mandats de retour au bureau.

les appels et les calendriers de ses employés – ce qui, selon un employé, favorisait une lifestyle de « paranoïa », de « méfiance ». et “manque de regard”.

Dans les cas les furthermore extrêmes, les mécanismes de suivi sur le lieu de travail étaient liés au licenciement d’employés.