Dans la précipitation pour mettre en œuvre l’IA, l’éthique passe au second plan dans de nombreuses entreprises

[pxn_tldr]

Les entreprises se précipitent pour déployer la technologie d’IA générative dans leur travail depuis le lancement de ChatGPT en 2022.

Les dirigeants se disent enthousiasmés par la façon dont l'IA augmente la productivité, analyse les données et réduit le travail fastidieux.

Selon le rapport 2024 Operate Trends de Microsoft et LinkedIn, qui a interrogé 31 000 travailleurs à temps plein entre février et mars, près de quatre chefs d'entreprise sur cinq estiment que leur entreprise doit adopter la technologie pour rester compétitive.

Mais l’adoption de l’IA sur le lieu de travail présente également des risques, notamment des dommages à la réputation, financiers et juridiques. Le défi de les combattre est qu’ils sont ambigus, et de nombreuses entreprises tentent encore de comprendre comment les identifier et les mesurer.

Dans la précipitation pour mettre en œuvre l’IA, l’éthique passe au second plan dans de nombreuses entreprises

Les programmes d'IA gérés de manière responsable devraient inclure des stratégies de gouvernance, de confidentialité des données, d'éthique, de confiance et de sécurité, mais les gurus qui étudient les risques affirment que les programmes n'ont pas suivi le rythme de l'innovation.

directeur général et associé principal du Boston Consulting Group. Ces programmes nécessitent souvent un investissement considérable et un minimum amount de deux ans pour être mis en œuvre, selon le BCG.

Il s'agit d'un investissement et d'un engagement de temps importants, et les dirigeants d'entreprise semblent plutôt se concentrer sur l'allocation de ressources pour développer rapidement l'IA de manière à augmenter la productivité.

“La mise en position de bonnes capacités de gestion des risques nécessite des ressources et une know-how importantes, que toutes les entreprises ne peuvent pas se permettre ou ne disposent pas aujourd'hui”, a déclaré la chercheuse et analyste politique Nanjira Sam au MIT Sloan Administration Evaluation. Elle a ajouté que « la demande d’experts en gouvernance de l’IA et en risques dépasse l’offre ».

Les investisseurs doivent jouer un rôle furthermore very important dans le financement des outils et des ressources nécessaires à ces programmes, selon Navrina Singh, fondatrice de Credo AI, une plateforme de gouvernance qui aide les entreprises à se conformer aux réglementations en matière d'IA. Le financement des startups d'IA générative a atteint 25,2 milliards de dollars en 2023, selon un rapport de l'Institut pour l'intelligence artificielle centrée sur l'humain de Stanford, mais on ne sait pas exactement combien est allé aux entreprises qui se concentrent sur l'IA responsable.

“Pour adopter l'IA à grande échelle et rapidement de manière responsable, un accent égal doit être placé sur les cadres éthiques, les infrastructures et les outils pour garantir une intégration strong et responsable de l'IA dans tous les secteurs.”

Des endeavours législatifs ont été en cours pour combler cette lacune. En mars, l’UE a approuvé la loi sur l’intelligence artificielle, qui répartit les risques liés aux applications d’IA en trois catégories et interdit celles présentant des risques inacceptables. Pendant ce temps, l’administration Biden a signé en octobre un décret ambitieux exigeant une furthermore grande transparence de la part des grandes entreprises technologiques développant des modèles d’intelligence artificielle.

Mais avec le rythme de l’innovation dans le domaine de l’IA, les réglementations gouvernementales pourraient ne pas suffire à l’heure actuelle pour garantir que les entreprises se protègent.

“Nous risquons un déficit de responsabilité substantiel qui pourrait stopper les initiatives d'IA avant qu'elles n'atteignent la output, ou pire, conduire à des échecs qui entraîneraient des risques sociétaux involontaires, des dommages à la réputation et des problems réglementaires si elles étaient mises en manufacturing”, a déclaré Singh.