Alors que les leaders technologiques se disputent la réglementation de l'intelligence artificielle, les services juridiques de leurs entreprises soulignent les risques commerciaux que la mosaïque de règles initiales pourrait représenter.
Demis Hassabis, PDG de DeepMind, Sam Altman, cofondateur d'OpenAI, et même Elon Musk ont appelé à divers degrés de garde-fous qui, selon eux, pourraient empêcher la technologie de devenir incontrôlable.
Des experts en droit des technologies ont précédemment déclaré à Business Insider qu'une IA générative incontrôlée pourrait inaugurer un « âge sombre » dans lequel les œuvres protégées par le droit d'auteur seraient reproduites par des modèles, décourageant ainsi le travail original, et la désinformation serait facilement créée et diffusée par de mauvais acteurs.
Alors que les dirigeants technologiques et les décideurs politiques tentent de déterminer à quoi ressembleraient réellement ces mesures de sécurité, de plus en plus d'entreprises du Fortune 500 soulignent les risques commerciaux potentiels liés à la réglementation.
Une analyse d'Arize AI, une startup qui aide les entreprises à résoudre les problèmes des systèmes d'IA générative, a révélé que 137 des entreprises Fortune 500 – soit environ 27 % des entreprises Fortune 500 – ont identifié la réglementation de l'IA comme un risque pour leur activité dans les rapports annuels déposés auprès de la Securities and Exchange Commission, au 1er mai.
Et le nombre d'entreprises Fortune 500 qui ont cité l'IA comme facteur de risque a augmenté de près de 500 % entre 2022 et 2024, selon les données d'Arize.
Dans ces rapports annuels, les entreprises citent les coûts qui pourraient découler du respect des nouvelles lois, les pénalités qui pourraient découler de leur infraction ou les règles qui pourraient ralentir le développement de l’IA.
Pour être clair, ils ne disent pas nécessairement qu’ils s’opposent aux lois sur l’IA. Ils craignent plutôt que l’on ne sache pas clairement à quoi ressembleront ces lois, comment elles seront appliquées et si ces règles seront uniformes dans le monde entier.
L’assemblée législative de Californie, par exemple, vient d’adopter le premier projet de loi sur l’IA au niveau de l’État, mais on ne sait pas si le gouverneur Gavin Newsom le signera ou si d’autres États suivront.
« L’incertitude créée par l’évolution du paysage réglementaire présente clairement des risques réels et des coûts de conformité pour les entreprises qui s’appuient sur des systèmes d’IA pour tout, de la réduction de la fraude à la carte de crédit à l’amélioration des soins aux patients ou des appels au service client », a déclaré Jason Lopatecki, PDG d’Arize AI, à Business Insider dans un e-mail. « Je n’envie pas le législateur ou l’assistant qui essaie de comprendre ce qui se passe en ce moment.
»
La réglementation pourrait ralentir les affaires
Les rapports annuels des entreprises mettent en garde les investisseurs contre une longue liste de risques potentiels pour l'entreprise, allant des risques spécifiques — une nouvelle vague de COVID-19 — aux risques généraux, comme les possibilités d'attaques de cybersécurité ou de mauvaises conditions météorologiques. Désormais, la réglementation de l’IA figure dans cette liste d’inconnues, notamment le coût du maintien des nouvelles règles.
Meta, par exemple, a mentionné l'IA 11 fois dans son rapport annuel 2022 et 39 fois en 2023.
L'entreprise a consacré une page entière de son rapport annuel 2023 aux risques de ses propres initiatives en matière d'IA, notamment la réglementation. Le géant de la technologie a déclaré qu'il n'était « pas possible de prédire tous les risques liés à l'utilisation de l'IA », y compris la manière dont la réglementation affectera l'entreprise.
Motorola Solutions a déclaré dans son rapport annuel que le respect des réglementations en matière d'IA « peut être onéreux et coûteux, et peut être incohérent d'une juridiction à l'autre, augmentant encore le coût de la conformité et le risque de responsabilité ».
« Il n’est pas clair non plus comment les lois et réglementations existantes et futures régissant des questions telles que l’IA, les produits compatibles avec l’IA, la biométrie et d’autres analyses vidéo s’appliquent ou seront appliquées en ce qui concerne les produits et services que nous vendons », a écrit la société.
NetApp, une société spécialisée dans les infrastructures de données, a déclaré dans son rapport annuel qu'elle souhaitait « utiliser l'IA de manière responsable », mais qu'elle pourrait « ne pas réussir à identifier ou à résoudre les problèmes avant qu'ils ne surviennent ». L'entreprise a ajouté qu'une réglementation qui ralentit l'adoption de l'IA pourrait nuire à ses activités.
« Dans la mesure où la réglementation retarde ou entrave matériellement l’adoption de l’IA, la demande pour nos produits pourrait ne pas répondre à nos prévisions », a écrit la société.
George Kurian, PDG de NetApp, a déclaré au Wall Street Journal qu'il encourageait la réglementation de l'IA.
« Nous avons besoin d’une combinaison d’autorégulation de l’industrie et des consommateurs, ainsi que d’une réglementation formelle », a déclaré Kurian à la publication.
« Si la réglementation vise à permettre une utilisation sûre de l’IA, elle peut être une aubaine. »
- Certaines entreprises du Fortune 500 voient l'IA comme un risque commercial.
- Les dirigeants technologiques appellent à des garde-fous pour contrôler l'IA.
- De plus en plus d'entreprises du Fortune 500 soulignent les risques liés à la réglementation de l'IA.
- La réglementation de l'IA pourrait ralentir les affaires et entraîner des coûts importants.