Le pape François a mis en garde contre les dangers de l’intelligence artificielle, affirmant que cette technologie risque de transformer les relations humaines en de simples algorithmes.
Le pape François au G7
Le pape François a fait valoir son autorité morale auprès du G7, invité par l’Italie à prendre la parole lors d’une session spéciale de leur sommet annuel sur les dangers et les promesses de l’intelligence artificielle. Il est ainsi devenu le premier pape à assister au G7, offrant un point de vue éthique sur une question qui est de plus en plus à l’ordre du jour des sommets internationaux, des politiques gouvernementales et des conseils d’administration des entreprises.
Le pape François a déclaré que les hommes politiques doivent prendre l’initiative de veiller à ce que l’IA reste centrée sur l’humain, afin que les décisions concernant le moment d’utiliser des armes ou même des outils moins mortels soient toujours prises par des humains et non par des machines. « Nous condamnerions l’humanité à un avenir sans espoir si nous privions les gens de la capacité de prendre des décisions sur eux-mêmes et sur leur vie, en les condamnant à dépendre des choix des machines », a-t-il déclaré.
La déclaration finale du G7
La déclaration finale du G7 reflète largement les préoccupations du pape François. Les dirigeants se sont engagés à mieux coordonner les cadres de gouvernance et de réglementation entourant l’IA pour qu’elle reste « centrée sur l’humain ». Dans le même temps, ils ont reconnu les impacts potentiels sur le marché du travail de la substitution des travailleurs humains par des machines et sur le système judiciaire des algorithmes prédisant la récidive.
« Nous poursuivrons une transformation numérique inclusive, centrée sur l’humain, qui soutient la croissance économique et le développement durable, maximise les avantages et gère les risques, conformément à nos valeurs démocratiques communes et au respect des droits de l’homme », ont-ils déclaré.
La nécessité d’un traité international
Le pape François a appelé à la conclusion d’un traité international garantissant que l’intelligence artificielle soit développée et utilisée de manière éthique. Il y affirme qu’une technologie dépourvue de valeurs humaines telles que la compassion, la miséricorde, la moralité et le pardon est trop dangereuse pour se développer sans contrôle.
Il n’a pas réitéré explicitement cet appel dans son discours de vendredi, mais il a clairement indiqué que la responsabilité incombait aux responsables politiques de prendre l’initiative sur cette question. Il les a également exhortés à interdire à terme l’utilisation d’armes autonomes létales, familièrement appelées « robots tueurs ».
« Aucune machine ne devrait jamais choisir de prendre la vie d’un être humain », a-t-il déclaré.
L’impact de l’IA sur la société
La technologie de l’IA générative a ébloui le monde par sa capacité à produire des réponses de type humain, mais elle a également suscité des craintes quant à la sécurité de l’IA et conduit à une multitude d’efforts mondiaux pour la maîtriser. Certains s’inquiètent des risques catastrophiques mais lointains pour l’humanité, en raison de son potentiel à créer de nouvelles armes biologiques et à alimenter la désinformation. D’autres s’inquiètent de ses effets sur la vie quotidienne, par le biais de biais algorithmiques qui entraînent des discriminations ou de systèmes d’IA qui suppriment des emplois.
Sur le plan réglementaire, les membres du G7 ont été à l’avant-garde du débat sur la surveillance de l’IA. Le Japon, qui a assuré la présidence tournante du G7 l’an dernier, a lancé le processus Hiroshima AI pour élaborer des principes directeurs internationaux et un code de conduite pour les développeurs d’IA.