in

Une étude met en évidence une relation compliquée entre l'IA et les forces de l'ordre

Une étude récente qui a examiné la relation entre l’intelligence artificielle (IA) et l’application de la loi souligne à la fois la nécessité pour les forces de l’ordre de participer à l’élaboration de politiques publiques concernant l’IA – telles que les réglementations régissant les véhicules autonomes – et la nécessité d’une loi les brokers chargés de l’application des lois pour mieux comprendre les limites et les défis éthiques des technologies d’IA.

“Les forces de l’ordre ont un rôle crucial à jouer dans la mise en œuvre des politiques publiques liées aux technologies de l’IA”, déclare Veljko Dubljevi?, auteur correspondant de l’étude et professeur agrégé de science, technologie et société à la North Carolina Point out University.

“Par exemple, les agents devront savoir comment procéder s’ils arrêtent un véhicule conduit de manière autonome pour une infraction au code de la route. D’ailleurs, ils devront savoir remark arrêter un véhicule conduit de manière autonome. En raison de leur rôle dans maintenir l’ordre community, il est essential que les forces de l’ordre aient un siège à la table de l’élaboration de ces politiques. »

“En outre, il existe un sure nombre de systems alimentées par l’IA qui sont déjà utilisées par les forces de l’ordre et conçues pour les aider à prévenir et à répondre au criminal offense”, déclare Ronald Dempsey, premier auteur de l’étude et ancien étudiant diplômé de Etat NC. “Celles-ci vont des technologies de reconnaissance faciale aux systems conçues pour détecter les coups de feu et informer les forces de l’ordre compétentes.

“Cependant, notre étude suggère que de nombreux agents ne comprennent pas remark ces technologies fonctionnent, ce qui rend difficile ou difficult pour eux d’apprécier les limites et les risques éthiques de ces systems. Et cela peut poser des problèmes importants tant pour les forces de l’ordre que pour le public. ”

Pour cette étude, les chercheurs ont mené des entretiens approfondis avec 20 professionnels de l’application de la loi qui travaillent en Caroline du Nord. Les entrevues ont porté sur une gamme de thoughts, y compris les valeurs et les qualités que les members à l’étude jugeaient essentielles pour les agents chargés de l’application de la loi.

Bien qu’il n’y ait pas eu de consensus parmi la majorité des members à l’étude, plusieurs caractéristiques sont apparues à plusieurs reprises comme des qualités importantes pour un professionnel de l’application de la loi, l’intégrité, l’honnêteté et l’empathie étant les plus souvent citées.

“Il est précieux de comprendre ce que les forces de l’ordre considèrent comme des caractéristiques souhaitables chez les agents, auto ces caractéristiques peuvent éclairer l’élaboration de directives de conception responsables pour les technologies d’IA que les forces de l’ordre utiliseront”, a déclaré Dempsey.

“Les directives de conception peuvent être utilisées pour éclairer la prise de décision en matière d’IA, et il est furthermore facile pour les utilisateurs finaux de travailler avec des outils d’IA si les valeurs guidant les décisions d’IA sont cohérentes – ou du moins pas en conflit – avec les valeurs des utilisateurs finaux. “, dit Dubljevi.

Les chercheurs ont également interrogé les individuals à l’étude sur leur stage de vue sur l’IA en général, ainsi que sur les systems d’IA existantes et émergentes.

“Nous avons constaté que les participants à l’étude n’étaient pas familiers avec l’IA ou avec les limites des systems d’IA”, explique Jim Brunet, co-auteur de l’étude et directeur de la Public Protection Management Initiative de NC State. “Cela comprenait les systems d’intelligence artificielle que les individuals avaient utilisées au travail, telles que la reconnaissance faciale et les systems de détection de coups de feu. Cependant, les individuals à l’étude ont exprimé leur soutien à ces outils, qu’ils estimaient précieux pour les forces de l’ordre.”

Les participants à l’étude ont également exprimé leur inquiétude quant à l’avenir des véhicules autonomes et aux défis qu’ils pourraient poser à la communauté des forces de l’ordre.

“Cependant, les participants à l’étude ont déclaré qu’ils accueilleraient favorablement l’utilisation publique de véhicules autonomes si cela réduisait les accidents de voiture”, a déclaré Dubljevi. “In addition précisément, les members ont accueilli favorablement l’idée de passer moins de temps à répondre aux mishaps de la route, ce qui leur permettrait de se concentrer sur la lutte contre la criminalité.”

“Il y a toujours des hazards lorsque les forces de l’ordre adoptent des systems qui n’ont pas été développées en pensant aux forces de l’ordre”, déclare Brunet. “Cela s’applique certainement aux systems d’IA telles que la reconnaissance faciale. Par conséquent, il est essentiel que les responsables de l’application des lois aient une development sur les proportions éthiques entourant l’utilisation de ces technologies d’IA. Par exemple, lorsqu’un organisme d’application de la loi choisit de déployer l’IA les outils auront une incidence sur les parties du public qui feront l’objet d’un examen supplémentaire. »

“Il est également important de comprendre que les outils d’IA ne sont pas infaillibles”, déclare Dubljeviš. “L’IA est soumise à des limitations. Et si les responsables de l’application des lois ne comprennent pas ces limits, ils peuvent accorder plus de valeur à l’IA que ce qui est justifié, ce qui peut poser des problèmes éthiques en soi.”