Les paradoxes mathématiques montrent les limites de l'IA

Les humains sont généralement assez bons pour reconnaître quand ils se trompent, mais les systèmes d’intelligence artificielle ne le sont pas. Selon une nouvelle étude, l’IA souffre généralement de constraints inhérentes en raison d’un paradoxe mathématique vieux d’un siècle.

Comme certaines personnes, les systèmes d’IA ont souvent un degré de confiance qui dépasse de loin leurs capacités réelles. Et comme une personne trop confiante, de nombreux systèmes d’IA ne savent pas quand ils font des erreurs. Parfois, il est encore as well as difficile pour un système d’IA de se rendre compte qu’il fait une erreur que de produire un résultat correct.

Des chercheurs de l’Université de Cambridge et de l’Université d’Oslo affirment que l’instabilité est le talon d’Achille de l’IA moderne et qu’un paradoxe mathématique montre les limites de l’IA. Les réseaux de neurones, l’outil de pointe de l’IA, imitent à peu près les liens entre les neurones du cerveau. Les chercheurs montrent qu’il existe des problèmes là où des réseaux de neurones stables et précis existent, mais qu’aucun algorithme ne peut produire un tel réseau. Ce n’est que dans des cas spécifiques que les algorithmes peuvent calculer des réseaux de neurones stables et précis.

Les chercheurs proposent une théorie de la classification décrivant quand les réseaux de neurones peuvent être formés pour fournir un système d’IA fiable dans certaines situations spécifiques. Leurs résultats sont rapportés dans les Actes de l’Académie nationale des sciences.

L’apprentissage en profondeur, la principale technologie d’IA pour la reconnaissance des formes, a fait l’objet de nombreux titres haletants. Les exemples incluent le diagnostic des maladies avec additionally de précision que les médecins ou la prévention des mishaps de la route grâce à la conduite autonome. Cependant, de nombreux systèmes d’apprentissage en profondeur ne sont pas fiables et faciles à tromper.

“De nombreux systèmes d’IA sont instables, et cela devient un handicap majeur, d’autant additionally qu’ils sont de additionally en furthermore utilisés dans des domaines à haut risque tels que le diagnostic des maladies ou les véhicules autonomes”, a déclaré le co-auteur, le professeur Anders Hansen du département de mathématiques appliquées et de physique théorique de Cambridge.. “Si les systèmes d’IA sont utilisés dans des domaines où ils peuvent faire de réels dégâts s’ils tournent mal, la confiance dans ces systèmes doit être la priorité absolue.”

Le paradoxe identifié par les chercheurs remonte à deux géants des mathématiques du XXe siècle : Alan Turing et Kurt Gödel. Au début du XXe siècle, les mathématiciens ont tenté de justifier les mathématiques en tant que langage cohérent ultime de la science. Cependant, Turing et Gödel ont montré un paradoxe au cœur des mathématiques : il est not possible de prouver si certains énoncés mathématiques sont vrais ou fake, et certains problèmes de calcul ne peuvent être résolus avec des algorithmes. Et, chaque fois qu’un système mathématique est suffisamment riche pour décrire l’arithmétique que nous apprenons à l’école, il ne peut pas prouver sa propre cohérence.

Des décennies in addition tard, le mathématicien Steve Smale a proposé une liste de 18 problèmes mathématiques non résolus pour le 21e siècle. Le 18e problème concernait les limites de l’intelligence pour les humains et les equipment.

“Le paradoxe identifié pour la première fois par Turing et Gödel a maintenant été introduit dans le monde de l’IA par Smale et d’autres”, a déclaré le co-auteur, le Dr Matthew Colbrook du Département de mathématiques appliquées et de physique théorique. “Il existe des limites fondamentales inhérentes aux mathématiques et, de la même manière, les algorithmes d’IA ne peuvent pas exister pour certains problèmes.”

Les chercheurs disent qu’en raison de ce paradoxe, il existe des cas où de bons réseaux de neurones peuvent exister, mais qu’un réseau intrinsèquement fiable ne peut pas être construit. “Peu importe la précision de vos données, vous ne pourrez jamais obtenir les informations parfaites pour construire le réseau de neurones requis”, a déclaré le co-auteur, le Dr Vegard Antun de l’Université d’Oslo.

L’impossibilité de calculer le bon réseau de neurones existant est également vraie quelle que soit la quantité de données d’apprentissage. Peu importe la quantité de données auxquelles un algorithme peut accéder, il ne produira pas le réseau souhaité. “Ceci est similaire à l’argument de Turing  : il existe des problèmes de calcul qui ne peuvent pas être résolus, quelle que soit la puissance de calcul et la durée d’exécution”, a déclaré Hansen.

“Actuellement, les systèmes d’IA peuvent parfois avoir une touche de conjecture”, a déclaré Hansen. “Vous essayez quelque chose, et si cela ne fonctionne pas, vous ajoutez furthermore de choses, en espérant que cela fonctionne. À un moment donné, vous serez fatigué de ne pas obtenir ce que vous voulez, et vous essayerez une méthode différente. Il est important de comprendre les limites des différentes approches. Nous sommes à un stade où les succès pratiques de l’IA sont bien en avance sur la théorie et la compréhension. Un programme sur la compréhension du les fondations de l’informatique IA sont nécessaires pour combler ce fossé.”

“Lorsque les mathématiciens du XXe siècle ont identifié différents paradoxes, ils n’ont pas arrêté d’étudier les mathématiques. Ils ont juste dû trouver de nouvelles voies, automobile ils en comprenaient les limites”, a déclaré Colbrook. “Pour l’IA, il peut s’agir de changer de voie ou d’en développer de nouvelles pour construire des systèmes capables de résoudre des problèmes de manière fiable et transparente, tout en comprenant leurs limites.”

La prochaine étape pour les chercheurs consiste à combiner la théorie de l’approximation, l’analyse numérique et les fondements des calculs pour déterminer quels réseaux de neurones peuvent être calculés par des algorithmes et lesquels peuvent être rendus stables et dignes de confiance. Tout comme les paradoxes sur les limites des mathématiques et des ordinateurs identifiés par Gödel et Turing ont conduit à de riches théories des fondements – décrivant à la fois les limites et les possibilités des mathématiques et des calculs – peut-être qu’une théorie des fondements similaire pourrait s’épanouir dans l’IA.

Matthew Colbrook est chercheur junior au Trinity College or university de Cambridge. Anders Hansen est Fellow à Peterhouse, Cambridge. La recherche a été financée en partie par la Royal Society.