in

Des signaux cérébraux transformés en parole grâce aux implants et à l’IA

Des chercheurs de l’Université Radboud et de l’UMC Utrecht ont réussi à transformer les signaux cérébraux en parole audible. En décodant les signaux du cerveau grâce à une combinaison d’implants et d’IA, ils ont pu prédire les mots que les gens voulaient prononcer avec une précision de 92 à 100 %. Leurs résultats sont publiés ce mois-ci dans le Journal of Neural Engineering.

La recherche indique un développement prometteur dans le domaine des interfaces cerveau-ordinateur, selon l’auteur principal Julia Berezutskaya, chercheuse à l’Institut Donders de l’Université Radboud pour le cerveau, la cognition et le comportement et à l’UMC Utrecht. Berezutskaya et ses collègues de l’UMC Utrecht et de l’Université Radboud ont utilisé des implants cérébraux chez des sufferers épileptiques pour déduire ce que les gens disaient.

Faire revenir les voix

«À terme, nous espérons mettre cette technologie à la disposition des people enfermés, paralysés et incapables de communiquer», explique Berezutskaya. « Ces personnes perdent la capacité de bouger leurs muscle tissue, et donc de parler. En développant une interface cerveau-ordinateur, nous pouvons analyser l’activité cérébrale et leur redonner la parole.»

Pour l’expérience présentée dans leur nouvel write-up, les chercheurs ont demandé à des personnes non paralysées portant des implants cérébraux temporaires de prononcer un particular nombre de mots à haute voix pendant que leur activité cérébrale était mesurée. Berezutskaya : « Nous avons alors pu établir une cartographie directe entre l’activité cérébrale, d’une section, et la parole, d’autre portion. Nous avons également utilisé des modèles avancés d’intelligence artificielle pour traduire cette activité cérébrale directement en parole audible. Cela signifie que nous n’étions pas seulement capables de deviner ce que les gens disaient, mais que nous pouvions immédiatement transformer ces mots en sons intelligibles et compréhensibles. De furthermore, le discours reconstruit ressemblait même à celui de l’orateur initial en termes de ton de voix et de manière de parler.

Des chercheurs du monde entier travaillent sur des moyens de reconnaître des mots et des phrases dans les schémas cérébraux. Les chercheurs ont pu reconstruire une parole intelligible avec des ensembles de données relativement petits, démontrant que leurs modèles peuvent découvrir la cartographie complexe entre l’activité cérébrale et la parole avec des données limitées. Surtout, ils ont également mené des assessments d’écoute avec des volontaires pour évaluer dans quelle mesure les mots synthétisés étaient identifiables. Les résultats positifs de ces tests indiquent que la technologie réussit non seulement à identifier correctement les mots, mais également à faire passer ces mots de manière audible et compréhensible, tout comme une vraie voix.

Limites

“Pour l’instant, il existe encore un particular nombre de limites”, prévient Berezutskaya. « Dans ces expériences, nous avons demandé aux participants de prononcer douze mots à voix haute, et ce sont ces mots que nous avons essayé de détecter. En général, prédire des mots individuels est moins compliqué que prédire des phrases entières. À l’avenir, les grands modèles de langage utilisés dans la recherche sur l’IA pourraient s’avérer bénéfiques. Notre objectif est de prédire des phrases complètes et des paragraphes de ce que les gens essaient de dire en se basant uniquement sur leur activité cérébrale. Pour y parvenir, nous aurons besoin de furthermore d’expériences, d’implants as well as avancés, d’ensembles de données furthermore volumineux et de modèles d’IA avancés. Tous ces processus prendront encore plusieurs années, mais il semble que nous allons dans la bonne path.