Deux équipes de chercheurs ont réussi à redonner la voix à des personnes muettes. Les deux équipes ont utilisé l’IA pour reconnaître les mots exprimés par les personnes et les exprimer à l’aide d’un synthétiseur vocal.
Des chercheurs utilisent des implants reliés à une IA pour permettre à des personnes muettes de communiquer
L’IA a trouvé son utilisation dans la médecine, grâce à elle les personnes muettes peuvent « retrouver leur voix ». Deux équipes de chercheurs californiens ont mis au point un système qui permet aux personnes muettes de « parler » grâce à des implants cérébraux relié à une IA. Les deux équipes ont utilisé des méthodes différentes pour faire fonctionner leur système, mais elles utilisent toutes les deux de l’IA.
C’est là que l’IA devient utile, les chercheurs ont entraîné l’IA à reconnaître les signaux électriques qu’envoie Pat lorsqu’il prononce certains mots. Les scientifiques ont entraîné l’IA avec un grand groupe de vocabulaire de 125 000 mots et d’un petit groupe de vocabulaire de 50 mots. L’IA est assez précise, elle a un taux d’erreur de 9,1 % sur le petit groupe de vocabulaire. Ce taux passe à 23,8 % sur le plus grand groupe de vocabulaire, mais Francis Willett se veut rassurant.
Environ trois mots sur quatre sont déchiffrés correctement
L’équipe de Francis Willett a publié sur la chaîne YouTube de Nature une vidéo montrant comment fonctionne son IA.
On y voit Pat, branché à un ordinateur qui se concentre sur des mots affichés à l’écran. L’IA semble reconnaître assez rapidement ce que lit la sexagénaire.
Une IA et un avatar pour redonner une voix aux personnes muettes
Toujours en Californie, mais à San-Francisco cette fois, une deuxième équipe de chercheurs menée par le neurochirurgien Edward Chang à également trouver un moyen d’utiliser l’IA pour permettre aux personnes muettes de communiquer. Leur méthode est cependant légèrement différente, mais surtout plus rapide. Ici, les chercheurs ont placé 253 microélectrodes, contenues dans un rectangle aussi fin que du papier, sur la surface du cortex d’Ann, une patiente volontaire de 47 ans.
Avec cette méthode, l’appareil d’Edward Chang arrive à traduire 78 mots par minutes, c’est 14 mots de plus qu’avec la première technique présentée. L’équipe a formé des algorithmes d’intelligence artificielle pour reconnaître les schémas d’activité cérébrale d’Ann lorsqu’elle voulait prononcer des mots. Ann a dû prononcer 249 phrases à partir de 1024 mots. La méthode des chercheurs de San-Francisco permet de traduire plus de mots plus rapidement, mais elle a un taux d’erreur plus élevé que celui de la méthode des scientifiques de Stanford. Avec la technique d’Edward Chang, on obtient un taux d’erreur de 25,5 %.
Petit plus, les chercheurs de San-Francisco ont également créé un avatar virtuel affiché sur un écran avec un synthétiseur vocal pour donner plus de vie aux mots synthétisés.
httpv://www.youtube.com/watch?v=–4QfZwS2Rc
L’avatar fait un peu peur, mais c’est déjà exploit de pouvoir permettre aux personnes muettes d’avoir une voix. Les appareils sont assez encombrants, mais il ne fait aucun doute que l’on arrivera plus tard à réduire leur taille et les rendre plus performants, à l’instar des lunettes qui permettent de lire sur les lèvres.