FRFAM.COM >> Science >> Santé

Une aide auditive écoute le cerveau

Une nouvelle aide auditive est en cours de développement qui peut savoir qui vous écoutez et s'y adapter.

Une nouvelle aide auditive est en cours de développement, y compris à l'Université de Columbia, qui peut savoir qui vous écoutez et s'y adapter.

Lorsque plusieurs personnes parlent en même temps, par exemple dans un café ou un autre endroit bondé, nous essayons de suivre la voix de l'une de ces personnes et d'ignorer les autres. Les chercheurs peuvent mesurer que notre cerveau fait cela, ainsi que la voix que nous essayons de suivre. Cela peut être fait en mesurant les ondes cérébrales. Les cellules cérébrales, ou neurones, envoient des signaux électriques; si un nombre entier de neurones le font simultanément (comme s'ils battaient tous en rythme sur un tambour), alors l'activité électrique est suffisamment forte et régulière pour être mesurée, même en dehors du cerveau.

L'idée derrière les nouveaux développements est que l'activité de notre cerveau est mesurée puis comparée aux voix de l'environnement. Cette dernière est réalisée par un logiciel lié à l'aide auditive. Ensuite, la voix que nous écoutons est amplifiée, et les autres quelque peu étouffées. La génération actuelle d'aides auditives est déjà efficace pour amplifier les voix humaines et atténuer le bruit de fond, mais amplifier sélectivement la voix humaine que vous écoutez serait un grand pas en avant. Après tout, pour le moment, il peut encore être difficile de suivre une conversation avec une aide auditive lorsque d'autres personnes parlent en arrière-plan.

Les chercheurs n'en sont pas encore là. Ils peuvent déjà suivre et décoder l'activité cérébrale, mais uniquement avec un équipement implanté dans le crâne (cela se produit chez les patients atteints d'épilepsie sévère lors d'une chirurgie cérébrale dans le cadre de leur traitement). Des équipements seront désormais également développés pour effectuer des mesures adéquates à partir de la surface du crâne.

Référence :Cong Han, James O'Sullivan, Yi Luo, Jose Herrero, Ashesh D. Mehta, Nima Mesgarani. Décodage de l'attention auditive indépendant du locuteur sans accès à des sources vocales propres. Avancées scientifiques, 2019 ; 5 (5) :eaav6134 DOI :10.1126/sciaadv.aav6134


[]