Lorsque nous entendons quelqu'un parler, notre cerveau analyse et filtre automatiquement les plus infimes différences sonores en une fraction de seconde.
Cette capacité remarquable repose sur une analyse inconsciente des sons.
Du point de vue linguistique, les phonèmes représentent les unités sonores minimales qui distinguent le sens des mots, comme le b dans « ours » et le p dans « poire ».
Des chercheurs de l'Université de Californie à San Francisco (UCSF) ont démontré que notre cerveau perçoit des différences encore plus subtiles. Le gyrus temporalis superior, région du lobe temporal, détecte les « traits » phonétiques, ces caractéristiques acoustiques distinctives les plus fines.
Le mode d'articulation au cœur du processus
Dans une étude impliquant six patients épileptiques équipés d'électrodes corticales en prévision d'une chirurgie cérébrale, les participants ont écouté 500 phrases anglaises aléatoires prononcées par différentes voix.
Les résultats ont révélé des réponses électriques spécifiques dans le gyrus temporalis superior pour les phonèmes partageant les mêmes traits. Ainsi, les sons ne sont pas traités par phonème isolé (a, b, k...), mais par catégories comme les occlusives (p, t, k) ou les fricatives (f, v, s, z). Notre cerveau catégorise donc les sons selon leur mode d'articulation.
Une aptitude partagée avec les primates
Selon les scientifiques, cette mécanisme explique notre aptitude à décoder sans effort un flux continu de parole : les traits sont assemblés en phonèmes, puis en mots et phrases, le tout en millisecondes.
Fait notable : les singes possèdent également des neurones sensibles à ces traits phonétiques, suggérant que les bases du langage humain pourraient avoir évolué à partir de ces capacités primitives. (adw)