Scoperto come il cervello riconoscere i suoni delle lingue

  • In LECCE
  • ven 15 Novembre 2019
Scoperto come il cervello riconoscere i suoni delle lingue
A sinistra sorgenti neuronali nella corteccia uditiva primaria e nel giro temporale superiore durante la decodifica delle vocali, a destra la cuffia elettroencefalografica a sensori attivi

Dai ricericatori del Centro di Ricerca Interdisciplinare sul Linguaggio (Cril) dell' Unisalento

LECCE - Il cervello ha varie e straordinarie funzioni, tra queste il riconoscimento dei suoni delle varie lingue. Ma come fa a distinguere le pronunce differenti? E’ quanto si sono chiesti alcuni ricercatori del Cril (Centro di Ricerca Interdisciplinare sul Linguaggio) dell’Università del Salento di Lecce e che stanno trovando importanti risposte.

Quando produciamo i suoni delle parole, i movimenti di lingua e labbra lasciano tracce nel segnale acustico che il cervello segue e interpreta in modo appropriato grazie all’accensione dinamica di gruppi specifici di neuroni. E’ questa una delle importanti dimostrazioni effettuate dai ricercatori del Cril di Lecce, diretto dal professor Mirko Grimaldi, in collaborazione con il professor Francesco Di Russo dell’Università di Roma “Foro Italico”, che per la prima volta hanno fornito evidenze empiriche a una teoria classica sviluppata negli anni ‘50 del Novecento al Mit (Massachusetts Institute of Technology) di Boston da Roman Jakobson e Morris Halle. I risultati della ricerca sono stati pubblicati sulla rivista internazionale Cortex, dedicata allo studio delle relazioni fra sistema nervoso e processi mentali, con il titolo “Electrophysiological evidence of phonemotopic representations of vowels in the primary and secondary auditory cortex” (dall’inglese “Evidenza elettrofisiologica delle rappresentazioni fonemotopiche delle vocali nella corteccia uditiva primaria e secondaria”).



«Negli ultimi trent’anni diversi studi sono interessati a questo tema utilizzando strumentazione molto costosa come la risonanza magnetica funzionale o la magnetoencefalografia, oppure, più di recente, metodiche invasive come l’elettrocorticografia – spiega il professor Grimaldi, che ha ideato e coordinato lo studio - Tali ricerche hanno stabilito che i suoni linguistici sono elaborati nel giro temporale superiore, una parte della corteccia cerebrale che si trova più o meno sopra le nostre orecchie. Come il segnale acustico che arriva all’orecchio fosse convertito in rappresentazioni sonore distinte rimaneva ancora un mistero».

Per studiare questo è stato utilizzato l’elettroencefalografia (Eeg), «una metodica ben nota in campo clinico - dice la dottoressa Anna Dora Manca, del gruppo di ricerca - ma che era ritenuta inappropriata per questo tipo di studi. Grazie a 64 elettrodi premontati su una cuffia abbiamo monitorato tutte le aree cerebrali, e in particolare quelle uditive, mentre i soggetti ascoltavano dei suoni vocalici».

Partendo dalla teoria di Jakobson e Halle che ipotizza che il segnale acustico generato dai suoni linguistici contenga una sorta di ‘imprinting articolatorio’ derivato dal fatto che lingua e labbra assumono posizioni e forme diverse a seconda del tipo di suono prodotto: una /i/, per esempio, si realizza con la lingua in alto spostata in avanti e le labbra tese; un /u/, invece, con la lingua in alto spostata all’indietro e con le labbra arrotondate, si è potuto «decifrare questi tratti acustico-articolatori, definiti ‘tratti distintivi’, il cervello si deve sintonizzare con il segnale acustico e attivare in modo appropriato gruppi specifici di neuroni. Grazie ad analisi molto sofisticate, abbiamo elaborato il segnale Eeg generato dai soggetti durante l’ascolto di suoni e siamo riusciti a ricostruire con precisione millimetrica i gruppi di neuroni coinvolti nella decodifica del segnale acustico proprio di ogni suono», spiegano il professor Francesco Di Russo dell’Università di Roma “Foro Italico” e l’ingegner Francesco Sigona del Cril, che hanno collaborato alla ricerca. In pratica è stata fotografato, per la prima volta, il processo dinamico attraverso cui un segnale acustico viene convertito in rappresentazioni mentali, applicando metodi statistici molto complessi.

Altra scoperta della ricerca riguarda la corteccia uditiva primaria, una piccola area al di sopra del giro temporale superiore, che è impegnata in questo processo. «Finora si pensava che la corteccia uditiva primaria fosse un semplice analizzatore spettro-acustico e che non fosse in grado di generare rappresentazioni mentali di informazioni memorizzate durante l’apprendimento (come le proprietà dei suoni delle lingue che apprendiamo da piccoli) - aggiunge Grimaldi - Il quadro che emerge da questo studio getta una nuova luce sulla complessa dinamica che porta il cervello a convertire onde acustiche che viaggiano nell’aria in suoni e poi in parole. Nella corteccia uditiva primaria, in entrambi gli emisferi, avviene un’analisi preliminare delle caratteristiche che identificano un suono: è come se quella parte del cervello dicesse ‘questa nel segnale dovrebbe essere una /i/, poi ci dovrebbe essere una /a/ e una /u/’, eccetera. In breve, qui vengono mappate le caratteristiche generali dei suoni. Pochi millisecondi dopo, i neuroni nel giro temporale superiore, in modo prevalente nell’emisfero di sinistra, compiono un’analisi più fine estraendo le ‘features’ (le caratteristiche articolatorie) che rendono una /i/ diversa da una /u/, e così via. Il risultato è che gruppi specifici di neuroni si accendono in modo dinamico e differenziato nelle due aree a seconda del suono che stanno elaborando».

E’ stata così trovata la mappa funzionale di neuroni che decodifica i suoni in modo dinamico: gruppi di neuroni diversi si accendono in modo integrato per elaborare suoni diversi. Insomma, la rappresentazione mentale dei suoni linguistici viene generata attraverso la conversione del segnale spettro-acustico in segnale neurofisiologico. Quando produciamo gli stessi suoni avviene il contrario: lo stato neurofisiologico viene convertito in stato spettro-acustico. Proprio come avviene in natura per gli stati della materia, ma mentre nel passaggio dallo stato liquido allo stato gassoso le proprietà della materia si modificano e tutto finisce lì (abbiamo un nuovo stato di materia e basta), nel passaggio dallo stato spettro-acustico a quello neurofisiologico, e viceversa, vengono generate le parole e le infinite relazioni fra loro.

«L’essere umano è l’unico ad avere il potere della parola. Un altro segreto di questo potere - conclude Grimaldi - è stato ora svelato».