Le diverse informazioni emotive sarebbero rappresentatate nel cervello con differenti pattern spaziali di attivazione corticale, rilevabili alla risonanza magnetica funzionale (fMRI) con metodi innovativi di analisi dei dati. Lo hanno dimostrato i ricercatori dell'Università di Ginevra in uno studio pubblicato oggi su Current Biology (T Ethofer et al., Decoding of Emotional Information in Voice-Sensitive Cortices, Curr Biol, May 14, 2009).
La capacità di interpretare correttamente i segnali emotivi preovenienti dalle altre persone è cruciale ai fini di una interazione sociale efficace.
I precedenti studi di neuroimmagine avevano mostrato che le aree uditive sensibili alla voce umana si attivano maggiormente in risposta a un ampio spettro di emozioni espresse vocalmente, rispetto a una prosodia emotivamente neutra; ma questa attivazione potenziata era stata dimostrata senza tenere conto delle specifiche categorie emozionali, rendendo perciò impossibile distinguere le diverse emozioni vocali attraverso le analisi convenzionali dei dati.
Nel nuovo studio i ricercatori sono invece riusciti, mediante analisi multivariata dei dati fMRI applicata al pattern spaziale complessivo di attivazione cerebrale, a distinguere quattro diversi “colori emotivi” con i quali venivano lette delle pseudoparole ai soggetti sperimentali: rabbia, tristezza, sollievo, gioia.
I ricercatori svizzeri spiegano che ciò è stato possibile in quanto i metodi tradizionali di analisi hanno sempre elaborato separatamente singoli “punti” del cervello, mentre loro hanno analizzato il pattern complessivo di attivazione: “in un puzzle composto da tessere bianche o nere, guardando i singoli pezzi è pressoché impossibile dire se questi andranno a comporre la figura di una zebra o di una scacchiera, mentre lo è mettendo insieme tutti i pezzi del mosaico”, semplificano con una metafora i ricercatori.
La capacità di interpretare correttamente i segnali emotivi preovenienti dalle altre persone è cruciale ai fini di una interazione sociale efficace.
I precedenti studi di neuroimmagine avevano mostrato che le aree uditive sensibili alla voce umana si attivano maggiormente in risposta a un ampio spettro di emozioni espresse vocalmente, rispetto a una prosodia emotivamente neutra; ma questa attivazione potenziata era stata dimostrata senza tenere conto delle specifiche categorie emozionali, rendendo perciò impossibile distinguere le diverse emozioni vocali attraverso le analisi convenzionali dei dati.
Nel nuovo studio i ricercatori sono invece riusciti, mediante analisi multivariata dei dati fMRI applicata al pattern spaziale complessivo di attivazione cerebrale, a distinguere quattro diversi “colori emotivi” con i quali venivano lette delle pseudoparole ai soggetti sperimentali: rabbia, tristezza, sollievo, gioia.
I ricercatori svizzeri spiegano che ciò è stato possibile in quanto i metodi tradizionali di analisi hanno sempre elaborato separatamente singoli “punti” del cervello, mentre loro hanno analizzato il pattern complessivo di attivazione: “in un puzzle composto da tessere bianche o nere, guardando i singoli pezzi è pressoché impossibile dire se questi andranno a comporre la figura di una zebra o di una scacchiera, mentre lo è mettendo insieme tutti i pezzi del mosaico”, semplificano con una metafora i ricercatori.
Nessun commento:
Posta un commento