Basi Funzionali e Cognitive dell’Intersoggettività, Sbobinature di Psicologia. Università degli Studi di Padova
chiara-martini
chiara-martini23 settembre 2017

Questo è un documento Store

messo in vendita da chiara-martini

e scaricabile solo a pagamento

Basi Funzionali e Cognitive dell’Intersoggettività, Sbobinature di Psicologia. Università degli Studi di Padova

PDF (3 MB)
55 pagine
53Numero di visite
Descrizione
Sbobine delle lezioni della professoressa Sessa per il corso BFCI a Psicologia Clinica dello Sviluppo
15.99
Prezzo del documento
Scarica il documento

Questo documento è messo in vendita dall'utente chiara-martini: potrai scaricarlo in formato digitale subito dopo averlo acquistato! Più dettagli

Anteprima3 pagine / 55

Questa è solo un'anteprima

3 pagine mostrate su 55 totali

Scarica il documento

Questa è solo un'anteprima

3 pagine mostrate su 55 totali

Scarica il documento

Questa è solo un'anteprima

3 pagine mostrate su 55 totali

Scarica il documento

Questa è solo un'anteprima

3 pagine mostrate su 55 totali

Scarica il documento

1

Basi funzionali e

cognitive

dell’intersoggettività

LM Psicologia Clinica dello Sviluppo - a.a. 2016/2017 - prof. Sessa

2

27 Febbraio 2017

INTRODUZIONE ALLE NEUROSCIENZE SOCIALI E

ALL’INTERSOGGETTIVITÀ LA RELAZIONE E L’INTERSOGGETTIVITÀ: UN’INTRODUZIONE In questo corso parleremo di intersoggettività, in un contesto vicino a quello delle scienze cognitive e

delle neuroscienze; parleremo dei precursori dei vari tipi di relazioni (caregiver/bambino -

studenti/insegnati - amore - odio - tra sconosciuti) e di come esse siano possibili.

In questo corso cercheremo di comprendere quali siano le basi cognitive, neurali e funzionali di ciò che

consente di entrare in relazione ed in interazione con l’altro.

Perché è necessario parlare di intersoggettività e non basta studiare il singolo soggetto? È necessario

pensare all’altro, che ci sia un altro?

Per rispondere a queste domande è necessario prima di tutto ricordare che siamo mammiferi: veniamo

concepiti in virtù di una relazione, ci nutriamo e cresciamo nel corpo di un altro, nasciamo grazie al corpo

di un altro.

Questo implica che forse siamo cablati per le relazioni: nasciamo con un imprinting cerebrale di relazione;

questo significa che lo scambio madre/feto non è solo uno scambio circolatorio, nutr itivo. Il nostro

cervello mappa la relazione con l’altro a partire da un periodo precedente a quello della nas cita.

Partanen nel 2013 ha dimostrato che già quando il bambino è in grembo la relazione viene mappata ed

inizia a crearsi. In questo studio condotto all’università di Helsinki è stato chiesto ad alcune madri,

nell’ultimo periodo della gravidanza, di cantare una ninna nanna ai figli.

Subito dopo la nascita, i bambini venivano “studiati” mediante elettroencefalografia mentre ascoltavano

una registrazione della ninna nanna cantata dalla madre o di una modificata. Questo ha permesso di

dimostrare che il bambino, già appena nato, riconosce la ninna nanna e la voce della madre; vi sono delle

misure neurali che differenziano gli ascolti delle due ninna nanne.

Il cervello reagisce in modo diverso poiché ha già reagito a questo tipo di interazione con la madre prima;

l’interazione non è quindi solo fisiologica ma va ad un livello più “alto”.

Un altro studio, molto importante, condotto da Castiello, Becchio e Gallese consisteva nell’esaminare i

movimenti compiuti da 5 coppie di gemelli alla 14° e alla 18° settimana di gestazione. I movimenti

potevano essere suddivisi in tre tipologie: movimenti verso di sé, movimenti verso l’altro (definiti

movimenti sociali) e movimenti rivolti verso la parete uterina.

Una prima cosa che si può notare è che i movimenti rivolti verso di sé sono in percentuale quelli più

effettuati, sia a 14 che a 18 settimane.

Un’altra cosa interessante è l’aumento, che avviene dalle 14 settimane, della percentuale di movimenti

rivolti verso l’altro: man mano che il bambino cresce tende a rivolgere sempre più movimenti verso

l’altro, che diventa sempre più importante.

In questo studio non si parla solo di quantità dei movimenti rivolti verso l’altro, ma anche di qualità; già a

14 settimane la qualità dei movimenti sociali è diversa da quella che i feti compiono verso sé stessi o

verso la cavità uterina: soltanto per i movimenti rivolti verso l’altro si assiste ad una decelerazione.

3

Una caratteristica fondamentale dei movimenti biologici, rispetto a quelli da “automa”, è che essi sono

fluidi e sono composti da accelerazioni e decelerazioni, in modo non lineare. Quando un feto va a toccare

l’altro si possono notare queste decelerazioni, non present i se il feto tocca sé stesso o la cavità uterina.

Questo porta a pensare che siamo “cablati per la socialità”: nasciamo già con dei meccanismi che sono

“diversi” quando dobbiamo entrare in interazione con gli altri.

Quando nasciamo siamo dotati di un meccanismo potentissimo per relazionarci immediatamente con gli

altri; questo meccanismo, scoperto da Meltzoff nel 1977, è l’imitazione neonatale: quello che accade è che

se la mamma compie alcuni gesti (protrusione della lingua, rigonfiamento delle guance, apertura della

bocca), il bambino cerca di riprodurre questi movimenti.

Questo meccanismo dimostra, appunto, come siamo cablati per entrare in relazione con l’altro.

Lo stesso tipo di meccanismo è stato rilevato da Ferrari anche negli scimpanzé.

LO SVILUPPO DELLE COMPETENZE SOCIALI Trevarthen è un altro dei teorici che si è occupato di intersoggettività. Egli è il primo a parlare di

intersoggettività primaria e a definire la protoconversazione, una forma di “dialogo” in cui è assente il

linguaggio ma in cui vengono rispettati i caratteri e gli elementi definiti paralinguistici (alternanza di

ruoli, rispetto del tono, prosodia, ritmicità).

La protoconversazione sembra quasi un dialogo vero e proprio.

Si potrebbe pensare che è la presenza dell’adulto ad indurre la ritmicità, che egli in qualche modo possa

aiutare il bambino: ci sono delle dimostrazioni che tali protoconversazioni avvengono anche in coppie di

gemelli, senza la presenza di un adulto. Quindi non è necessaria la presenza di un adulto per instaurare

questo “dialogo” ma è sufficiente la presenza di un altro.

Trevarthen parla di protoconversazione come esempio di intersoggettività primaria, nella quale sono

presenti solo due elementi, io e l’altro; poi vedremo che esiste anche quella secondaria in cui entra in

gioco anche l’oggetto.

Un altro elemento cruciale che indica l’importanza per il bambino della relazione è mostrato dal

paradigma dello Still Face; fondamentalmente questo paradigma è strutturato così che vi siano tre minuti

in cui il caregiver e il bambino interagiscono normalmente, con le loro espressioni facciali naturali.

Passati questi tre minuti è richiesto al caregiver di voltarsi e tornare a fissare il figlio con una faccia

assolutamente immobile e di restare in questa situazione per altri tre minuti (difficilmente raggiunti).

Ad un certo punto il bambino o la bambina, molto stressati da questa condizione, iniziano ad auto

consolarsi: inizialmente cerca in tutti i modi di attirare l’attenzione del caregiver ma vedendo che questo

non basta cerca di autoconsolarsi, per poi esplodere in un pianto incontrollabile che si ferma solo quando

il caregiver torna a rispondergli.

Questo paradigma dimostra che il bambino non solo è sensibile ad una relazione, ma la ricerca

spontaneamente: nel momento in cui è assente il bambino entra in una situazione di distress molto elevato.

Il paradigma dimostra anche che la lettura dei cue e dei segnali sociali, in particolare delle espressioni

facciali altrui, è un’aspetto fondamentale dell’intersoggettività e dell’instaurare una relazione.

Dedicheremo a questi aspetti un’ampia parte del corso , ai modelli cognitivi e neurali dell’elaborazione dei

volti, dell’espressione facciale, dell’estrazione della categoria sociale/etnica e parleremo molto anche di

prime impressioni. Vi sono infatti alcune caratteristiche del volto che ci fanno risultare più o meno belli,

affidabili. Tutti questi aspetti sono dei fondamentali modulatori delle relazioni.

Noi parleremo di questi aspetti e di tutti quelli che possono essere considerati i precursori

dell’intersoggettività.

Il volto è una finestra sull’altro, un modulatore della relazione.

Parleremo di volto, di sguardo, di attenzione condivisa che è fondamentalmente quello che Trevar then

dice essere l’intersoggettività secondaria: tale intersoggettività è una forma più evoluta e parliamo di essa

quando oltre a me e l’altro è presente un oggetto. Questa forma di intersoggettività è rilevabile quando,

durante un’interazione caregiver-bambino, il caregiver indica e nomina un oggetto e il bambino, se ha una

sensibilità a captare ed elaborare la direzione dello sguardo, entra in una situazione di attenzione

condivisa sarà in grado di capire il nome di esso; l’intersoggettività secondaria è quindi importante per

l’apprendimento del linguaggio.

4

Abbiamo quindi visto come siamo cablati per la socialità: il nostro cervello effettivamente risponde già

nell’utero a stimoli che sono legati all’interazione o alla relazione con la mamma; appena nati siamo

dotati di un meccanismo innato per sincronizzarci con gli altri (imitazione neonatale); siamo stressanti se

non riusciamo a trovare una relazione.

PSICOLOGIA SOCIALE Adesso vorrei mostrarvi come anche la semplice presenza di un altro, come diceva già Allport (la

psicologia sociale si configura come “un tentativo di comprendere e spiegare come pensieri, sentimenti e comportamento degli individui sono influenzati dalla presenza reale o immaginata degli altri”), ha un’influenza molto grande ed importante sui nostri comportamenti, sui nostri giudizi e sui nostri giudizi

percettivi, sulla nostra attività neurale.

Per concludere questa introduzione all’intersoggettività ho raccolto questi esempi che ora vi illustrerò.

ASH (influenza chiaramente esplicita) La semplice presenza di un altro modifica il mio comportamento.

Un esempio classico e lampante è quello storico dell’esperimento di Ash del 1956.

Si tratta di un esperimento che parte dal presupposto che, se si è all’interno di un gruppo, allora il mio

comportamento tenderà ad essere diverso e, in particolare, tenderà a conformarsi.

Per dimostrarlo si riunivano in una stanza 8 individui (7 collaboratori e un solo “soggetto sperimentale”) e

veniva detto loro che si trattava di un compito di giudizio percettivo: essi dovevano, dopo che veniva

presentata loro una scheda con tre linee di lunghezza differente, decidere a quale di essa corrispondesse

una quarta linea presentata in un’altra scheda.

I soggetti venivano disposti in riga e il soggetto sperimentale era sempre l’ultimo o il penultimo di essa.

I risultati dimostrano che, nel momento in cui i soggetti confederati davano tutti una risposta errata, il

soggetto sperimentale tendeva a conformarsi e a dare a sua volta la risposta errata (il 75% dei casi).

Questo quindi dimostra che l’appartenenza ad un gruppo modifica il comportamento dell’individuo.

BOOTHBY ET AL. (influenza più sottile) Questo studio è stato svolto nel 2014-2016 ed ha come titolo “Shared Experiences are Amplified” (= “Le

esperienze condivise sono amplificate”).

In questo esperimento venivano invitate delle coppie di soggetti

sperimentali (uno dei due era un complice degli sperimentatori) in

laboratorio e, nella prima parte, vi potevano essere due condizioni:

entrambi i soggetti mangiavano assieme del “buon cioccolato”

(condivisione) oppure un soggetto mangiava il cioccolato mentre

l’altro svolgeva un’azione non inerente (non condivisione).

I risultati di questo primo studio dimostrano che, nel momento in

cui veniva loro chiesto di dare un punteggio al gradimento ed al

gusto del cioccolato, i punteggi erano maggiori nella condizione di

condivisione, rispetto a quella di non condivisione. Questo implica

un

amplifica

mento dell’esperienza, nel momento in cui essa è

condivisa.

Una domanda che ci si può porre è se la

condivisione migliori o amplifichi un’esperienza.

La differenza può essere vista nel momento in cui

l’esperienza sia negativa.

Per rispondere a tale domanda hanno sottoposto i

soggetti allo stesso esperimento ma utilizzando

un cioccolato “cattivo”. Le condizioni

sperimentali erano le stesse del primo

esperimento, condivisione o non condivisione

dell’esperienza.

5

In questo caso i risultati hanno dimostrato che un’esperienza, quando condivisa, non viene migliorata ma

amplificata. Nei grafici si può infatti notare che la valutazione del cioccolato risultava peggiore nella

condizione di condivisione, rispetto a quella di non condivisione.

KING-CASAS (influenze evidenziate attraverso sofisticate tecniche di registrazione dell’attività

neurale) Abbiamo visto l’esperimento di Ash in cui si dimostra come il giudizio di altri componenti di un gruppo

possa influenzare quello del singolo e gli esperimenti di Boothby che dimostrano come la sola presenza e

condivisione di un’esperienza possa influenzare il nostro giudizio su un’esperienza.

Esistono poi alcuni livelli ancora più sottili. L’hyperscanning è una tecnica molto raffinata che consente di

registrare l’attività neurale di due soggetti che interagiscono; questa tecnica è relativamente recente ma

precedentemente si utilizzava la fMRI o l’elettroencefalografia.

In sintesi si registra contemporaneamente l’attività di due individui e si nota come esse possano correlare.

Attraverso l’utilizzo di queste tecniche è stato quindi possibile dimostrare che ad un livello estremamente

sottile, quando si entra in relazione con un altro individuo alcune regioni cerebrali iniziano a correlare con

l’attività delle regioni cerebrali altrui, indipendentemente da quello che sta accadendo.

Vi sono alcune regioni cerebrali che rispondono a quelle dell’altro.

King-Casas lo dimostra attraverso l’utilizzo di un gioco economico, un trust game.

Ma quale potrebbe essere una situazione sperimentale, ma che è un’esperienza anche della vita reale, in

cui è molto importante sincronizzarsi? Immaginate per esempio un duo di violini.

Uno studio ha effettuato proprio questa misurazione con la tecnica della spettroscopia nel vicino-

infrarosso che ha permesso di osservare come alternativamente i due violinisti “regolino” la loro attività

cerebrale sulla base di quella dell’altro, in modo da mantenere sempre lo stesso tempo.

6

28 Febbraio 2017

Anche quella di oggi sarà una lezione introduttiva ma iniziamo ad andare un pochino più a fondo , per poi

partire alla grande settimana prossima.

Riassumendo molto velocemente alcuni passaggi fondamentali visti ieri:

1. Abbiamo detto che siamo “cablati per la socialità”: come dimostrato dallo studio di Castiello già in utero coppie di gemelli alla 14° o alla 18° settimana hanno già una qualche forma di “socialità”, in

particolare per quello che riguarda i movimenti diretti verso il feto gemello.

In questo studio venivano confrontati tre tipi di movimento (diretti verso sé stessi, diretti verso la

cavità uterina o diretti verso l’altro gemello) nelle due diverse settimane di gestazione: quello che si

rilevava e che era l’elemento interessante dello studio era, al di là dell’incremento del numero dei

movimenti verso l’altro dei feti, la qualità dei movimenti verso l’altro. Infatti, a differenza di quanto

accadeva per i movimenti verso sé o verso la cavità uterina, quando i movimenti erano verso l’altro si

assisteva a delle decelerazioni.

Gli autori dello studio affermano che tali decelerazioni riflettevano la necessità di una qualche forma

di controllo e che i movimenti verso gli altri sono movimenti più controllati rispetto agli altri.

2. Il secondo punto visto ieri è che, alla nascita, il neonato possiede una capacità incredibile che gli consente di sintonizzarsi immediatamente con l’altro che gli sta vicino: l’imitazione neon atale.

L’imitazione neonatale è stata scoperta da Meltzoff nel 1977.

3. A pochi mesi il bambino ha delle manifestazioni ancora più chiare e lampanti del fatto che ha bisogno di entrare in relazione con gli altri.

Trevarthen parla di protoconversazione: i bambini di pochi mesi sono in grado di rispettare, in qualche

modo, degli elementi paralinguistici (alternanza di turni tra i due parlanti, prosodia) che simulano una

sorta di dialogo.

4. Sempre a pochi mesi abbiamo visto con il paradigma Still Face che il bambino è ad una ricerca costante di un’interazione con l’altro: il bambino legge costantemente le espressioni facciali di chi gli

sta di fronte tant’è che se quest’ultimo non ne manifesta più e non entra più in interazione , il bambino

entra in una situazione di forte stress e distress personale.

Il bambino inizia, in qualche modo, a tentare di autoconsolarsi (tocca parti del corpo o del seggiolone

su cui è seduto, sposta lo sguardo), inizia ad urlare e compie alcune azioni che fanno capire che è in

una situazione di forte disagio perché il bambino cerca la relazione.

La natura quindi ci ha dotato di un sistema complesso per relazionarci e questi ne sono degli esempi.

UN CERVELLO SOCIALE? Gli esempi della lezione scorsa hanno portato alcuni studiosi ad affermare che quando si parla di

cognizione umana dovremmo in realtà parlare di cognizione sociale.

Questa forse è un’estremizzazione ma quello che possiamo dire è che una grossa fetta, una parte molto

importante della cognizione umana è costituita dalla cognizione sociale che può essere poi frazionabile in

tantissime altre capacità. Una è il mentalizing, la teoria della mente: essa è una capacità di pensare a cosa

pensano gli altri.

Vi sono poi la cooperazione ed anche una capacità che sembra essere propria dell’essere umano, quella di

rilevare se qualcuno dinnanzi a noi sta mentendo.

Questi sono chiaramente degli aspetti di più alto livello della cognizione umana ma vediamo cosa dice

Adolphs, che io ritengo molto importante e che credo spieghi in modo molto diret to perché ho pensato di

strutturare in questo modo questo corso: “È facile focalizzarsi su queste abilità cognitive centrali/di alto livello come distintivamente umane, dimenticandosi che esse ovviamente si fondano su informazione sensoriale. L’informazione sensoriale è nella forma di segnali sociali da parte di altri umani, e la percezione sociale media tra processi sensoriali ed inferenza cognitiva per generare conoscenza sociale”. Questo significa che prima del mentalizing, prima della cooperazione c’è un altro di fronte a me che mi invia volontariamente o meno,

come vedremo più avanti nella lezione, dei segnali.

Adolphs descrive una tassonomia di segnali e quindi se ne possono considerare moltissimi: dalle

espressioni facciali, al fatto che l’altro venga riconosciuto come membro di un ingroup o meno.

7

Tutti questi segnali sociali, in conclusione, modulano le nostre interazioni sociali in modo determinante:

in base ai segnali che riceviamo o inviamo la relazione prende una piega piuttosto che un’altra.

Chiaramente un aspetto fortemente legato a questo dei segnali sociali è se esista un cervello sociale a

questo punto: esistono delle regioni specifiche del cervello che ci servono per elaborare specifici segnali

sociali oppure no?

ESISTONO SISTEMI DEDICATI…

L’idea che esistano dei sistemi dedicati all’elaborazione specifica dei segnali sociali fa parte di un filone

teorico più ampio e complesso che prende il nome di modularismo (ne parla Fodor nel 1983 in “The

modularity of mind”), la cui idea chiave è che esistono alcuni processi cognitivi e/o regioni cerebrali che

si occupano di uno specifico tipo di informazione; nel dettaglio, in relazione al contesto di cui stiamo

parlando quindi esisterebbero alcuni processi cognitivi o regioni cerebrali che si occupano in particolare

delle analisi di singoli e specifici segnali sociali.

Non sto qui a spiegarvi nuovamente tutta la storia ma se qualcuno volesse ripassare c’è questo schema in

cui si può vedere come Fodor affermi che la mente è formata da moduli che hanno una serie di

caratteristiche e che quella più importante è che si trattano di sistemi specifici per l’analisi di un

determinato stimolo/categoria di stimoli.

Sempre per parlare un po’ di storia, un esempio estremo del modularismo è rappresentato dalla fren ologia,

la conoscenza della mente (dal greco “phren”, mente, e “logos”, studio). Franz Joseph Gall, un medico

tedesco, afferma che, essendo varie capacità e funzioni psichiche associate a precise regioni cerebrali, esse

possano essere lette attraverso l’analisi morfologica del cranio; secondo questa teoria in base alle

protuberanze o alle depressioni del cranio possono essere inferite particolari funzioni o capacità di un

individuo.

Perché questo preambolo, questa premessa? Perché in effetti ci sono alcuni studiosi molto importanti,

quali Nancy Kanwisher, che ritengono che esistano delle regioni specifiche per, in particolare, l’analisi

dei volti e delle espressioni facciali.

Nancy Kanwisher illustra molto chiaramente la concezione del modularismo nelle neuroscienze cognitive

moderne, in particolare se esiste o meno una regione cerebrale specifica per l’analisi dei volti (area che la

Kanwisher chiama Face Fusiform Area, FFA). (TED Talk 1)

Un’altra studiosa importante per il modularismo nelle neuroscienze sociali è Rebecca Saxe che dal 2006

in poi afferma che esiste una regione cerebrale specifica (la giunzione temporo parietale destra) per

pensare, ragionare sugli stati mentali altrui.

Un altro esempio di modularità è dato da Cosmides che nel 1989 afferma che esistono delle regioni

cerebrali specifiche per la detezione della menzogna.

8

NON ESISTONO SISTEMI DEDICATI

Quella che abbiamo appena esaminato è solo una delle visioni riguardanti il cervello sociale, ma la si può

pensare anche in un altro modo: non esistono proprio delle regioni cerebrali specifiche ma che i sistemi

che vengono utilizzati per l’analisi dei segnali sociali sono gli stessi che possono essere utilizzati anche

per l’analisi di altri stimoli presenti nell’ambiente.

Per esempio, non è detto che la FFA sia una regione cerebrale specifica per l’analisi dei volti ma è

possibile che risponda ad essi perché sono dotati di caratteristiche peculiari di un certo tipo.

Una caratteristica potrebbe essere che noi siamo esperti nei volti: l’ipotesi dell’expertise sostiene che se si

ponesse un soggetto di fronte ad altri oggetti per i quali è esperto allora la FFA si attiverebbe anche per

questo tipo di stimoli.

Ci sono molti stimoli che sono stati compiuti a riguardo e noi ne esamineremo solo alcuni.

Uno tra i più importanti è quello effettuato da Gauthier e al. e pubblicato nel

1999. Gli studiosi hanno costruito con un software, in modo assolutamente

artificiale, alcuni stimoli chiamati greebles (nella figura a lato), che

potrebbero essere criticati in quanto somigliati a dei volti.

I soggetti sperimentali venivano sottoposti ad un training, imparando così a

riconoscerli.

Lo studio veniva effettuato pre e post training: nella fase pre i soggetti non

erano ancora esperti e non sapevano quindi riconoscere i greebles,

condizione che avveniva invece nella fase post. Per entrambe le fasi veniva

valutata l’attivazione della FFA quando venivano presentati i greebles e

quando venivano presentati dei volti.

L’attivazione della FFA nella fase pre training era molto p iù forte per la

presentazione dei volti, rispetto alla presentazione dei greebles.

A seguito del training si nota che l’attivazione della FFA non ha una

differenza statisticamente significativa per la presentazione dei volti rispetto

a quella dei greebles, come accadeva invece nella fase pre.

Questo, anche se non è un’evidenza sperimentale determinante, sembra essere un indizio del fatto che la

FFA non sia specializzata per i volti ma che risponda a stimoli per i quali il soggetto è esperto.

LA VERITÀ STA NEL MEZZO…

Questo studio di Gauthier e altri che sono seguiti (con esperti di automobili) fanno capire che forse la

verità sta nel mezzo: vi sono alcuni moduli cerebrali che si possono specializzare per i segnali sociali ma

non solo per quelli.

Queste nozioni potrebbero sembrare banali ma quello che vorrei capiste alla fine del corso è che tutti

questi fattori entrano in ballo quando ci relazioniamo con un altro individuo.

Se la persona che ho di fronte appartiene ad un gruppo etnico diverso dal mio, ad un gruppo sociale

differente sotto qualche aspetto, lo considererò come un outgroup e, di conseguenza, mi ricorderò il suo

volto peggio di quanto non farei con un soggetto appartenente al mio ingroup: questo è un problema anche

in termini giudiziari nei casi di testimonianza oculare.

Il tema è estremamente complesso anche perché non si conoscono precisamente i meccanismi che portano

a questa differenza di memoria ed elaborazione: si analizza e ricorda un volto di un altro gruppo in modo

peggiore perché non si è esperti per esso oppure perché si categorizza come outgroup e quindi si perdono

delle caratteristiche tipiche dell’individuazione?

SEGNALI SOCIALMENTE RILEVANTI E CERVELLO Passiamo ora alla seconda parte della lezione; iniziamo quindi a fare una tassonomia dei segnali

socialmente rilevanti.Parliamo di cue e segnali sociali perché voglio farvi vedere come processi quali

l’empatia, la teoria della mente sono fortemente modulati da tutti questi fattori.

L’idea è quella di fare una carrellata, basata sulla tassonomia di Adolphs e Birmingham, dei cue e segnali

sociali; poi ci soffermeremo solo su alcuni di essi, nel dettaglio, mentre oggi li vediamo più in generale.

Quando parliamo di cue e segnali sociali possiamo fare innanzitutto due domande; quando abbiamo una

persona di fronte essa ha tutta una serie di caratteristiche, ogni particolare caratteristica x:

 contiene o meno informazione sociale importante per la relazione?  è statica (non può mutare) oppure è mutevole, dinamica?

9

Adolphs e Birmingham affermano che si può immaginare che le varie caratteristiche sociali si trovino su

una sorta di scala graduata in termini di contenuto informativo, mutabilità e controllo (da parte di chi le

manifesta).

In base alle risposte alle domande precedenti e al livello nel la scala graduata vi sono varie alternative:

1. La caratteristica è puramente incidentale (es. altezza fisica, per lo meno nella maggior parte dei casi). In questo caso la caratteristica non funge né da cue né da signal, non è comunicativa.

2. La caratteristica è statica (non può essere “attivata” / “disattivata”) ma contiene informazione per la cui analisi il cervello ha sviluppato meccanismi per la loro detezione e il loro uso (es. l’attrattività è

una caratteristica piuttosto stabile ma veicola informazioni riguardo la fitness, capacità e successo

riproduttivi; l’attrattività di un volto è una delle prime impressioni e informazioni rilevate ). In questo

caso la caratteristica è un cue.

3. La caratteristica è dinamica (può essere “attivata” / “disattivata” e in modo intenzionale o meno). La caratteristica in questo caso ha valore di segnale (es. il piumaggio della coda del pavone che può

essere manipolato per divenire una manifestazione della fitness del maschio e della volontà di

accoppiarsi). In questo caso la caratteristica è un segnale.

4. La caratteristica è dinamica e veicola informazione, quindi è un segnale e il mittente può strategicamente e dinamicamente usarlo (es. aspetti delle espressioni facciali).

I cue sono delle caratteristiche dell’altro che non possono essere attivate o disattivate e che inviano

all’altro una certa quantità di informazione, mentre i segnali sono caratteristiche altrui che possono essere

attivate e disattivare e che inviano informazioni all’altro in modo volontario o meno.

CUE/SIGNAL FUNZIONE/I

SEGNALATE

DINAMICA

O

STATICA?

CONTROLLO

DA PARTE DEL

SEGNALATORE

ESEMPIO DI

SITUAZIONE IN CUI

IL SEGNALE È

INVIATO

Diametro

della pupilla

Attivazione,

interesse,

attenzione =

Emozione

empatica

Dinamico No Attivazione emozionale

Arrossire

Imbarazzo,

vergogna,

attenzione

indesiderata

Dinamico Basso (regolazione

indiretta) Eccessiva lode

Espressioni

facciali

Complesse

(emozione, stato

mentale)

Dinamiche

Medio-alto (sia

involontario che

deliberato)

Conversazioni (interazioni

con le altre caratteristiche)

Direzione

dello sguardo

Attenzione,

interesse sociale e

controllo

Dinamica

Basso-alto (cattura

della visuale per

contatto oculare

intenzionale)

Interazioni sociali

complesse

Olfatto Feromoni Dinamico No (ad eccezione

dei profumi)

Interazione madre-

bambino

Segnali vocali Diversi Dinamici Alto Conversazione

Pianto Bisogno,

separazione Dinamico Basso Fame, rabbia del bambino

Tocco sociale Legame,

accoppiamento Dinamico Alto

Interazione madre-

bambino

Posizione della

testa

Attenzione,

interesse Dinamica Alto

Interazioni sociali

complesse

Postura del

corpo

Emozione,

interesse,

attenzione

Dinamica Alto Interazioni sociali

complesse

Attrattività Fitness Statica No (eccetto trucchi) Scelta del partner

Colore della

pelle Razza Statica No

Scelta del partner e

appartenenza al gruppo

10

Il diametro della pupilla dipende da condizioni ambientali (quantità di luce) ma vi sono delle condizioni in

cui essa muta che non hanno a che vedere con quest’ultime né con condizioni neurologiche particolari.

L’attivazione della pupilla è legata alla risposta del sistema simpatico.

Se io provo disgusto verso l’altro, allora la pupilla tende a restringersi; questo accade anche se stiamo

ascoltando qualcosa che riteniamo noioso.

Vi è un dibattito in corso sul considerare il rossore come un segnale sociale o meno in quanto vi sono

alcune etnie (afroamericane) in cui esso non può essere rilevato: si nota facilmente nel gruppo caucasico

ma in altri è molto meno visibile.

Il vantaggio evolutivo dell’arrossire si può notare nel momento in cui esso sorge se è stata infranta una

norma sociale: il rossore comunica che si è capito di aver fatto un errore e di essere consapevoli di aver

infranto tale regola sociale.

Della direzione dello sguardo abbiamo parlato nell’intersoggettività secondaria: è grazie ad esso che

possiamo entrare in interazione con gli altri e con oggetti esterni alla relazione. Lo sguardo aiuta

nell’apprendimento del linguaggio e nell’inferenza delle intenzioni altrui.

Il tocco sociale è un altro aspetto molto studiato nell’ambito degli studi dell’empatia: che cosa si prova ad

essere accarezzati, ma anche a guardare qualcuno che accarezza? In entrambe le situazioni si attivano le

stesse regioni cerebrali.

Da un punto di vista evolutivo il tocco sociale sembra filogeneticamente derivare dall’allogrooming: le

scimmie si pongono a gruppetti e si “spulciano” a vicenda. Tale allogrooming è composto da due fasi, la

prima in cui vi è lo spostamento del pelo (con un movimento simile alla carezza umana) e la seconda in

cui si mangia la pulce. L’allogrooming ha un valore igienico ma anche affiliativo, viene svolto tra

scimmie appartenenti allo stesso gruppo; può essere quindi considerato un “tocco sociale”.

Il tocco sociale è fatto quindi in quanto appartenenti allo stesso gruppo e per rilassare l’altro individuo.

La posizione della testa è in diretta associazione con la direzione dello sguardo e con la postura del corpo.

11

6 Marzo 2017

Oggi iniziamo ad entrare più nel dettaglio dell’elaborazione dei volti.

Vedremo in particolare un importante modello cognitivo che si è occupato di elaborazione dei volti per

quello che riguarda sia le caratteristiche mutevoli che quelle invarianti; nella prossima lezione vedremo

invece un modello neurale per tale elaborazione.

Prima di iniziare facciamo un breve riassunto degli argomenti della lezione precedente così abbiamo ben

chiaro i punti fondamentali e quelle che potrebbero essere le domande d’esame.

Abbiamo iniziato dicendo che un’idea è quella che ci possano essere dei sistemi dedicati alla funzione

sociale piuttosto che dei sistemi che non lo sono.

Quindi, in questo contesto teorico, parlando di sistemi dedicati abbiamo fatto cenno a Fodor e al suo

modularismo e, in particolare, nel contesto delle neuroscienze sociali abbiamo visto la TED Talk di Nancy

Kanwisher, una delle esponenti del modularismo nelle neuroscienze.

Questo ci interessa perché la Kanwisher oltre ad affermare che c’è un’area specifica dedicata

all’elaborazione del colore, una per gli edifici e così via, afferma che vi sia un’area specifica dedicata

all’elaborazione dello stimolo sociale per eccellenza, il volto, individuata nella Face Fusiform Area

(FFA). Domani approfondiremo questo aspetto parlando di modello neurale nel contesto di elaborazione

dei volti.

Ci sono però anche degli studiosi che sono convinti non esistano dei moduli specifici per l’elaborazione di

stimoli sociali ma piuttosto, come afferma Gauthier grazie al suo studio con i greebles, ci sono alcune

regioni cerebrali che rispondono a certe caratteristiche degli stimoli.

Il fatto che la FFA risponda alle facce non è dovuto al fatto che essa è sensibile ad esse in quanto stimoli

sociali, ma al fatto che hanno determinate caratteristiche; in particolari siamo molto esperti nell’elaborare

volti.

L’elaborazione che facciamo quando vediamo un volto è un’elaborazione fine; ma se noi ponessimo i

soggetti nello scanner per l’fMRI e li facessimo diventare esperti o lo fossero già in un altro tipo di

stimoli (greebles, macchine) allora la FFA si attiverebbe anche per questi stimoli.

Questo è esattamente quello che ha fatto Gauthier: nel suo studio egli ha costruito a computer alcuni

stimoli, denominati greebles, che ha poi utilizzato per rendere esperte alcune persone. Dopo questa fase di

training ha sottoposto i soggetti a fMRI ed ha notato che la loro FFA si attivava maggiormente alla visione

dei greebles, in modo molto simile a quanto accadeva alla visione di volti.

Non è ancora così chiaro, quindi, se esistano o meno dei sistemi dedicati all’elaborazione di segnali

sociali.

La seconda parte della lezione è stata dedicata alla tassonomia di Adolphs e Birmingham riguardo alle

caratteristiche sociali che possono essere veicolate dal volto o dal corpo e che hanno un certo contenuto

informativo. Queste caratteristiche quindi comunicano più o meno qualcosa all’altro, in una scala da 0 a

100.

Tra queste caratteristiche alcune possono essere definite, secondo Adolphs, cue (quelle stabili, invarianti e

fisse del volto) oppure segnali (quelle mutevoli) sociali.

Forse quello che non abbiamo detto la volta scorsa è che la direzione dello sguardo entra in relazione con

le espressioni facciali ad un qualche livello: se si guarda una persona con la faccia spaventata le si

comunica che le sta succedendo qualcosa ma se nel frattempo si guarda in un altro punto non è alla

persona che sta succedendo qualcosa ma da un’altra parte. Quindi questi due aspetti, espressioni facciali e

direzione dello sguardo, entrano in relazione tra loro.

Anche la prosodia (il tono delle frasi), a parità di contenuto semantico, è considerabile come un se gnale

sociale.

Abbiamo fatto riferimento anche al tocco sociale ed all’allogrooming delle scimmie, un comportamento

non solamente igienico ma anche di affiliazione sociale.

12

ELABORAZIONE DEI VOLTI: UNA PROSPETTIVA

COGNITIVA, CARATTERISTICHE, CONFIGURAZIONE

E ELABORAZIONE OLISTICA Nei cue sociali citati da Adolphs non vi è però il cue sociale per eccellenza, qualcosa che il volto

comunica, di stabile/non mutevole, che è fondamentale ma non viene da lui considerato: la familiarità e

l’elaborazione del volto stesso.

Questo cue può essere osservato molto chiaramente grazie alla Strange Situation; in essa la reazione del

bambino equivale all’elaborazione del distacco/della separazione dal caregiver, però perché essa avvenga

è implicito anche un altro processo importante: il bambino ha imparato a distinguere volti familiari da

volti estranei. Questa distinzione innesta a catena una “circuiteria” cerebrale differente, che vedremo

dopo: se si vede un volto familiare esso viene riconosciuto come tale e dopo tale riconoscimento si

attivano anche tutte le informazioni semantiche ed affettive associate alla rappresentazione di quel volto;

se, invece, il volto che si vede è quello di uno sconosciuto si attivano dei sistemi di allarme, ad esempio

l’amigdala.

Questo è un modo diverso di vedere il dato della Strange Situation, ma lo vediamo meglio grazie a questo

modello.

ESTRAZIONE DELL’IDENTITÀ L’estrazione dell’identità è il primo fondamentale modulatore delle interazioni sociali, è quello che

cambia il tipo di relazione che si instaura poiché permette di comprendere chi si ha di fronte.

Tania Singer ha svolto uno studio sull’empatia al dolore altrui: la ricercatrice ha selezionato alcune coppie

e dei soggetti a loro estranei, valutando le sole donne della coppia con la fMRI (Risonanza Magnetica

Funzionale).

La ragazza, attraverso uno schermo, poteva vedere cosa accadeva al fidanzato o all’estraneo la cui mano

veniva stimolata con una scossa elettrica/dolorosa o con una stimolazione neutra.

Sappiamo che esiste un circuito cerebrale che si attiva nel momento in cui si prova empatia nei confronti

di un altro individuo, di cui parleremo in futuro; nel caso delle ragazze, si notava che se quello che si

veniva stimolato era il partner, tale circuito si attiva di più rispetto a quanto non facesse alla visione del

dolore di un estraneo.

L’estrazione dell’identità, che permette l’associazione con l’affettività o il tipo di relazione che si ha con

quella persona, va quindi a influenzare anche il circuito dell’empatia.

Gobbini e Haxby hanno studiato la risposta dell’amigdala a volti familiari o meno, rilevando che quando

si vedono volti conosciuti l’attivazione di essa è inferiore. L’amigdala si attiva quando nell’ambiente vi è

qualcosa di rilevante, in particolare se quel qualcosa è pericoloso. Quando si vedono volti sconosciuti

quindi l’amigdala tende ad attivarsi.

Se questo modello è corretto e questi dati sono veritieri ci si aspetta che ci sia un’iper attivazione

dell’amigdala nei bambini di 8 mesi che si ritrovano nella Strange Si tuation.

INTERAZIONI TRA CONSPECIFICI – MODELLO COGNITIVO DI BRUCE

E YOUNG La prima cosa importante e fondamentale è essere dotati di un sistema cognitivo e neurale che ci permetta

di monitorare con chi stiamo interagendo.

Siamo dotati di un sistema che ci permette di estrapolare delle caratteristiche appartenenti alla

conformazione del volto, la posizione dei vari elementi rispetto agli altri (anche a prescindere dalle

informazioni quali il colore di occhi o capelli): tale sistema è sintonizzato, quindi, sulla configurazione del

volto, su come i suoi elementi si trovano al suo interno.

Vediamo adesso un modello cognitivo, il più importante del settore, in cui Bruce e Young da un lato

ipotizzano una serie di stadi di elaborazione organizzati che permetterebbero l’estrazione dell’identità del

volto che si ha di fronte e dall’altro una seconda parte del modello spiega come siamo in grado di

estrapolare altre informazioni dal volto (i segnali sociali), tutti gli elementi che fanno da “finestra” sul

mondo interiore dell’altro permettendo di inferire gli stati interiori altrui. La lettura dei segnali sul volto

degli altri è quindi un modo per “accedere” ai loro stati interiori; più si è bravi a leggere tali segnali, più si

è bravi a comprendere gli stati interiori altrui.

13

Oggi ci occupiamo della prospettiva cognitiva di Bruce e Young (1986) per l’elaborazione dei volti:

1. Structural Encoding (Codifica strutturale): è la parte iniziale del modello in cui si arriva a costruire una rappresentazione tridimensionale del volto che si ha davanti.

È uno stadio importante perché è estremamente sensibile alla natura della relazione che lega all’altro;

la rappresentazione avviene quindi in maniera differente a seconda che l’altro sia un individuo del

proprio gruppo sociale/etnico, che susciti interesse.

A livello di questo stadio avviene quindi la rappresentazione 3D del volto della persona che si ha di

fronte.

2. Face Recognition Unit, FRUs (Unità di riconoscimento dei volti) : la rappresentazione che è stata fatta nello Structural Encoding viene confrontata con una sorta di magazzino delle rappresentazioni, il

FRUs, in cui sono presenti tutti i volti noti.

Se tutto funziona nel modo corretto in questo modo si troverà un match se la persona è conosciuta e, al

contrario, non si troverà per persone sconosciute.

Ci sono studiosi che ritengono che le rappresentazioni del FRUs possano essere associabili

all’attivazione di singoli neuroni; per altri invece è necessario, quando osserviamo un volto, che ci sia

una mappa/una rete di neuroni associati a quella singola rappresentazione del volto.

Secondo Lettvin (1960) esistevano quelle che poi avrebbe definito “grandmother cell”, il neurone

nonna: egli sosteneva quindi che davanti alla propria nonna si attiva un singolo neurone o comunque

che basta un singolo neurone per riconoscere la propria nonna; la rappresentazione di quel volto,

quindi, sarebbe associata ad un singolo neurone.

Nel 2005 tale idea è stata confermata da Quiroga, grazie ad uno studio su 8 pazienti gravemente

epilettici durante un’operazione al Caltech (California Institute for Technology): ad essi venivano

mostrate duemila immagini di volti (sconosciuti/non conosciuti; ripetuti/non ripetuti) o edifici

importanti. Un neurone (nel lobo temporale mediale) si attivava solo con la visione del volto di

Jennifer Aniston, ma non di immagini a lei correlate (ad esempio Brad Pitt). Ciò starebbe ad indicare

che ci sia la possibilità che un singolo neurone codifichi per l’identità di un volto, rispondendo alla

sua rappresentazione e non a qualcosa di semantico.

In questo studio è stata utilizzata la tecnica del “multirecording” da più neuroni, un po’ più sofisticata

rispetto a quella della rilevazione da singolo neurone che rileva e registra il potenziale d’azione del

singolo neurone. Impiantando, tramite un aghetto, una centinaia di elettrodi, è possibile rilevare

l'attività di una centinaia di neuroni. Come sappiamo il potenziale d’azione è un segnale del tipo tutto

o nulla, il neurone o scarica o non scarica/scarica più o meno volte nell’unità di tempo (le scariche

14

nell’unità di tempo sono indice di quanto quel neurone sia sensibile a quella particolare caratteristica,

a quel particolare stimolo). Ogni volta che il neurone risponde vuol dire che è stato presentato uno

stimolo per cui è sensibile, se il neurone non risponde allora non era sensibile allo stimolo presentato.

Perché si utilizzano tutti stimoli diversi? Per essere sicuri che una determinata regione/ un determinato

neurone risponde ad uno specifico stimolo/ ad una specifica categoria di stimoli si devono escludere

“tutte” le altre possibilità.

Quindi è possibile che a livello del FRUs, a livello del lobo temporale mediale, ad una

rappresentazione di un volto corrisponda uno specifico neurone.

In questo stadio recupero la familiarità del volto ma non ho ancora accesso alle informazioni

semantiche ad esso collegato.

3. Nodi di identità della persona (Person Identity Node, PIN): dopo aver “capito” che il volto che ho di fronte è conosciuto/familiare ho recuperato solo la familiarità per esso, ma non sono ancora certo

della sua identità, non ho ancora avuto accesso a tutte le altre informazioni di tipo semantico associate

alla rappresentazione.

Una volta recuperata la rappresentazione, se essa è di un volto familiare, vi è la possibi lità che io

acceda ad altre informazioni, catalogate all’interno del PIN.

Nel PIN vi sono le informazioni riguardanti la professione, l’età della persona ma non il nome,

contenuto secondo Bruce e Young in un altro magazzino separato.

4. Produzione del nome (Name generation): il magazzino dei nomi è differente dal PIN. Questa separazione tra informazioni personali e nome è quella che potrebbe portare al nostro riconoscimento

della persona, ma alla nostra incapacità di ricordarne il nome.

Questa è una prima sezione del modello che conduce dallo structural encoding alla produzione del nome

della persona che si ha di fronte, nel caso di una persona nota. Un’altra parte del modello, meno discussa

da Bruce e Young, si occupa dell’analisi delle espressioni e dei movimenti facciali (sguardo, bocca).

Abbiamo parlato di quello che accade in un funzionamento normale.

La prosopoagnosia è un disturbo selettivo (principalmente acquisito ma qualche volta congenito) della

modalità visiva e segue da una lesione solitamente bilaterale (più raramente destra) e impedisce il

riconoscimento di volti.

Nel tipo apercettivo il soggetto non riesce a distinguere i volti l’uno dall’altro (non sa se sono uguali o

diversi); nella forma associativa (di più alto livello) i pazienti non riescono a capire chi sia la persona di

fronte a loro, ma distinguono due volti differenti.

Le due forme si trovano quindi a due livelli differenti del modello di elaborazione dei volti: la forma

apercettiva è più precoce, a livello dello structural encoding/FRUs; nella forma associativa è

probabilmente a livello del PIN, non sanno recuperare informazioni sull’identità del volto.

In alcuni casi è presente un disturbo nel campo visivo ma non è così grave da inficiare il riconoscimento

dei volti, mentre le abilità intellettive sono intatte.

Il disturbo non sempre è selettivo per i volti ma può colpire anche il riconoscimento di oggetti.

STRUCTURAL ENCODING Lo structural encoding è uno stadio molto importante: è una componente importante nell’analisi dei volti

perché sensibile alla relazione che si ha con l’altro. Questa rappresentazione può essere “compromessa” se

l’altro non ci è familiare, fa parte di un gruppo sociale/etnico diverso dal proprio; vi avevo già fatto

l’esempio facendovi notare quanto questo possa essere importante in un’aula di tribunale nel momento in

cui si deve testimoniare: se l’altro fa parte di un gruppo differente dal proprio si potrebbe non e ssere dei

testimoni affidabili.

Vediamo un po’ meglio in cosa consiste lo structural encoding, analizzando tre paradigmi sperimentali

utilizzati per comprendere meglio come viene effettuata questa codifica strutturale.

Nel primo (inizialmente proposto da Yin nel 1969) venivano presentati dei volti, in una fase di studio, che

il soggetto doveva memorizzare. Nella fase test successiva venivano presentati volti già presentati o

nuovi, dritti o capovolti; il compito del soggetto era affermare se il volto era già stato memorizzato o

meno durante la fase di studio.

Il risultato è che l’accuratezza diminuisce per i volti capovolti/invertiti, si commettono più errori in questa

situazione. Perché succede questa cosa? Può essere dovuto all’esperienza? Questo effetto dice qualcosa su

15

come i volti vengono normalmente elaborati? L’idea è che normalmente i volti vengono elaborati in modo

olistico (studio i singoli elementi ma mi creo una sua configurazione/gestalt); se i volti sono capovolti

faccio più fatica a creare questa elaborazione e svolgo un’elaborazione feature based (elaborazione dei

singoli elementi, non è l'elaborazione che siamo abituati a fare). L’elaborazione che viene effettuata dei

volti è quindi differenti se essi sono presentati in modo dritto od invertito.

Questa difficoltà di riconoscimento e di elaborazione dei volti capovolti è detto “effetto di i nversione”.

Il secondo paradigma sperimentale detto “composit effect” (presentato da Young) dimostra, in modo più

diretto del primo, che i volti tendono ad essere elaborato in modo olistico. Due volti vengono divisi a metà

(inferiore e superiore) e con esse si forma un volto composito. Quello che succede, secondo gli autori, in

questa situazione è che si tende a combinare le due metà e a estrapolare una “identità” nuova/identità

emergente. La creazione di questa identità emergente è meno facile quando ques te due metà sono

disallineate, misallineate.

Il paradigma sperimentale prevede la presentazione di un volto e la successiva richiesta è quella di

indicare se una metà del volto composto sia uguale al volto presentato prima o meno. Tendenzialmente, i

soggetti commettono più errori nella situazione sperimentale in cui le due metà sono allineate, rispetto a

quando non lo sono. Quando sono allineate verrebbe creandosi questa nuova identità emergente e questo

interferirebbe con l’estrazione della metà superiore. Una seconda evidenza a favore di questo paradigma

riguarda “Thatcher face effect”, ovvero l’incapacità di riconoscere che alcuni elementi del volto sono

“sbagliati” quando i volti vengono presentati invertiti (ad esempio gli occhi sono capovolti rispetto al

volto). Le persone riconoscono che qualcosa non va solo quando il volto viene presentato con

un’inclinazione di almeno 90°. Questo effetto suggerisce il verificarsi di un passaggio (mano a mano che

il volto ruota) da un'elaborazione dei volti basata su feature based (quando sono invertite) ad una di tipo

olistico.

Il terzo ed ultimo paradigma sperimentale prevede la presentazione di un volto di un individuo,

successivamente viene preso un elemento di quel volto isolato o all’interno della configurazio ne.

L’elemento viene riconosciuto più facilmente all'interno della configurazione: questo dimostra che già

nella prima elaborazione quell’elemento era stato analizzato e integrato all’interno di quella particolare

configurazione (e non analizzato separatamente e individualmente). Questo dimostra che nella prima

elaborazione del volto ne avevo estrapolato una gestalt e quindi è più semplice riconoscerne un elemento

se viene presentato nel tutto; sarà più facile riconoscere quell’elemento se presentato all’in terno di quella

configurazione piuttosto che doverlo estrapolare (parti VS tutto).

Uno studio di Hugenberg e Corneille del 2009 utilizza l’effetto composito per dimostrare come questa

modalità di analisi di tipo configurazionale sia modulato sulla base del gruppo di appartenenza del volto

da elaborare.

Allo studio parteciparono 36 studenti caucasici, che frequentavano l’università di Miami ed hanno

manipolato due variabili all’interno dei soggetti:

- 1° variabile: hanno utilizzato 40 volti stimolo, hanno diviso le due metà del volto in modo tale da avere una porzione superiore e una inferiore di quel volto e hanno costruito 4 diverse alternative du

volto composito:

 la metà superiore è uguale e quella inferiore diversa (allineate)  la metà superiore è uguale e quella inferiore diversa (disallineate)  le due metà sono tutte e due diverse (allineate)  le due metà sono tutte e due diverse (disallineate) La condizione più importante era quella in cui la metà era uguale a quella del volto già presentato.

I soggetti mostrano più difficoltà a distinguere le parti uguali o diverse, quando queste vengono

presentate allineate piuttosto che disallineate.

- 2° variabile: i volti venivano posti su un rettangolo rosso o su un rettangolo verde. Ai partecipanti veniva detto loro che i volti che venivano presentati sul rettangolo rosso rappresentavano individui

che frequentavano la stessa università di Miami, e che quelli presentati sul rettangolo verde, erano di

soggetti di un’altra università.

Il compito era sempre lo stesso: distinguere se una delle due metà era uguale o diversa a quella del

volto originale e memorizzato.

La familiarità del volto modula l’effetto composit face: l’effetto è più grande quando le persone

appartengono al mio gruppo sociale rispetto a quelle che non appartengono al mio gruppo sociale.

16

7 Marzo 2017

Riassumendo: 1. L’estrazione dell’identità è il primo fondamentale modulatore delle interazioni: un altro cue sociale, una

caratteristica invariante importante è l’estrazione dell’identità.

Uno degli esempi che abbiamo visto è lo studio sull’empatia di Tania Singer dove alcune ragazze venivano

esaminate attraverso l’fMRI; al di fuori dello scanner vi erano i fidanzati o degli estranei che potevano

subire una stimolazione dolorosa o neutra. Quello che si è osservato è che la rete neurale distribuita nel

cervello associata alla capacità di provare empatia nei confronti dell’altro si attivava maggiormente alla

visione del dolore del fidanzato, piuttosto che a quello di un estraneo.

Un altro esperimento è stato svolto da Gobbini e Haxby, sempre grazie allo scanner; ai soggetti vengono

presentati dei volti familiari e non familiari, il risultato era che la rete neurale che si attivava nei due casi era

differente. In particolare l’amigdala tendeva ad attivarsi maggiormente alla presentazione di volti non

familiari. Questo risultato è stato collegato a quello che accade ad un bambino di 8 mesi che inizia a

distinguere il volto della madre/padre da quelli degli estranei e viene valutato attraverso la Strange

Situation.

Abbiamo poi discusso del modello cognitivo di Bruce e Young che considera due classi di operazioni che

caratterizzano i volti ed in particolare si concentra su quella grazie alla quale si attua una sorta di codifica

strutturale dei volti, si giunge ad una rappresentazione tridimensionale astratta del volto che viene

“matchato” o meno con un volto presente nel FRUs. Se il volto è conosciuto e il meccanismo funziona

correttamente si trova il corrispettivo match e con esso possono essere recuperate altre informazioni relative

a quel volto (informazioni personali, nome).

I volti immagazzinati nel FRUs, da un punto di vista neurale, potrebbero essere rappresentati da un singolo

neurone o da una popolazione di essi. Da uno studio di Quiroga si hanno delle evidenze che esistano dei

neuroni che rispondono in modo selettivo alla presentazione di alcuni volti.

Abbiamo poi parlato velocemente della prosopagnosia e delle sue due forme, apercettiva e associativa.

2. Singole caratteristiche, configurazione ed elaborazione olistica: tornando al modello di Bruce e Young ci siamo concentrati sulla parte relativa allo Structural Encoding. Questo processo coinvolge una serie di

operazioni (dimostrate attraverso vari studi e differenti paradigmi sperimentali): per prima una sorta di

estrazione delle singole caratteristiche del volto grazie alle quali si arriva poi a costruire una gestalt. I

diversi elementi non vengono singolarmente, ma in una configurazione permettendo così di determinare

l’identità specifica di un singolo volto.

Questo è stato studiato attraverso vari paradigmi sperimentali quali la Face Inversion Effect (ruotando un

volto è molto più difficile costruire questa configurazione olistica), il Composit Face Effect (se vengono

presentate due metà di due volti diversi, quando esse sono allineate - rispetto a quando sono misallineate - è

più difficile risalire all’identità di una delle due porzioni poiché si tende a costruire una nuova identità

emergente) e le Parti vs il Tutto (dimostra come i vari elementi del volto vengano integrati in una

configurazione poiché, se dopo aver presentato un volto, si presenta solo una sua parte, singolarmente o di

nuovo nel contesto, è più facile capire se la parte appartiene davvero a quel volto o meno se viene presentato

nella configurazione).

Alla fine abbiamo discusso di uno studio di Hugenberg e Corneille, importante proprio per

l’intersoggettività, che dimostra come l’elaborazione olistica sia un modo di elaborare i volti più efficace

quando essi fanno parte del nostro stesso gruppo, piuttosto che non quando sono di un gruppo differente. In

particolare questo studio, svolto alla Miami University, ha dimostrato che gli studenti riconoscevano

meglio/ effettuavano un’elaborazione più accurata con i volti che pensavano essere della loro stessa

università (sfondo rosso), rispetto a quelli che pensavano provenire dalla Marshall University (sfondo

verde).

ELABORAZIONE DEI VOLTI:

UNA PROSPETTIVA NEURALE Ieri ci siamo concentrati sul modello e sui dati cognitivi, ma vi sono delle evidenze sperimentali nel contesto

delle neuroscienze che si sposano con essi? Ci sono e vengono riportate da Haxby e Gobbini nella prospettiva

neurale di cui parleremo oggi.

Dopo una primissima elaborazione dell’informazione visiva nella corteccia visiva primaria, i neuroni si

specializzano sempre di più per particolari forme, particolari colori e forse anche per i volti. Questo succede

spostandosi dalla corteccia visiva primaria, verso le zone infero-temporali (è in queste regioni che è stata

osservata la Face Fusiform Area): vi è quindi una regione specializzata per una certa categoria di stimoli.

17

Proprio in questo clima teorico, in cui si studia questa via visiva ventrale, lavora Haxby: egli cerca di capire a

cosa queste diverse popolazioni di neuroni, che si trovano a livello delle cortecce, siano sensibili nello specifico.

Inizialmente utilizzando la PET, presenta varie tipologie di stimoli ai soggetti; in questo modo egli si accorge

che c’è una regione in particolare (non è la sola) che si attiva maggiormente quando vengono presentati dei volti

(FFA). Questa non è l’unica regione ad accendersi, ce ne sono altre che partecipano in qualche modo: quello che

emerge è un quadro piuttosto complesso di attività distribuita nel cervello associata all’elaborazione dei volti.

Questo è il modello complessivo finale, messo appunto assieme a Gobbini, relativo al modello neurale di

elaborazione dei volti.

Questo modello si divide in due parti:

- Core System: costituito da due sistemi; è il sistema principale di elaborazione dei volti - Extended System: è un sistema che non è “indispensabile” ma che viene “reclutato” a seconda di quello

che si fa poi con la rappresentazione del volto. Dopo che il volto è stato rappresentato vanno recuperate è

possibile che vadano recuperate alcune informazioni aggiuntive, in quel caso entra in gioco il sistema esteso

CORE SYSTEM Ci concentriamo ora sul core system: da un punto di vista anatomico, le regioni cerebrali che partecipano a

questo core system sono tre:

▪ Lateral Fusiform Gyrus (FFA) ▪ Inferior Occipital Gyrus (OFA - Occipital Face Area) ▪ Superior Temporal Sulcus (STS) Facciamo un match con il modello di Bruce e Young. Questo modello risponde a due diverse classi di

operazioni nella percezione dei volti: una prima classe che si occupa dell’estrazione dell’identità e delle

caratteristiche fisse del volto ed una seconda che si occupa dell’analisi delle caratteristiche mutevoli.

Il modello di Bruce e Young quindi prevedeva già che, nel momento in cui ci troviamo di fronte ad un volto, ci

siano due strade di elaborazione: da un lato arrivo all’estrazione dell’identità o alla rappresentazione

tridimensionale del volto, dall’altro estraggo le caratteristiche mutevoli.

Analogamente, nel modello di Haxby e Gobbini il core system prevede che ci sia un sistema di analisi delle

caratteristiche invarianti e di quelle mutevoli.

Vi è quindi un sottosistema che è capace di ignorare tutte le caratteristiche che cambiano o possono cambiare in

un volto e analizzare solo quelle statiche, per arrivare poi alla determinazione dell’identità del volto che si ha di

fronte ed un sottosistema che fa esattamente il lavoro opposto, che in qualche modo riesce ad ignorare tutto

quello che rimane fisso in un volto ma estrae l’informazione mutevole.

Abbiamo detto che a livello del core system ci sono tre regioni cerebrali e che il sistema è in grado di estrarre in

modo indipendente le caratteristiche mutevoli, piuttosto che quelle invarianti: quello che ci rimane da capire è

chi fa cosa? Da un punto di vista anatomico il sistema prevede che la regione fusiforme e quella occipitale (FFA

e OFA) si occupino di elaborare le caratteristiche più strutturali e fisse del volto, mentre il solco temporale

superiore (STS) si occuperebbe dell’estrazione delle caratteristiche mutevoli.

18

Per dirla nei termini di Adolphs FFA e OFA estrapolano i cue, mentre il STS estrapola i segnali sociali.

Ci sono state delle evidenze nel campo delle neuroscienze a sostegno di questa dissociazione dei compiti.

Un primo studio è stato condotto da Hasselmo, Rolls e Baylis sui macachi.

Ieri, parlando di Quiroga, abbiamo nominato la registrazione da singolo neurone: questa tecnica permette di

capire se un neurone è responsivo o meno per una certa categoria di stimoli.

Hasselmo ha utilizzato la stessa tecnica, in questo studio con i macachi, raccogliendo la registrazione di 45

neuroni. Egli presentava tre diverse tipologie di stimoli, rappresentate dalle facce di altri macachi con

espressioni differenti - neutra, aggressiva, lipsmaking (un’espressione positiva, di affiliazione).

I risultati dimostravano che, se venivano presentate identità differenti ma con la stessa espressione facciale,

alcuni neuroni rispondevano, erano sensibili al cambiamento di identità; altri neuroni invece rispondevano alla

presentazione della stessa espressione facciale, anche se essa veniva compiuta da soggetti differenti.

Questo ha dimostrato che ci sono dei neuroni nel cervello, in particolare posizionati nella regione infero-

temporale (questa regione fusiforme), che sono sensibili ai cambiamenti di identità e ci sono altri neuroni

localizzati nel solco temporale superiore (STS) che sono invece sensibili al cambiamento dell’espressione

facciale: in sintesi alcuni neuroni riconducibili al STS sono responsivi al cambiamento dell’espressione facciale,

mentre altri neuroni riconducibili alla zona occipitale inferiore e temporale sono responsivi al cambiamento

dell’identità.

Questo studio è determinante nella costruzione del modello teorico neurale che stiamo vedendo.

Ci sono altri dati a sostegno di questa dissociazione: in particolare uno studio, che esamina l’attenzione

selettiva, svolto da Hoffman e Haxby.

In questo studio i soggetti erano umani e, dopo essere stati posizionati nello scanner, venivano mostrati loro

degli stimoli consistenti in facce con diverse identità e direzione dello sguardo; ai soggetti poteva essere detto di

prestare attenzione ad una o all’altra variabile (identità, sguardo).

Nel caso in cui i soggetti dovevano prestare attenzione all’identità viene rilevata un’attivazione più sostenuta e

più importante in FFA e OFA, mentre quando si avvisava i soggetti di prestare attenzione alla sola direzione

dello sguardo (nonostante i cambiamenti di identità) si attiva maggiormente il STS.

Questa è un’ulteriore prova del fatto che il STS tende ad elaborare maggiormente le caratteristiche mutevoli del

volto (i segnali sociali), mentre le altre due regioni FFA e OFA tendono ad elaborare tutte le caratteristiche fisse

(i cue sociali).

Abbiamo detto che il STS è una regione del cervello sensibile al movimento biologico (un movimento fluido,

con caratteristiche di accelerazione e decelerazione, non è scatti come quello di un automa). In questo senso

Puce ha rilevato che è una regione che tende ad essere particolarmente sensibile in presenza di un movimento: si

attiva maggiormente quando viene presentato un video di una persona che muove gli occhi, rispetto a quanto

non faccia quando viene presentata la foto di una persona con gli occhi spostati.

In linea con questo dato il STS risponde maggiormente a espressioni facciali dinamiche piuttosto che statiche.

Questa è una bellissima dissociazione ma purtroppo le cose ideali sono sempre ideali per cui in realtà non è così

semplice: esiste questa dissociazione tra questi due sistemi, ma ci sono anche dei dati che complicano un po’ le

cose. Questi dati hanno però un valore adattivo e un senso nel contesto dell’interazione e dell’intersoggettività.

Uno di questi dati poco chiari riguarda la dissociazione funzionale: ad esempio volti con espressione facciale

elicitano un’attività maggiore sia in STS che in FFA.

Se ad un soggetto mostro lo stesso volto, prima con un’espressione neutra e poi con una non neutra (felicità,

paura, gioia), in linea teorica e se la dissociazione è completa la FFA (che è sensibile al cambiamento di

identità) dovrebbe attivarsi nello stesso modo per entrambe le espressioni; in realtà quello che accade è che

questa regione cerebrale tende a rispondere maggiormente quando un volto ha una particolare espressione

facciale.

Da un punto di vista adattivo questo è importante perché permette di elaborare meglio le identità delle persone

che abbiamo di fronte: FFA potrebbe ricevere una sorta di “feedback” dal STS, che ha rilevato l’espressione

facciale, che lo informa dell’importanza dell’informazione rilevata e quindi richiede una maggiore attivazione.

Ci sono vari studi che hanno dimostrato come la FFA sia particolarmente sensibile anche alle espressioni

facciali e non solo all’identità.

19

Uno studio di Vuilleumier, Armony, Driver e Dolan

compiuto con la fMRI utilizzava la configurazione in

figura che prevedeva una crocetta di fissazione e quattro

rettangoli attorno.

Subito prima della presentazione di una schermata

contenente gli stimoli si potevano evidenziare due

rettangoli (o quelli posti sull’asse verticale, o quelli posti

sull’asse orizzontale) indicando così ai soggetti dove

prestare attenzione al momento di comparsa degli

stimoli (volti con espressione neutra/impaurita o edifici).

Il compito era dire se i volti che venivano presentati

erano uguali o diversi tra loro.

Questo grafico a barre mostra che l’attivazione per

i volti con espressione di paura è maggiore rispetto

a quella dei volti neutri e quindi che la FFA è

sensibile anche all’espressione.

Uno studio pubblicato da Sessa dimostra che quando vediamo arrivare una persona ed ha un’espressione di

paura, il volto viene memorizzato più facilmente rispetto a quando ha un’espressione neutra. In un certo senso

nell’interazione volto-espressione, vince l’espressione: se una persona in qualche modo ci comunica qualcosa,

tendiamo a costruire un’elaborazione più dettagliata del suo volto.

Questo studio è stato compiuto attraverso l’utilizzo dell’elettroencefalografia. Gli stimoli utilizzati erano volti

neutri e con espressione di paura perché vi sono più dati presenti in letteratura per questo tipo di stimoli.

I ricercatori si sono concentrati su un particolare tipo di attività neurale, scoperta da Vogel e Machizawa, che era

un indizio di quanto fosse risoluta, in termini di pixel, la rappresentazione che veniva costruita a partire da un

certo stimolo: se la risoluzione è migliore l’attività cerebrale è più grande, se invece è scarsa l’attività è più

bassa. Vogel e Machizawa l’hanno dimostrato utilizzando il “Change Detection Task” (compito di rilevazione

del cambiamento).

Il compito era il seguente: dopo il punto di fissazione compariva una freccia che indicava una delle due metà

dello schermo, il compito del partecipante era memorizzare quella metà e, dopo un intervallo di ritenzione,

compariva una schermata test e i partecipanti dovevano affermare se vi era stato un cambiamento o meno.

Nel caso dell’esperimento di Vogel e Machizawa la variabile che veniva modificata era il numero di quadrati

che venivano presentati al soggetto e di cui egli doveva memorizzare il colore.

La professoressa Sessa ha usato lo stesso paradigma con i volti, con l’idea che quando si ha di fronte un volto

esso si può elaborare in modo più o meno risoluto.

L’ipotesi, se è vero ciò che affermava Vuilleumier e se è vera l’evidenza sperimentale di Vogel/Machizawa, è

che presentando lo stesso volto con un’espressione di paura, rispetto a quando lo si presenta con un’espressione

neutra, l’ampiezza della componente che ci indica quanto è risoluta l’immagine dovrebbe essere maggiore per

quelli con espressione negativa.

Il compito era esattamente identico a quello precedente, cambiavano gli stimoli che non erano più quadratini ma

volti.

20

Gli stimoli erano uno o due volti per metà si spazio, la risposta doveva sempre essere uguale o diverso rispetto

alla schermata di memorizzazione; la manipolazione critica era la presenza di espressione neutra o impaurita.

Questo grafico mostra i risultati dei potenziali evento-relati: il potenziale è una misura negativa e quindi

l’ampiezza è l’area sottesa tra asse e curva.

Se si osservano le curve rilevate alla presentazione di una sola faccia si può notare come quella per l’espressione

di paura sia più ampia rispetto a quella neutra: questo è un indice del fatto che volti con un’espressione facciale

vengono rappresentati meglio, in modo più risoluto, più preciso in memoria.

21

13 Marzo 2017

Riassumendo: la lezione scorsa abbiamo parlato del modello neurale per l’elaborazione dei volti di Haxby e

Gobbini, facendo dei paralleli col modello cognitivo di Bruce e Young.

Questo modello è costituito da due sottosistemi:

- il core system che è il sistema principale, centrale ed indispensabile per l’elaborazione dei volti di base - l’extended system che coinvolge una serie di regioni cerebrali e che compie altre operazioni più sofisticate. Abbiamo anche visto che da un punto di vista anatomico il core system è associato a tre diverse regioni,

fondamentalmente nel lobo temporale (FFA, OFA e STS).

Facendo un parallelismo col modello cognitivo abbiamo visto come anche questo prevedesse due classi di

operazioni sui volti: una prima classe di operazioni era impegnata nella codifica strutturale del volto per

l’estrazione di caratteristiche invarianti, un’altra classe si riferiva all’analisi delle caratteristiche mutevoli.

Anche il modello neurale di Haxby e Gobbini, in qualche modo, considera queste due classi di operazioni:

grazie allo studio di Hasselmo sui macachi, è stato rilevato che esistono alcuni neuroni che rispondono al

cambiamento di identità ed altri selettivamente sensibili al cambiamento di espressione facciale.

Delle regioni cerebrali associate all’elaborazione dei volti la FFA e l’OFA sono preposte all’analisi dell’identità

dei volti e delle caratteristiche invarianti, mentre il STS è particolarmente sensibile ai movimenti.

Abbiamo però visto che le cose non sono mai così semplici come sembrerebbero: esistono infatti delle evidenze

che, almeno in parte, contrastano con questa dissociazione tra regioni che si occupano di analisi delle

caratteristiche invarianti e regioni che si occupano di quelle mutevoli.

La FFA è sensibile all’analisi dell’identità dei volti, ma uno studio di Vuilleumier dimostra che si attiva

maggiormente quando viene presentata una faccia con un’espressione.

Analogamente uno studio della professoressa Sessa dimostra come la risoluzione con cui viene immagazzinata

una rappresentazione di un volto con un’espressione facciale è più alta rispetto a quando lo stesso volto non ha

un’espressione facciale, ha un’espressione neutra.

Questo potrebbe essere funzionale da un punto di vista adattivo: se qualcuno ci rivolge una particolare

espressione facciale è importante rilevarla, ma è anche molto importante capire chi la sta facendo giungendo

all’estrazione dell’identità di questo volto.

È possibile quindi che il processo si svolga in più fasi: una prima fase in cui viene captato questo segnale

attraverso il STS che, in una seconda fase, manda un feedback alla FFA in modo che si possa capire chi è che

sta mandando il segnale.

OGGI: Un’altra evidenza, in contrasto con la dissociazione vista ieri, è opposta a quella per cui un’espressione facciale tende ad attivare un po’ di più la FFA.

Per tale evidenza, alcuni volti con caratteristiche invarianti tendono ad attivare maggiormente il STS.

Quando si guardano questi volti, in particolare

quelli agli estremi, tende ad attivarsi maggiormente

il STS, nonostante si trattino di caratteristiche

invarianti: questo accade perché questi tratti così

marcati tendono ad assomigliare a delle espressioni

facciali.

Probabilmente l’inferenza che viene compiuta dai

tratti fisici (il primo volto sembra felice, l’ultimo

sembra arrabbiato) attiva il STS.

Tutte le evidenze che abbiamo visto potrebbero essere solo apparentemente in contrasto e la realtà potrebbe

essere molto più complessa di come sia con questa doppia dissociazione. Ci sono dei dati che suggeriscono che

la FFA è sicuramente molto sensibile all’identità di un volto. In termini neurali una prova è il fenomeno

dell’adattamento (adattamento = progressiva riduzione della scarica dei neuroni di una regione cerebrale alla

presentazione ripetuta di uno stimolo con le medesime caratteristiche) per il quale, se viene presentato per più

volte lo stesso volto (anche con espressioni differenti), la FFA tende a ridurre la sua attività.

Uno studio che ha dimostrato questo adattamento è stato svolto da Mazard, Schiltz e Rossion. Gli autori hanno

presentato lo stesso volto (condizione Same Up) oppure volti differenti (Diff Up) in blocchetti da 6 alla volta ed

hanno confrontato l’attivazione della FFA nelle due sessioni. Quello che ci si aspetta di trovare, se è vero che la

FFA è sensibile all’identità, è una riduzione della sua attività per la condizione Same rispetto alla Diff e questo è

esattamente quello che viene rilevato.

22

In questo disegno sperimentale hanno utilizzato anche un'altra manipolazione, l’effetto inversione che abbiamo

già affrontato nel paradigma sperimentale di Tanaka e Gordon sull’elaborazione olistica dei volti: quando un

volto viene presentato sotto/sopra, invertito è molto più difficile costruirne la gestalt, l’elaborazione olistica; di

conseguenze diviene difficile anche estrarne l’identità e riconoscerlo.

Nello studio di Mazard, Schiltz e Rossion è stato utilizzato anche l’effetto inversione: i volti potevano essere

presentati anche in blocchetti da 6 uguali ma invertiti (Same Inv) o diversi ed invertiti (Diff Inv). Abbiamo detto

che la FFA è in grado di estrapolare l’identità dei volti ed è sensibile all’elaborazione olistica e che nel caso di

volti invertiti tale elaborazione è più difficile, se si vanno a confrontare queste due condizioni sperimentali (Sam

Inv/Diff Inv) non si otterrà alcune differenza nell’attivazione della FFA.

Questo perché, essendo FFA sensibile all’identità dei volti che è difficilmente estraibile quando il volto è

invertito, non riesce ad estrarre l’identità di volti invertiti, non subendo così nessun adattamento.

Non c’è differenza nelle condizioni Same e Diff Inv perché non avviene l’estrazione di identità.

Già nelle lezioni precedenti ci siamo chiesti se questo modulo specifico (che ora chiamiamo FFA) sia così

specifico per l’elaborazione dei volti o se sia sensibile ad alcune caratteristiche di essi. Magari questa regione

risponde semplicemente alla nostra expertise e quindi riconosce meglio i volti perché siamo esperti in quello.

Ricordiamo ad esempio lo studio di Gauthier con i greebles i cui risultati mostravano un’attivazione della FFA

anche per questi stimoli. È possibile che l’attivazione cerebrale di quest’area, almeno in parte, non sia legata al

fatto che è sensibile ai volti in quanto stimoli sociali ma è sensibile agli stimoli di cui siamo esperti.

In linea con questa idea c’è anche il fatto che quando compiamo una discriminazione tra volti si tratta di una

discriminazione within-category (riconosciamo un volto rispetto ad un altro), mentre molto spesso la maggior

parte delle discriminazioni che compiamo nella vita di tutti i giorni è between-category.

Ciò non di meno l’idea è che quando siamo esperti nei confronti di una certa categoria e dobbiamo quindi fare

discriminazioni within-category è possibile che si attivi la FFA; i risultati sull’attivazione della FFA con i

greebles sono stati replicati in studi successivi con esperti di automobili e di uccelli: in entrambi i casi è stato

rilevato che vi era un’attivazione della FFA, confermando che almeno in parte essa risponda all’expertise.

Ricordiamo lo studio comportamentale di Hugenberg e Corneille che dimostrava che l’elaborazione olistica

tende ad essere migliore quando vado ad analizzare una persona che so appartenere al mio stesso gruppo sociale

(in-group), rispetto a quando analizzo quello di un’altra persona che non appartiene ad esso (out-group).

C’è un dato neurale assolutamente in linea con questo e deriva da uno studio di Van Bavel, Packer e

Cunningham: fondamentalmente, se l’elaborazione olistica è migliore per le persone che appartengono al mio

stesso gruppo sociale rispetto ad altri, cosa ci si aspetta in termini di attivazione della FFA? Che si attivi

maggiormente per i membri del mio gruppo rispetto a quelli di un altro: se la FFA è un indice dell’elaborazione

olistica e dell’estrazione dell’identità, si dovrebbe attivare maggiormente per individui del mio gruppo.

Questo è esattamente il risultato dello studio di Van Bavel, Packer e Cunningham.

Il problema della fMRI è che ha un’alta risoluzione temporale quindi è difficile capire se un’area si attiva in

risposta ad un determinato stimolo (stimolo-dipedente) o se si attiva grazie ad un feedback secondario di

un’altra area (mediato).

Un fattore importante potrebbe essere l’attenzione che fa in modo che la FFA si attivi maggiormente per gli

stimoli ritenuti rilevanti.

Lo structural encoding è formato da diverse attività, grazie alle quali si arriva poi ad una gestalt del volto.

Questo comporta che ci sia una prima fase in cui vengono analizzati singolarmente gli elementi ed una fase

secondaria in cui viene costruita la rappresentazione unitaria.

Sembra che l’OFA sia responsabile dell’analisi dei singoli elementi del volto.

23

ELABORAZIONE DEI VOLTI:

SISTEMA DI CONOSCENZA DELLA PERSONA La lezione di oggi e le successive sono intitolate “E poi?”: abbiamo visto queste cose di più “basso livello” ma

adesso il passaggio alle relazioni, la persona che abbiamo davanti, il significato dell’espressione facciale…

Oggi iniziamo a muoverci in questa direzione.

Ramachandran è un professore di neuroscienze e psicologia all’Università della California che ha scoperto e

spiegato alcune sindromi in un’ottica molto diversa: queste sindromi venivano spiegate in un’ottica psichiatrica

o psicodinamica, mentre si è capito che vi sono delle spiegazioni molto chiare per esse anche in ottica

neurologica.

La sindrome di Capgras è stata scoperta attorno al 1920 ed era ritenuta un problema psichiatrico: chi ne è colpito

vive nella ferma convinzione che le persone a lui care (familiari e amici, ma anche animali domestici o luoghi

familiari) siano state rimpiazzate da replicanti, aliene o impostori a loro identici. Tale sindrome è solitamente

selettiva per tutte le persone care ma può esserlo ulteriormente e “colpire”, ad esempio, un solo genitore;

ripensando a Quiroga e alle sue rappresentazioni in singoli neuroni, è possibile che la rappresentazione di un

volto (associato ad un singolo neurone) non sia più ben collegata al sistema limbico.

Tuttavia la dissociazione che c’è tra vie sensoriali (riconoscimento attraverso le vie uditive, non riconoscimento

con le vie visive) fa pensare che ci sia qualcosa di diverso; potrebbe essere qualcosa che ha a che fare con delle

vie lese nel cervello (per esempio tra FFA e circuito limbico).

SISTEMA ESTESO DEL MODELLO NEURALE Nel modello cognitivo di Bruce e Young un elemento importante era che dopo l’estrazione, la codifica

strutturale e la rappresentazione tridimensionale del volto si giungeva, attraverso diversi passaggi, all’estrazione

di informazioni sull’identità e alla generazione del nome; già questo modello prevedeva questi passaggi.

Questo è un elemento cruciale, critico per il modello di Haxby e Gobbini: dopo la prima fase legata al core

system (il sistema che permette di estrarre la rappresentazione 3D del volto, l’estrazione della codifica

strutturale legata alla FFA, all’OFA e al STS) a livello dell’extended system, composto da due sotto regioni,

vengono rappresentate le conoscenze sulla persona e, in qualche modo, le risposte emozionali per gli individui

familiari; una volta costruita la rappresentazione tridimensionale del volto il passaggio successivo consiste nel

capire chi è questa persona che abbiamo davanti e che relazione ci lega ad essa, che tipo di affettività mi lega.

Ci sono delle regioni del cervello deputate a questa parte di analisi:

- la corteccia prefrontale mediale (MPFC) - la giunzione temporo-parietale (TPJ) - la corteccia temporale anteriore - il precuneo/ cingolo posteriore Tutte queste regioni insieme si occupano di questa rappresentazione della conoscenza sulla persona:

✓ Informazioni biografiche (chi sono, che famiglia hanno) ✓ Memorie episodiche ✓ Tratti di personalità ✓ Intenzioni probabili ✓ Relazioni con altri Ci sono poi altre regioni, di cui ci occuperemo più avanti, che sono coinvolte nell’estrazione del significato delle

espressioni facciali, dello sguardo e delle espressioni corporee.

FAMILIARE VS NON FAMILIARE Le regioni del sistema esteso si attivano maggiormente per volti familiari. Quando vediamo delle persone

familiari, dopo la prima fase in cui riusciamo ad estrarre la rappresentazione 3D del volto, si attivano a cascata

tutte le regioni appena viste e, di conseguenza, riusciamo ad ottenere tutte le informazioni su di esse.

Anche Haxby afferma “My interpretation is, when you see someone familiar, you retrieve the ‘person

knowledge’ of that person”: quando si vede un volto familiare, rispetto ad uno che familiare non è, non si

attivano solo le aree che fanno parte del core system ma anche altre regioni cerebrali che sono un indice

dell’attivazione di informazioni extra su quella persona; se si attiva l’amigdala c’è anche la componente

affettiva associata al volto.

“Recognize a face is the result of a process that is distributed among multiple areas.”

24

Nel momento in cui guardiamo un volto e lo riconosciamo come qualcuno a noi familiare, ad esso è associato

anche una sorta di “emotional signature”? Un qualcosa che indica la relazione affettiva con esso, se lo

riconosco si attiva anche la circuiteria limbica e riesco a rilevarla, se così è?

Reclutando regioni del sistema esteso come il precuneo e l’amigdala, le persone potrebbero essere in grado di

legare memorie e emozioni associate ad un certo volto.

L’attivazione dell’amigdala è un aspetto molto importante: se guardando un volto essa si attiva vuol dire che c’è

un legame affettivo di un qualche tipo che mi lega ad esso.

Se non c’è la possibilità di utilizzare la fMRI, un altro modo di misurare questa attivazione è la registrazione del

segnale elettrodermico: ponendo due elettrodi su due dita vicine, si può registrare la risposta elettrodermica

dell’individuo a stimoli interni od esterni.

La risposta di conduttanza cutanea consiste in un’attivazione da parte delle ghiandole sudoripare che riduce la

resistenza del derma, consentendo un passaggio di corrente maggiore.

La cosa interessante è che quando un soggetto neurologicamente sano si trova di fronte al volto di una persona

con cui ha una qualche relazione affettiva, allora vi è una risposta di conduttanza cutanea, che non è presente

quando si ha di fronte un volto di uno sconosciuto.

Un caso interessante si riferisce ai prosopoagnosici: Tranel, Damasio e Damasio hanno presentato a questi

soggetti dei volti che dovevano essere familiari e dei volti invece sconosciuti. Nonostante il prosopoagnosico

non li riconoscesse come tali (familiari o no), la risposta di conduttanza cutanea era preservata: c’era un indice

più sottile, inconsapevole, automatico che discriminava tra volti conosciuti e sconosciuti.

Per tale dissociazione vi sono almeno due spiegazioni differenti:

- le due componenti seguono vie diverse: c’è una via per il riconoscimento esplicito, consapevole dei volti ed una via separata, automatica, inconscia per il riconoscimento implicito di essi

- il meccanismo è danneggiato ma è comunque sufficiente ad innescare una risposta di conduttanza cutanea.

Un altro caso, più sconvolgente, è quello dei soggetti con sindrome di Capgras; questo è un problema speculare

a quello dei prosopoagnosici: questi pazienti riconoscono perfettamente il volto come il “sosia” di una persona

cara, distinguono i volti noti da quelli non familiari però non esiste una risposta di conduttanza cutanea associata

agli individui con i quali dovrebbe avere una relazione affettiva.

In alcuni studi fatti da Ramachandran è stata rilevata un’attivazione minore di quella attesa nell’amigdala di

persone con questa sindrome a cui venivano presentati volti familiari.

Per capire se soggetti con tale sindrome possano creare nuove relazioni significative bisogna capire come si

considera tale sindrome:

• se la lesione è “singola”, localizzata e viene distrutto solo il collegamento tra la rappresentazione di una persona e il sistema limbico allora dovrebbe essere possibile costruire nuove relazioni significative

• se il problema è più esteso e consiste in un’interruzione netta della connessione tra le regioni temporali (FFA) e il sistema limbico allora può essere difficile per questi soggetti la costruzione di nuove relazioni.

(TED Talk 2)

25

14 Marzo 2017

ELABORAZIONE DEI VOLTI: INFERENZA DI TRATTI

Oggi parliamo di fisiognomica perché quando elaboriamo un volto, oltre ad estrarre tutte le cose che abbiamo

già detto (espressioni facciali, direzione dello sguardo, identità), una delle altre cose che tendiamo ad inferire

dalla forma del viso, da alcune caratteristiche di esso sono tratti sul carattere delle persone.

Abbiamo già parlato di frenologia, parlando di Gall che sosteneva come attraverso un’analisi della morfologia

del cranio (protuberanze, fessure) fosse possibile inferire alcune caratteristiche psicologiche su una persona.

La fisiognomica è una sorta di sorella della frenologia: si ipotizza che sia possibile inferire delle caratteristiche

sulla personalità/sul carattere di una persona non solo dalla morfologia del cranio ma da tutto il corpo

(lineamenti del viso, postura).

Cesare (Marco Ezechia) Lombroso è il padre della moderna criminologia; è sua l’idea del “criminale per

nascita” secondo cui il criminale nasceva anatomicamente diverso dalla persona per bene.

Al di là quindi della storia e dalla convinzione che si possa inferire da alcuna caratteristiche del volto dei tratti di

personalità, col tentativo di farne una scienza, la cosa più importante è che tutti tendiamo a fare queste

inferenze. Forse non è scienza, ma lo facciamo tutti ed implicitamente; la cosa più importante è che tende ad

esserci un consenso abbastanza unanime su questi giudizi.

Il fatto che vi sia consenso non implica necessariamente che il giudizio sia accurato, potremmo essere tutti

vittime di un bias/ di un errore.

Perché facciamo queste inferenze?

1) Overgeneralization hypothesis di Zebrowitz: secondo questa idea queste inferenze si tratterebbero di un errore. Tutti noi siamo bravissimi ad estrapolare molto velocemente delle informazioni quali l’espressione

facciale, l’età, il genere: sono giudizi che riusciamo ad emettere molto velocemente ed ai quali, a volte,

assomigliano delle caratteristiche del volto.

Sulla base di questa ipotesi è possibile che quello che il cervello estrapola è l’espressione facciale latente a

tali caratteristiche che poi viene elaborata come un tratto negativo.

L’aspetto più interessante (e più importante dal punto di vista delle relazioni e delle interazioni sociali) è che

questo giudizio, forse sbagliato, potrebbe collegarsi con una profezia autoavverantesi (self-fulfilling

prophecies): se si ha una prima impressione di un certo tipo su un’altra persona mi comporterò di

conseguenza e questo, a sua volta, potrebbe far sì che un tratto (anche inesistente ma “immaginato”) tenda a

svilupparsi. Se penso che una persona sia inaffidabile potrei modificare la relazione così tanto che, piano

piano, quel tratto potrebbe tendere a svilupparsi nell’altro.

C’è chi sostiene una seconda possibilità, probabilmente in parte vera.

2) “A grain of truth”: tendiamo a fare queste inferenze perché, fondamentalmente, un pizzico di verità c’è.

Ci sono delle evidenze sperimentali che vanno in direzione di questa seconda ipotesi.

È noto che gli ormoni sessuali, in particolare quelli della pubertà (tra tutti il testosterone), possano avere degli

effetti sia sul comportamento (aumentare aggressività) sia nello sviluppo di alcune caratteristiche morfologiche,

in particolare a livello del volto. Nel momento in cui io faccio un’inferenza implicita, automatica, inconsapevole

osservando il volto di una persona è possibile che io stia valutando la sua quantità di testosterone che ha

conseguenze sia sul corpo, che sul comportamento.

commenti (0)

non sono stati rilasciati commenti

scrivi tu il primo!

Questa è solo un'anteprima

3 pagine mostrate su 55 totali

Scarica il documento