Docsity
Docsity

Prepara i tuoi esami
Prepara i tuoi esami

Studia grazie alle numerose risorse presenti su Docsity


Ottieni i punti per scaricare
Ottieni i punti per scaricare

Guadagna punti aiutando altri studenti oppure acquistali con un piano Premium


Guide e consigli
Guide e consigli

Riassunto Psicologia Generale Anolli-Legrenzi, Dispense di Psicologia Generale

Riassunto specifico del libro di Psicologia Generale in preparazione all'esame del prof. Pessa dell'università di Pavia

Tipologia: Dispense

2015/2016

Caricato il 08/02/2016

matteo.delre.12
matteo.delre.12 🇮🇹

4

(2)

1 documento

1 / 46

Toggle sidebar

Spesso scaricati insieme


Documenti correlati


Anteprima parziale del testo

Scarica Riassunto Psicologia Generale Anolli-Legrenzi e più Dispense in PDF di Psicologia Generale solo su Docsity! 1- SPIEGARE LE MOTIVAZIONI TEORICHE E SPERIMINETALI A FAVORE DEL MODELLO DI MEMORIA DI TULVING La memoria viene definita come la capacità di conservare nel tempo le informazioni apprese e di recuperarle quando servono in modo pertinente. È un processo attivo e dinamico, ma non va considerata una fotocopia della realtà poiché soggetta a distorsioni. Inoltre non ha una capacità infinita,, ma limitata in termini quantitativi e di durata: memoria e oblio sono quindi in stretta interdipendenza. I metodi di di indagine per studiare i processi di memoria sono principalmente due: il metodo naturalistico in un contesto ecologico e il metodo scientifico in un contesto di laboratorio. Il primo metodo risulta particolarmente vantaggioso nei casi in cui i processi di memoria sono modulati da processi emotivo-affettivi, il secondo metodo invece è quindi preferibile in tutte le situazioni in cui i processi emotivo-affetti non hanno grande influenza sulle prestazioni. I tipi di compiti che si possono utilizzare possono essere classificati lungo due dimensioni: la tipologia di risposta richiesta al soggetto (di richiamo e di riconoscimento) e la natura delle informazioni da utilizzare per svolgere il compito (episodico e semantico). Il primo a compiere studi in questo ambito fu Ebbinghaus (1885) che esaminò su se stesso in modo sistematico come la memoria per stimoli codificati (trigrammi senza senso) cambi quando l'intervallo di ritenzione aumenta: effetto del decadimento, ossia i ricordi più distanti nel tempo sarebbero anche i primi ad essere dimenticati. Tale ipotesi tuttavia non si è dimostrata attendibile. La memoria viene distinta in due principali magazzini la MBT e la MLT: la prima ha una capacità e una durata molto limitata e vi si fa ricorso per le informazioni che devono essere immediatamente utilizzate. La capacità di questo magazzino è stata stimata per la prima volta da Miller (1956) con l'individuazione del “magico numero 7 (±2)”. Per quanto riguarda la MLT bisogna affrontare due questioni fondamentali: quali sono le cause delle cattive performance e se esistono ulteriori suddivisioni al suo interno. L'oblio viene attribuito a due possibili cause: dimenticanza spontanea e interferenza. Attualmente non vi sono evidenze scientifiche che provano l'esistenza dell'oblio spontaneo in assenza di patologie. Tulving (1972) elaborò uno dei più celebri modelli di suddivisione in sistemi di memoria che, sulla base di evidenze neurologiche, psicologiche ed evolutive, propone una distinzione della memoria in tre sistemi: memoria episodica, semantica e procedurale. Secondo Tulving la memoria episodica dovrebbe riguardare tutte le informazioni il cui accesso è fortemente legato al contesto in cui le informazioni stesse sono acquisite, mentre la memoria semantica sarebbe deputata a contenere le informazioni e le conoscenze di carattere generale, in parte indipendenti dal contesto di acquisizione. Queste due tipologie rientrano entrambe nella memoria dichiarativa. Per quanto riguarda la memoria procedurale si fa riferimento alle sequenze organizzate di azioni, dirette a conseguire uno scopo. Molte procedure, anche se le conosciamo e le sappiamo eseguire perfettamente, non possono facilmente essere descritte in termini verbali al contrario di quanto accade per i contenuti della memoria episodica e della memoria semantica. In termini evoluzionistici inizialmente esisterebbe solo la memoria procedurale indispensabile per sopravvivere nell'ambiente; successivamente una porzione della memoria procedurale si specializzerebbe nel gestire i concetti e il linguaggio, così formando la memoria semantica; infine una piccola porzione della memoria semantica si specializzerebbe nel gestire le informazioni legate ai contesti, dando così avvio alla memoria episodica. La rigida suddivisione introdotta da Tulving tende a far trascurare molti effetti dovuti alla interazione tra memoria episodica e memoria semantica. Essi sono dovuti al fatto che il sistema cognitivo umano tende a raggruppare le informazioni di natura episodica in CATEGORIE, la cui natura è legata alle conoscenze generali del soggetto e che quindi sono gestite dalla memoria semantica. Questa strategia è necessaria per evitare o limitare gli effetti di INTERFERENZA tra informazioni episodiche, che ne impedirebbero il recupero (effetto tip-of-tongue). Le teorie sulla struttura della memoria a lungo termine sono basate sui risultati ottenuti con un metodo, chiamato DECOMPOSIZIONE DEI COMPITI, dato che il metodo è assai discutibile, sono altrettanto discutibili le proposte di suddivisione della memoria a lungo termine. Questo metodo, proposto da Tulving (1983) prende in considerazione COPPIE DI COMPITI SPERIMENTALI DIFFERENTI aventi in comune UNA STESSA VARIABILE INDIPENDENTE: se manipolando questa variabile, si producono effetti sulla performance in uno dei due compiti ma non nell’altro allora questa sarebbe una prova del fatto che i due compiti sono eseguiti da DUE MODULI (o SISTEMI) DIFFERENTI). Gli esperimenti sui soggetti umani mostrano che la memoria umana è un sistema molto potente; tuttavia la sua efficienza è principalmente una questione di ORGANIZZAZIONE; ha quindi senso cercare tecniche che migliorino l’efficienza nell’uso della memoria. La memoria umana non è un serbatoio, ma agisce in modo RICOSTRUTTIVO, in funzione degli SCOPI presenti nel momento del suo utilizzo. I modelli realistici del funzionamento della memoria, oltre che tener conto dei dati di tipo cognitivo, devono ispirarsi il più possibile a quanto sappiamo sul funzionamento del cervello. 2-LA METAFORA DEL FILTRO NELLO STUDIO DEI PROCESSI ATTENTIVI L'attenzione è l'insieme dei dispositivi che consentono di a) orientare le risorse mentali disponibili verso gli oggetti e gli eventi, b) ricercare ed individuare in modo selettivo le informazioni per focalizzare e dirigere la nostra condotta, c) mantenere in modo vigile una condizione di controllo su ciò che stiamo facendo. È un processo grazie al quale, in un dato momento, attribuiamo rilievo a una data informazione, selezionando, di volta in volta, ciò che per noi è saliente e trascurando ciò che per noi è indifferente. L'attenzione si frastaglia in una gamma estesa e variabile di processi che accompagnano continuamente l'esperienza nell'interazione con l'ambiente. Ad esempio l'attenzione endogena è avviata dalle nostre esperienze personali, governata da processi mentali top-down, implicando un orientamento volontario verso uno specifico oggetto o evento dell'ambiente; al contrario l'attenzione esogena è attivata da uno stimolo esterno, inaspettato e saliente, ed è regolata da processi mentali bottom-up, implicando un orientamento automatico dell'attenzione (effetto cocktail party). Sono stati riconosciuti inoltre processi attentivi deputati ad indagare una piccola porzione dell'ambiente come l'attenzione spaziale che si attua quando solitamente vi è coincidenza fra la direzione dello sguardo e quella dell'attenzione, tuttavia possiamo separare i due processi. Questa diventa particolarmente importante quando ci focalizziamo su un oggetto, poiché ci permette di integrare le varie parti che lo compongono nello stesso tempo per dare luogo alla sua interezza, secondo le leggi della percezione. Lo studio dei processi attentivi è di fondamentale importanza ai fini della comprensione di come progettare le INTERFACCE UOMO-MACCHINA e come i soggetti umani selezionano e recepiscono le informazioni provenienti dall’ambiente circostante. Questo studio è stato condotto (principalmente nell’ambito della Psicologia Cognitiva) servendosi di ESPERIMENTI CONDOTTI SU SOGGETTI UMANI e METAFORE E MODELLI IN GRADO DI SPIEGARE I RISULTATI SPERIMENTALI OTTENUTI. Sono stati utilizzati tipologie di compiti differenti negli esperimenti per indagare i processi attentivi, ovvero i compiti di attenzione selettiva (il compito del soggetto è quello di SELEZIONARE, tra le varie informazioni che arrivano contemporaneamente o in successione sui canali sensoriali, una particolare di esse in funzione di opportune caratteristiche stabilite in precedenza dallo sperimentatore), i compiti di attenzione divisa (in questo caso il soggetto deve selezionare contemporaneamente più informazioni o deve eseguire più compiti simultaneamente) e i compiti di vigilanza(in questo caso il soggetto deve mantenere il più a lungo possibile una elevata performance nel monitorare le informazioni che provengono dall’ambiente esterno). Per quanto riguarda i tipi di metafore addotte per giustificare il comportamento dei processi attentivi si ricordano la metafora del filtro, la metafora del serbatoio, la metafora del fascio di luce e della lente con zoom. La metafora del filtro è la prima e la più semplice delle teorie, viene utilizzata preferibilmente per descrivere i compiti di attenzione selettiva. Qui l’attenzione è vista come analoga a un FILTRO che seleziona le informazioni provenienti dai canali sensoriali e ne lascia passare solo alcune che raggiungono il sistema percettivo vero e proprio (ovvero la MEMORIA A BREVE TERMINE), dove possono essere ulteriormente elaborate, le informazioni che non riescono a superare il filtro vengono irrimediabilmente PERDUTE. Broadbent (1959) postula l’esistenza di un CANALE UNICO A CAPACITÀ LIMITATA che collega i canali sensoriali alla memoria a breve termine, all’inizio del quale è collocato il FILTRO ATTENTIVO, che agisce in modo da lasciar passare un’informazione per volta; subito dopo il registro sensoriale vi sarebbe un collo di bottiglia che lascia passare solo gli stimoli pertinenti in quella data situazione. Gli stimoli ambientali giungerebbero a un magazzino sensoriale di durata molto breve, in cui sono analizzate le loro caratteristiche (forma, colore, grandezza, distanza...). Il collo di bottiglia dell'attenzione si trova immediatamente dopo il registro sensoriale e solo una parte assai ridotta delle informazioni va avanti per la successiva elaborazione semantica. È l'ipotesi della selezione precoce: gli stimoli irrilevanti sono filtrati e scartati, mentre solo i segnali pertinenti sono ammessi all'elaborazione successiva sulla base delle loro caratteristiche fisiche. A tale teoria vi si ricorre per spiegare i risultati degli esperimenti effettuati utilizzando il paradigma dell'ascolto dicotico. Tuttavia per alcuni tipi di messaggi,, anche se inattesi, i soggetti potevano ricordarsi il contenuto se il loro nome era presente e se il contenuto semantico poteva aiutare l’attenzione. È l'effetto cocktail party, tale effetto però non sarebbe possibile secondo l'ipotesi della selezione precoce, la quale non prevede il processamento degli stimoli imprevisti, anche se salienti. Occorre quindi modificare l'ipotesi e parlare di selezione tardiva: Treisman (1971) introduce la teoria del filtro attenuato, viene abbandonata così l’idea di un canale unico a capacità limitata e si postula l’esistenza di più canali paralleli, ognuno deputato ad elaborare un particolare aspetto dell’informazione sensoriale (fisico, lessicale, semantico, ecc.). Ad ogni canale è associata un’ENFASI, che codifica l’importanza che esso ha per il soggetto in quel momento. La FORZA con cui il segnale viene trasmesso da un dato canale dipende dal prodotto tra l’INTENSITÀ del segnale e l’ENFASI associata al canale stesso. Al termine dei vari canali si trova una SOGLIA comune: solo i segnali la cui forza è maggiore della soglia arrivano alla MBT. Invece nella teoria introdotta da Deutsch e Deutsch (1963) si crede che il FILTRO attentivo sia collocato addirittura nella MEMORIA A BREVE TERMINE e controlli quali informazioni selezionare per un possibile successivo passaggio nella MEMORIA A LUNGO TERMINE. Nel corso degli anni '70 la metafora del filtro è stata progressivamente abbandonata, poiché alcune teorie basate su questo paradigma (come la teoria del filtro attenuato) possono, scegliendo opportunamente i valori dei parametri (come SOGLIE, ENFASI, INTENSITÀ), spiegare QUALUNQUE DATO SPERIMENTALE e quindi non sono FALSIFICABILI; una teoria non falsificabile è, però, INUTILE. Infine queste teorie non riescono a specificare in modo preciso e convincente DOVE si trovi il FILTRO che esse postulano. 3-DESCRIVERE I PRINCIPI DI ORGANIZZAZIONE DEL CAMPO PERCETTIVO PROPOSTI DAI GESTALTISTI La percezione può essere intesa come l'organizzazione immediata, dinamica e significativa delle informazioni sensoriali. Percepire vuol dire assegnare un significato agli stimoli provenienti dagli organi di senso e nell'attribuire loro proprietà fisiche: nitidezza ad un’immagine, grandezza ad un oggetto, chiarezza ad un suono, ecc. Per capire il fenomeno della percezione visiva, dal punto di vista strettamente cognitivo, bisogna porsi due domande: perché e come percepiamo. Al primo quesito la risposta è perché ricerchiamo la “buona forma”, intesa come qualunque organizzazione percettiva a cui l’individuo attribuisce un significato in funzione a) della propria struttura anatomo-fisiologica, b) delle regole che governano l’organizzazione percettiva e c) dell’esperienza. Inoltre perché quest’attività è indispensabile per l’elementare sopravvivenza nell’ambiente, per la riproducibilità selettiva, e per il raggiungimento di livelli ottimali di realizzazione e di qualità della vita. Per quanto riguarda il come percepiamo ciò che vediamo non è quello che esiste effettivamente nella realtà, come ingenuamente si potrebbe credere; la realtà è “fredda” e “incolore”, fatta, cioè, di luce proiettata ai nostri organi di senso sotto forma di lunghezze d’onda. La nostra “costruzione” della realtà (in senso visivo) è, quindi, una trasformazione della luce proiettata sulle nostre retine. Questo è il fenomeno del realismo ingenuo. Secondo il senso comune le proprietà fisiche esperite dall'esperienza sono oggettive e la percezione è una mera registrazione sensoriale, mentre la psicologia scientifica ci ha confermato che le prime sono frutto di un'elaborazione mentale e risentono di processi cognitivi di classificazione, mentre la percezione è una complessa interpretazione della realtà. Detto ciò possiamo affermare che le sensazioni, intese come impressioni soggettive, immediate e semplici, che corrispondono a una data intensità dello stimolo fisico, da sole non contengono le informazioni sufficienti per spiegare le nostre percezioni. Il passaggio dalla percezione ai percetti è il risultato della catena psicofisica: gli oggetti del mondo circostante producono in continuazione una molteplicità indefinita di radiazioni, tutto ciò è la stimolazione fisicamente generata dall'oggetto presente nell'ambiente, definita come stimolazione distale. La stimolazione fisica che effettivamente giunge ai nostri recettori sensoriali è invece la stimolazione prossimale, mentre il percetto è la percezione che fenomenicamente noi sperimentiamo. Questo processo, sotto alcune condizioni, crea una discrepanza fra la realtà fisica e quella fenomenica (percepita), questo può indurci a fare degli errori di valutazione su quello che percepiamo, in due direzioni: descrivere quello che si sa e non quello che si vede (errore dello stimolo:), oppure attribuire agli stimoli distali o prossimali una proprietà fenomenica attribuibile soltanto ai percetti (errore dell’esperienza). Per quanto riguarda le teorie della percezione possiamo classificarle secondo due diversi criteri: in base al ruolo che assegnano alle caratteristiche fisiche del pattern di stimolazione nel determinare il percetto (teorie basate sullo stimolo e teorie basate su fattori interni) oppure in base al fatto che concepiscano la percezione come un processo composto da stadi successivi di elaborazione (teorie degli stadi) o come un processo che si verifica in un singolo passo (teorie olistiche). Le cinque teorie che hanno avuto maggiore rilievo in tale campo sono: la teoria empirista, la teoria della Gestalt, il New Look, Gibson e la teoria computazionale di Marr e Poggio. Negli anni '30 i gestaltisti hanno affrontato lo studio della percezione adottando un approccio olistico, ossia considerandola un evento unico ed immediato, in risposta alla scuola empirista, capeggiata da Von Helmholtz, che considerava il processo percettivo come una serie di eventi in successione influenzati dall'esperienza passata. La percezione non è né cumulativa, nè influenzata dal passato, ma si compie all'istante (processo primario) in base alla distribuzione degli stimoli, ai loro rapporti (relazione fra gli elementi) e ai “principi di unificazione”. I punti fondamentali della teoria della Gestalt presuppongono che l’essere umano organizzi in forme gli elementi percettivi, sulla base di leggi e principi ben precisi: il principio della supremazia dell'organizzazione globale sulle parti, il principio del minimo o della semplicità, le leggi dell’organizzazione percettiva e dell’ambiente, come campo fenomenico in cui intervengono forze di “coesione” e forze di “freno” (resistenti). Inoltre altri postulati sono: gli elementi vicini tendono ad essere vissuti come costituenti di un’unità, ciò non accade invece con quelli lontani (legge della vicinanza); gli elementi che formano delle figure chiuse tendono ad organizzarsi in unità (legge della chiusura), tendono a unificarsi tra di loro elementi che possiedono un qualche tipo di somiglianza (legge della somiglianza), gli elementi vengono uniti in forme in base alla loro continuità di direzione (legge della continuità), l'esperienza passata interviene secondariamente rispetto alle leggi precedenti (con percetti nuovi), le rappresentazioni che noi percepiamo, siano esse bidimensionali o tridimensionali, sono le più semplici possibili da interpretare percettivamente e cognitivamente (principio del minimo o della semplicità). In sintesi ciò che veniva affermato da tale corrente si può racchiudere nell'assioma “il tutto è più della somma delle sue parti”. 4-ILLUSTRARE LA TEORIA DELLE INTELLIGENZE MULTIPLE Quando si parla di intelligenza tutti capiscono di che cosa si tratta, anche se poi entrano subito in contrasto se sono richiesti di dare una definizione precisa. Soprattutto le discordanze affiorano quando si cerca di definire i confini e le origini. L'origine dell'intelligenza può essere attribuita all'ereditarietà oppure all'ambiente culturale. Come avviene in molti altri concetti, vi è un nucleo centrale di caratteristiche che tutti attribuiscono all'intelligenza (per esempio la capacità di ragonamento, la soluzione di problemi), mentre i margini sono più o meno sfocati con caratteristiche che appartengono a elementi isolati o, meglio riconosciuti da alcuni, come le capacità emozionali e pratiche, le abilità corporee; le differenze di definizione nascono anche dal fatto che il problema è stato affrontato di volta in volta da scienze diverse. Nella prima metà del secolo scorso i metodi psicometrici per la valutazione dell'intelligenza sono stati usati ampiamente soprattutto negli Stati Uniti, estendendosi poi all'Europa. La sofisticazione crescnete dei metodi di analisi statistica hanno portato a dubbi e revisioni sostanziali anche tra i sostenitori del modello pragmatico, secondo i quali l'intelligenza sarebbe ciò che misurano i test d'intelligenza: in altri termini noi non potremmo conoscerla o definirla nella sua essenza, ma solo rilevarne delle manifestazioni in certi contesti. Anche questa concezione limitativa, che permetteva però molte applicazioni pratiche, ha subito moltissime critiche e revisioni sia dall'interno sia dall'esterno. Dopo gli anni Sessanta con la diffusione del cognitivismo, dell'informatica e dei metodi computazionali che mirano a studiare i processi mentali piuttosto che i risultati, la psicologia ha lasciato l'uso dei test alle applicazioni pratiche mentre la ricerca si è orientata sull'analisi molto fine delle componenti cognitive durante lo svolgimento di compiti in cui si possono controllare le variabili,, facendo inferenze sui processi che si svolgono nella mente. Infine il confronto con le scoperte della biologia, della genetica e delle neuroscienze, che negli ultimi trant'anni hanno avuto uno sviluppo impressionante, comincia a far intravedere le basi delle varie forme di intelligenza e ha permesso di osservare (almeno in parte) il loro funzionamento. Analogamente ad altri problemi della scienza, quello dell'intelligenza viene trattato ormai da studiosi di varie discipline che forniscono conferme di aspetti studiati dagli psicologi a volte in modo prevalente o parziale e troppo presto allargati a modelli di spiegazione o teorie generali: così le scoperte sulle reti neurali, sulla plasticità cerebrale, sui meccanismi molecolari e cellulari che sottostanno all'apprendimento, alla memoria, al linguaggio permettono di chiarire meglio come funzionano i processi cognitivi negli animali, nell'uomo e nelle macchine mostrando i nessi tra struttura e funzione. Le scoperte della genetica danno un contributo insostituibile alla controversia tra eredità e ambiente: la riproduzione degli individui più adatti ad affrontare i cambiamenti dell'ambiente e del clima avrebbe favorito la specializzazione delle aree cerebrali su cui si fondano la molteplicità dei tipi di intelligenza e l'uso del linguaggio. Per avere un'idea della complessità dei problemi relativi alla natura e alla valutazione dell'intelligenza in campo psicologico e del modo con cui sono stati affrontati, può essere utile riportare la classificazione presentata da Sternberg nel suo libro Metaphors of Mind (1990), in cui cerca di mostrare che tutti i modelli hanno alcuni elementi positivi e alcune lacune. Un primo punto in comune è la visione dell'intelligenza come adattamento all'ambiente, il focus sui processi di base (attenzione, percezione, capacità di apprendimento) e sui processi superiori (ragionamento, problem-solving, decisione); un altro è la tendenza degli ultimi anni a valorizzare il ruolo della cultura come complesso di conoscenze e di valori che influenzano il nostro modo di fare esperienza del mondo e di metterci in relazione con gli altri e come uso di strategie metacgnitive per controllare l'esecuzione dei compiti. Secondo Sternberg queste tendenze sono dovute soprattutto alla diffusione delle teorie cognitiviste e dei metodi computazionali, per cui l'accento si è spostato sui comportamenti che regolano i processi di pensiero più che sui risultati. La fonte di molte delle domande che gli studiosi si pongono è costruita da un modello o da una metafora che guida la teoria o la ricerca. Una comprensione delle metafore più o meno esplicite che hanno generato le varie teorie dell'intelligenza permette anche di intravedere una certa unità e coerenza in questo campo che a prima vista sembra così eterogeneo. specifici agenti software animati, che aiutando gli allievi in un processo autovalutativo a tutto tondo, ovvero a porsi domande, a costruirsi autospiegazioni dei fenomeni, a valutare le loro risposte, a riflettere sull’uso dei processi cognitivi che stanno operando al momento stesso dell’utilizzazione di tali programmi, dunque tutto ciò che serve loro per essere lettori esperti di domani. 6-LE RETI SEMANTICHE E IL LORO UTILIZZO NEI MODELLI DI MEMORIA La memoria viene definita come la capacità di conservare nel tempo le informazioni apprese e di recuperarle quando servono in modo pertinente. È un processo attivo e dinamico, ma non va considerata una fotocopia della realtà poiché soggetta a distorsioni. Inoltre non ha una capacità infinita, ma limitata in termini quantitativi e di durata: memoria e oblio sono quindi in stretta interdipendenza. I metodi di di indagine per studiare i processi di memoria sono principalmente due: il metodo naturalistico in un contesto ecologico e il metodo scientifico in un contesto di laboratorio. Il primo metodo risulta particolarmente vantaggioso nei casi in cui i processi di memoria sono modulati da processi emotivo-affettivi, il secondo metodo invece è quindi preferibile in tutte le situazioni in cui i processi emotivo-affetti non hanno grande influenza sulle prestazioni. I tipi di compiti che si possono utilizzare possono essere classificati lungo due dimensioni: la tipologia di risposta richiesta al soggetto (di richiamo e di riconoscimento) e la natura delle informazioni da utilizzare per svolgere il compito (episodico e semantico). Il primo a compiere studi in questo ambito fu Ebbinghaus (1885) che esaminò su se stesso in modo sistematico come la memoria per stimoli codificati (trigrammi senza senso) cambi quando l'intervallo di ritenzione aumenta: è l'effetto del decadimento, ossia i ricordi più distanti nel tempo sarebbero anche i primi ad essere dimenticati. Tale ipotesi tuttavia non si è dimostrata attendibile. La memoria viene distinta in due principali magazzini la MBT e la MLT: la prima ha una capacità e una durata molto limitata e vi si fa ricorso per le informazioni che devono essere immediatamente utilizzate. La capacità di questo magazzino è stata stimata per la prima volta da Miller (1956) con l'individuazione del “magico numero 7 (±2)”. La MLT è invece un magazzino con una capacità molto ampia e un'alta durata dei ricordi che vi entrano a far parte. Più che di memoria al singolare, occorre parlare, al plurale, di memorie; questo per la sua natura multisistemica, in quanto costellazioni di sistemi e di processi anche diversi fra loro, sono comunque centrali nella cognizione umana. Per quanto riguarda il concetto di reti semantiche dobbiamo risalire a Tulving (1972), il quale elaborò uno dei più celebri modelli di suddivisione in sistemi di memoria che, sulla base di evidenze neurologiche, psicologiche ed evolutive, produce una distinzione della memoria in tre sistemi: memoria episodica, semantica e procedurale. Secondo Tulving la memoria semantica sarebbe deputata a contenere le informazioni e le conoscenze di carattere generale, in parte indipendenti dal contesto di acquisizione; va considerata come un lessico mentale che organizza le conoscenze che una persona possiede circa le parole e i simboli, i significati e i concetti, nonché le relazioni fra loro esistenti. Secondo alcuni studiosi avrebbe sede nei lobi temporali mediali (danni a queste aree cerebrali conducono alla demenza semantica: incapacità di ricordare conoscenze semantiche); secondo altri sarebbe maggiormente distribuita nel cervello. Funge come una sorta di enciclopedia mentale, contiene le conoscenze sul mondo in forma astratta (amodale), caratterizzata da grande velocità e flessibilità,. Al riguardo, si è ipotizzata l'esistenza di reti semantiche, in grado di collegare una parola con altre parole sulla base di relazioni logiche o associative. Consistono in reti di elementi interconnessi, definiti nodi, i quali rappresentano i concetti; mentre le connessioni fra i nodi sono le relazioni che connettono i concetti l’uno all’altro. Mentre l'emisfero sinistro attiva una rete semantica in modo distinto selezionando le proprietà essenziali della parola (selettività semantica), l'emisfero destro attiva tale rete in modo indistinto includendo proprietà semantiche anche distanti (polivalenza semantica). Uno dei primi modelli di reti semantiche è quello proposto da Quillan e Collins (1969). Quillan si interessava al difficile, ma importante problema, della programmazione di computers per la comprensione di testi, e per questo scopo aveva prodotto un modello che indicava con la sigla TAC ( teachable language comprehender), il quale presupponeva l’esistenza di una rete gerarchicamente organizzata di connessioni tra i concetti. Caratteristica importante di questo modello è che una proprietà viene immagazzinata a livello più alto possibile, in accordo con la principale funzione dei concetti: l'economia cognitiva. Quindi se dobbiamo associare a un oggetto una caratteristica propria di quella categoria, avremmo un enorme risparmio di risorse associando questa proprietà direttamente al concetto sovraordinato, piuttosto che ad ogni singolo sottogruppo (poiché ad esempio tutti i cani abbaiano, eseguirò un'operazione mentale più veloce nel riferirmi alla macrocategoria “cane” piuttosto che passare in rassegna tutte le varie razze: carlino, chihuahua, barboncino...). Più nodi semantici vengono “attraversati” più lunghi saranno i tempi di elaborazione, in realtà questo fattore, che rappresenta il pilastro su cui poggia l’intera teoria delle reti semantiche, è stato ampiamente confutato in una ricerca condotta da Johnson-Laird, Shapiro e Morton. I risultati da loro ottenuti sono palesemente in contrasto con la teoria delle reti semantiche, in base alla quale si sarebbe dovuto trovare un tempo di riposta più rapido per le affermazioni che si riferiscono al medesimo nodo, o a quelli più vicini. Inoltre, nella sua forma originale, il modello SAM incontra alcune difficoltà nella spiegazione dei fenomeni di oblio, dal momento che in esso l'unica causa possibile di oblio è data dall'interferenza nella fase di richiamo, che si verifica quando immagini differenti presentano forze complessive di associazione pressoché identiche. Non è possibile, quindi, considerare il modello di Collins e Quillan come una spiegazione generale del funzionamento della memoria semantica, ma piuttosto come ad una caratteristica specifica del funzionamento cognitivo che viene attuata soltanto in presenza di contesti adeguati. Anche la neuropsicologia ha confermato l’esistenza di un sistema di memoria semantica indipendente dagli altri sistemi, attraverso gli studi condotti sull’afasia e sull’agnosia. Alcuni tipi di queste patologie, infatti, consistono proprio nell’incapacità di connettere uno stimolo periferico (sia esso una parola o un oggetto) con il suo significato semantico. La memoria semantica è, quindi, molto più di una sottocomponente, tuttavia per arrivare ad una completa comprensione e conoscenza di questo sistema, bisognerà approfondire la stretta connessione esistente fra esso e i diversi sistemi sensoriali. 7-IL MODELLO OLOGRAFICO DELLA MEMORIA La memoria viene definita come la capacità di conservare nel tempo le informazioni apprese e di recuperarle quando servono in modo pertinente. È un processo attivo e dinamico, ma non va considerata una fotocopia della realtà poiché soggetta a distorsioni. Inoltre non ha una capacità infinita, ma limitata in termini quantitativi e di durata: memoria e oblio sono quindi in stretta interdipendenza. I metodi di di indagine per studiare i processi di memoria sono principalmente due: il metodo naturalistico in un contesto ecologico e il metodo scientifico in un contesto di laboratorio. Il primo metodo risulta particolarmente vantaggioso nei casi in cui i processi di memoria sono modulati da processi emotivo-affettivi, il secondo metodo invece è quindi preferibile in tutte le situazioni in cui i processi emotivo-affetti non hanno grande influenza sulle prestazioni. I tipi di compiti che si possono utilizzare possono essere classificati lungo due dimensioni: la tipologia di risposta richiesta al soggetto (di richiamo e di riconoscimento) e la natura delle informazioni da utilizzare per svolgere il compito (episodico e semantico). Il primo a compiere studi in questo ambito fu Ebbinghaus (1885) che esaminò su se stesso in modo sistematico come la memoria per stimoli codificati (trigrammi senza senso) cambi quando l'intervallo di ritenzione aumenta: è l'effetto del decadimento, ossia i ricordi più distanti nel tempo sarebbero anche i primi ad essere dimenticati. Tale ipotesi tuttavia non si è dimostrata attendibile. La memoria viene distinta in due principali magazzini la MBT e la MLT: la prima ha una capacità e una durata molto limitata e vi si fa ricorso per le informazioni che devono essere immediatamente utilizzate. La capacità di questo magazzino è stata stimata per la prima volta da Miller (1956) con l'individuazione del “magico numero 7 (±2)”. La MLT è invece un magazzino con una capacità molto ampia e un'alta durata dei ricordi che vi entrano a far parte. Più che di memoria al singolare, occorre parlare, al plurale, di memorie; questo per la sua natura multisistemica, in quanto costellazioni di sistemi e di processi anche diversi fra loro, sono comunque centrali nella cognizione umana. Le indagini psicologiche e neurofisiologiche hanno mostrato che la memoria non può assolutamente essere paragonata ad un SERBATOIO contenente informazioni o tracce di eventi. Piuttosto il richiamo di informazioni sembra simile ad un processo di RICOSTRUZIONE, innescato da INDIZI, che agisce su una struttura assai complessa, nella quale le informazioni sono codificate in modo IMPLICITO. Modelli della memoria che possiedono queste caratteristiche sono i MODELLI OLOGRAFICI DELLA MEMORIA: si basano su una analogia tra i processi che intervengono nell’OLOGRAFIA OTTICA (Gabor, 1968) e quelli che hanno luogo nella memoria. Ciò che viene immagazzinato (l'ologramma) non è altro che la figura d'interferenza (processo di memorizzazione) derivante dal conflitto tra raggio di riferimento (contesto di memorizzazione) e raggio riflesso (contenuto da immagazzinare). Essi si suddividono in due categorie :MODELLI OLOGRAFICI IN SENSO STRETTO e MODELLI CONNESSIONISTICI DELLA MEMORIA. I primi sono basati su una implementazione diretta di operazioni che possiedono le stesse caratteristiche matematiche dei processi di INTERFERENZA e DIFFRAZIONE che compaiono nell’olografia ottica. Questa circostanza è stata resa possibile dalla scoperta, da parte di Borsellino e Poggio (1973), che esistono due operazioni sui vettori, chiamate CONVOLUZIONE e CORRELAZIONE, che godono delle stesse proprietà dell’interferenza e della diffrazione In questi modelli la memoria è costituita da un singolo VETTORE, avente le stesse dimensioni degli item da memorizzare. Esso costituisce L’OLOGRAMMA. Tra questi modelli rientrano il TODAM (Murdock, 1982)e il CHARM (Eich, 1982). Il problema di questi paradigmi è che funzionano in modo efficiente solo se i vettori che codificano gli item da memorizzare sono NOISE-LIKE, cioè: CON CORRELAZIONI RECIPROCHE TUTTE NULLE,. Questa condizione è assai difficile da realizzare in pratica. Per quanto riguarda invece i modelli connessionistici della memoria essi si basano sull’utilizzo di RETI NEURALI, ovvero sistemi composti da : UNITÀ in grado di attivarsi e CONNESSIONI tra le unità, ciascuna associata a un PESO. In modelli del genere la memoria è rappresentata in modo DISTRIBUITO dalla INTERA STRUTTURA. e L’OLOGRAMMA è la stessa struttura dei pesi. Esistono molti modelli connessionistici della memoria, tra i quali IL MODELLO DI HOPFIELD, il BAM e il modello dei PERCEPTRONI. Il grosso problema di questi pattern è che essi sono, in un modo o nell’altro, affetti dall’INTERFERENZA CATASTROFICA, dovuta al fatto che un nuovo apprendimento può distruggere completamente gli effetti di un apprendimento precedente. L’INTERFERENZA CATASTROFICA consiste nel fatto che, se una rete neurale ha appreso certe informazioni e se, partendo dalla struttura ottenuta al termine di questo primo apprendimento, le facciamo apprendere nuove informazioni, il secondo apprendimento produce un drammatico crollo della performance della rete neurale relativamente al primo apprendimento. La causa di questo fenomeno è dovuta al fatto che le leggi applicate presuppongono una eccessiva PLASTICITA’ DEI PESI rispetto alle richieste dell’ambiente esterno (ESPERIENZA). Questa circostanza va contro la plausibilità psicologica delle reti neurali, dato che nella MEMORIA UMANA i fenomeni di interferenza NON SONO MAI CATASTROFICI. Le caratteristiche di funzionamento del sistema cognitivo umano negli apprendimenti successivi sono state evidenziate dagli esperimenti di BARNES & UNDERWOOD (1959) sull’APPRENDIMENTO SEQUENZIALE. L’esperimento più tipico tra quelli condotti da Barnes & Underwood prevede 5 fasi successive: a) apprendimento di una prima lista di item da memorizzare, b) controllo per assicurarsi che l’apprendimento da parte dei soggetti dia luogo ad una performance nel richiamo del 100%, c) apprendimento di una seconda lista di item da memorizzare, d) misura del grado di apprendimento della seconda lista, d) test sulla performance nel richiamo dei soggetti di entrambe le liste. Un’interferenza della seconda lista sulla prima ESISTE, ma NON È ASSOLUTAMENTE CATASTROFICA, infatti la performance sulla prima lista non scende mai al di sotto del 50%. Per spiegare questo gap nel funzionamento dei processi di apprendimento, tra reti neurali e comportamento umano, si è ricorso al fatto che gli esseri umani CATEGORIZZANO le informazioni da immagazzinare in memoria e si servono di questa struttura categoriale per ricostruire ciò che va richiamato dalla memoria. Prove sperimentali di questo fatto si sono ottenute con GLI ESPERIMENTI DI REDER E ANDERSON, LA DIMENTICANZA INDOTTA DAL RICHIAMO e GLI ESPERIMENTI SULLA MEMORIZZAZIONE DI STORIE. In sostanza gli esseri umani si servono di SCHEMI per gestire le informazioni da registrare e da recuperare. Sulla base di questi principi, negli ultimi anni sono state proposte varie ARCHITETTURE NEURALI (cioè sistemi composti da più reti neurali che cooperano tra loro) in grado di risolvere il problema dell’interferenza catastrofica, rimane però tuttora irrisolto il problema di inserire in questi modelli i processi EMOTIVO-AFFETTIVI, dato che non è ancora stata elaborata una teoria completa delle emozioni. Tuttavia appaiono assai promettenti i modelli basati sulle RETI IMMUNITARIE, che sono una generalizzazione delle reti neurali. 8-I MODELLI FUNZIONALI DELLA MEMORIA La memoria viene definita come la capacità di conservare nel tempo le informazioni apprese e di recuperarle quando servono in modo pertinente. È un processo attivo e dinamico, ma non va considerata una fotocopia della realtà poiché soggetta a distorsioni. Inoltre non ha una capacità infinita, ma limitata in termini quantitativi e di durata: memoria e oblio sono quindi in stretta interdipendenza. I metodi di di indagine per studiare i processi di memoria sono principalmente due: il metodo naturalistico in un contesto ecologico e il metodo scientifico in un contesto di laboratorio. Il primo metodo risulta particolarmente vantaggioso nei casi in cui i processi di memoria sono modulati da processi emotivo-affettivi, il secondo metodo invece è quindi preferibile in tutte le situazioni in cui i processi emotivo-affetti non hanno grande influenza sulle prestazioni. I tipi di compiti che si possono utilizzare possono essere classificati lungo due dimensioni: la tipologia di risposta richiesta al soggetto (di richiamo e di riconoscimento) e la natura delle informazioni da utilizzare per svolgere il compito (episodico e semantico). Il primo a compiere studi in questo ambito fu Ebbinghaus (1885) che esaminò su se stesso in modo sistematico come la memoria per stimoli codificati (trigrammi senza senso) cambi quando l'intervallo di ritenzione aumenta: è l'effetto del decadimento, ossia i ricordi più distanti nel tempo sarebbero anche i primi ad essere dimenticati. Tale ipotesi tuttavia non si è dimostrata attendibile. La memoria viene distinta in due principali magazzini la MBT e la MLT: la prima ha una capacità e una durata molto limitata e vi si fa ricorso per le informazioni che devono essere immediatamente utilizzate. La capacità di questo magazzino è stata stimata per la prima volta da Miller (1956) con l'individuazione del “magico numero 7 (±2)”: mediamente gli individui ricordano tale quantità di chunks, inoltre la capacità di recupero non dipende dalla tipologia di item usato. Sperling invece si è occupato di un particolare tipo di memoria di durata molto inferiore a quella della memoria a breve termine e a volte chiamata ULTRABREVE. Nei suoi esperimenti tale memoria riguarda la percezione visiva immediata, per questa ragione essa è stata poi chiamata MEMORIA ICONICA. In anni successivi Neisser e altri hanno dimostrato che esiste una memoria ultrabreve anche per la percezione uditiva, chiamata MEMORIA ECOICA. Nel modello di Atkinson e Shiffrin si descrive il funzionamento dettagliato della memoria a breve termine. In particolare, si suppone che essa abbia una struttura A PILA: l’ultima informazione entrata si sovrappone a quelle precedenti, in modo tale che la più vecchia (quella in fondo alla pila) viene eliminata dalla memoria. Inoltre la probabilità che una informazione passi dalla memoria a breve termine a quella a lungo termine dipende da quanto l’informazione è riuscita a rimanere nella memoria a breve termine, grazie alla RIPETIZIONE INTERNA e, quindi, grazie all’entità delle elaborazioni cui è stata sottoposta. La MLT è invece un magazzino con una capacità molto ampia e un'alta durata dei ricordi che vi entrano a far parte. Più che di memoria al singolare, occorre parlare, al plurale, di memorie; questo per la sua natura multisistemica, in quanto costellazioni di sistemi e di processi anche diversi fra loro, sono comunque centrali nella cognizione umana. Tulving (1972) elaborò uno dei più celebri modelli di suddivisione in sistemi di memoria che, sulla base di evidenze neurologiche, psicologiche ed evolutive, propone una distinzione della memoria in tre sistemi: memoria episodica, semantica e procedurale. Secondo Tulving la memoria episodica dovrebbe riguardare tutte le informazioni il cui accesso è fortemente legato al contesto in cui le informazioni stesse sono acquisite, mentre la memoria semantica sarebbe deputata a contenere le informazioni e le conoscenze di carattere generale, in parte indipendenti dal contesto di acquisizione. Queste due tipologie rientrano entrambe nella memoria dichiarativa. Per quanto riguarda la memoria procedurale si fa riferimento alle sequenze organizzate di azioni, dirette a conseguire uno scopo. Molte procedure, anche se le conosciamo e le sappiamo eseguire perfettamente, non possono facilmente essere descritte in termini verbali al contrario di quanto accade per i contenuti della memoria episodica e della memoria semantica. Sono state elaborate inoltre tre categorie principali di paradigmi quantitativi della memoria: modelli basati sulle immagini, modelli a matrice e modelli olografici. Nel primo modello la memoria viene vista come un MAGAZZINO contenente le rappresentazioni ‘interne’ dei singoli item memorizzati, le cosiddette IMMAGINI (o TRACCE); i processi sia di recupero che di richiamo sono innescati da un item che funge da INDIZIO e, tra tutte le immagini interne, seleziona quella che più gli somiglia Nei modelli a matrice il funzionamento è basato su un processo di tipo RICOSTRUTTIVO, infatti la memoria non contiene tracce, ma solo indizi utili per la ricostruzione, costituiti dalle CORRELAZIONI (o FORZE DI ASSOCIAZIONE) tra i vari item presenti nel momento della memorizzazione. Quindi la memoria è composta da una MATRICE , ovvero una TABELLA ordinata per righe e colonne, contenente queste correlazioni L'ultima categoria descrive la memoria con una analogia tra i processi che intervengono nell’OLOGRAFIA OTTICA (Gabor, 1968) e quelli che hanno luogo nella memoria stessa. Ciò che viene immagazzinato (l'ologramma) non è altro che la figura d'interferenza (processo di memorizzazione) derivante dal conflitto tra raggio di riferimento (contesto di memorizzazione) e raggio riflesso (contenuto da immagazzinare). Atri tipi di memoria, per i quali sono stati elaborati dei modelli di riferimento, sono ad esempio la memoria autobiografica e la memoria di lavoro. La prima nonostante possa essere studiata solo tramite un metodo naturalistico, le numerose ricerche che sono state svolte su questo tema a partire dagli anni Settanta hanno condotto a risultati scientifici attendibili, per spiegare i quali sono stati proposti numerosi paradigmi: tutti postulano che essa non sia una memoria SOLO DI TIPO EPISODICO. Occorre infatti distinguere tra: RICORDI AUTOBIOGRAFICI VERI E PROPRI, relativi ai dettagli delle proprie esperienze personali e FATTI AUTOBIOGRAFICI, ovvero conoscenze relative alla propria vita personale, gestite dalla memoria semantica. Nel modello di Larsen si introduce una distinzione tra la SPECIFICITÀ PERSONALE DEL CONTENUTO DEL RICORDO e la SPECIFICITÀ PERSONALE DEL CONTESTO in cui l’informazione è stata acquisita. Tale modello non fa altro che applicare le idee di Tulving al caso specifico della memoria autobiografica. Il modello della Linton invece introduce un'organizzazione gerarchica dei contenuti della memoria autobiografica. I costruttivisti concordano tutti nel postulare che la memoria autobiografica sia fondata su una BASE DI CONOSCENZA ORGANIZZATA SU DIFFERENTI LIVELLI GERARCHICI: il processo di richiamo del contenuto della memoria autobiografica procederebbe dai livelli più generali a quelli più specifici e verrebbe innescato dagli indizi e dalle richieste temporaneamente contenuti nella memoria di lavoro. Con il modello di Sam postula che il funzionamento e il contenuto della memoria autobiografica siano completamente controllati dalla MEMORIA SEMANTICA: non solo le informazioni da immagazzinare verrebbero prima elaborate dalla Memoria Semantica, ma sarebbe quest’ultima a fornire le condizioni che permettono il richiamo dalla Memoria Episodica dei contenuti autobiografici. Infine, per quanto riguarda la memoria di lavoro, va ricordato il modello di Baddeley e Hitch (1974), questo tipo di magazzino non va considerato come una stazione di passaggio verso la MLT, quanto piuttosto uno spazio nel quale hanno luogo importanti attività mentali di integrazione, coordinazione e manipolazione delle informazioni in ingresso. Baddeley e Hitch hanno ipotizzato l'esistenza di un esecutivo centrale che svolge il ruolo di supervisione e regolazione dei processi cognitivi richiesti dalla situazione, orientando le risorse attentive. Il circuito fonologico invece concerne il parlato e conserva l'ordine in cui le parole sono presentate. É suddiviso in due componenti: il magazzino fonologico (in grado di trattenere le tracce acustiche) e il sistema articolatorio (reitera le tracce acustiche a livello subvocale). Il taccuino visuo-spaziale riguarda invece l'immagazzinamento e il trattamento delle informazioni visive e spaziali, nonché delle immagini mentali. È composto dal nascondiglio visivo (ha la funzione di conservare le informazioni concernenti la forma e il colore) e dallo scrivano interno (è implicato nella reiterazione attiva delle informazioni riguardanti lo spazio e i movimenti, soprattutto quelli del corpo). Per ultimo il tampone episodico è un sottosistema introdotto successivamente da Baddeley ed è deputato a collegare insieme le informazioni provenienti da diversi ambiti per formare unità integrate e coerenti. 9-INTERFERENZA PROATTIVA E RETROATTIVA NELLA MEMORIA La memoria viene definita come la capacità di conservare nel tempo le informazioni apprese e di recuperarle quando servono in modo pertinente. È un processo attivo e dinamico, ma non va considerata una fotocopia della realtà poiché soggetta a distorsioni. Inoltre non ha una capacità infinita, ma limitata in termini quantitativi e di durata: memoria e oblio sono quindi in stretta interdipendenza. I metodi di indagine per studiare i processi di memoria sono principalmente due: il metodo naturalistico in un contesto ecologico e il metodo scientifico in un contesto di laboratorio. Il primo metodo risulta particolarmente vantaggioso nei casi in cui i processi di memoria sono modulati da processi emotivo-affettivi, il secondo metodo invece è quindi preferibile in tutte le situazioni in cui i processi emotivo-affetti non hanno grande influenza sulle prestazioni. I tipi di compiti che si possono utilizzare possono essere classificati lungo due dimensioni: la tipologia di risposta richiesta al soggetto (di richiamo o di riconoscimento) e la natura delle informazioni da utilizzare per svolgere il compito (episodico o semantico). La memoria viene distinta in due principali magazzini la MBT e la MLT: la prima ha una capacità e una durata molto limitata e vi si fa ricorso per le informazioni che devono essere immediatamente utilizzate. La MLT è invece un magazzino con una capacità molto ampia e un'alta durata dei ricordi che vi entrano a far parte. Più che di memoria al singolare, occorre parlare, al plurale, di memorie; questo per la sua natura multisistemica, in quanto costellazioni di sistemi e di processi anche diversi fra loro, sono comunque centrali nella cognizione umana. Un processo ugualmente importante da indagare è l'oblio definito come l'eliminazione volontaria o involontaria di informazioni già immagazzinate, Bergson soleva dire che “la memoria è la facoltà dell'oblio”. Esso è parte integrante della memoria e costituisce una componente adattiva, difatti va distinto dall'amnesia, che rappresenta invece una condizione patologica della memoria legata a danni cerebrali o a forti traumi emotivi. Tale concetto ha da sempre attratto l’interesse degli studiosi, sia per le sue enormi IMPLICAZIONI PRATICHE, sia per il fatto che ci consente di indagare sui MECCANISMI DI FUNZIONAMENTO DELLA MEMORIA. Il primo a compiere studi in questo ambito fu Ebbinghaus (1885) che esaminò su se stesso in modo sistematico come la memoria per stimoli codificati (trigrammi senza senso) cambi quando l'intervallo di ritenzione aumenta: è l'effetto del decadimento, ossia i ricordi più distanti nel tempo sarebbero anche i primi ad essere dimenticati. Tale ipotesi tuttavia non si è dimostrata attendibile, infatti il trascorrere del tempo non è la causa diretta dell'oblio. La mente non è in grado di conservare tutto ciò che elabora, per quanto siano capienti i suoi depositi deve affrontare due problemi: a) la selezione delle informazioni in entrate; b) l'eliminazione delle informazioni non rilevanti o diventate tali. Riguardo la selezione, dato che la memoria, pur essendo molto potente, ha dei limiti di capienza, se vogliamo che funzioni nel presente, occorre che certi ricordi del passato siano eliminati. Tale selezione riguarda anche il materiale da conservare. Nella mente umana questi due processi si intrecciano tra loro e la cesura dei filtri non sempre è netta. Non siamo consapevoli dell'azione dei filtri, ed è stato lungo e difficile scoprire come funzionano. Automaticità di azione e mancanza di consapevolezza non sono affatto sorprendenti se riflettiamo sulla nostra incapacità di filtrate volontariamente i contenuti della mente. A tal proposito Wegner (1989) chiese ai soggetti del suo esperimento di “non pensare a un orso bianco”, e scoprì che in verità non si riesce a non pensare a qualcosa a lungo se si è stati istruiti in questo senso (effetto ironico). Tale effetto dipende dal fatto che la memoria di lavoro è gravata pesantemente da processi di monitoraggio volti a controllare cambiamenti volontari nei contenuti della coscienza: si verificherebbe prima una fase di monitoraggio in cui è realizzata una scansione dei contenuti mentali e solo successivamente una fase di tipo operativo mediante la quale si eliminano contenuti di pensiero non voluti o non desiderati. Con diverse spiegazioni si è cercato di giustificare l'oblio. Alcuni studiosi hanno avanzato l'idea che se un ricordo non è rievocato per molto tempo a poco a poco va perduto. E l'ipotesi del disuso. Esso non spiega, tuttavia, per quale motivo certi ricordi lontani possono riaffiorare dopo molto tempo inoltre a tutt’oggi non esistono, nei soggetti privi di patologie, prove convincenti dell’esistenza di un oblio spontaneo, per questa ragione la maggior parte degli studiosi ritiene che la causa principale dell’oblio sia l’interferenza con altre informazioni. Questa consiste negli effetti negativi provocati sulle informazioni immagazzinate da altre informazioni, o presenti precedentemente in memoria o successivamente provenienti dall’esterno. È la teoria dell'interferenza. Si distinguono due forme: l'interferenza proattiva si verifica quando i ricordi più remoti interferiscono (inibiscono) con la memoria di informazioni acquisite successivamente; abbiamo invece un'interferenza retroattva quando i ricordi più recenti limitano o danneggiano la memoria di quelli registrati in precedenza. Nella vita quotidiana può verificarsi un'azione simultanea di entrambe, ma sono comunque separabili sperimentalmente: se la prestazione sulle informazioni B nel gruppo di controllo è superiore a quella osservata nel gruppo sperimentale, questo significa che in quest'ultimo si è verificata un'interferenza proattiva delle informazioni A sulle informazioni B; se la prestazione sulle informazioni A nel gruppo di controllo è superiore a quella osservata nel gruppo sperimentale, questo significa che in quest'ultimo si è verificata un'interferenza retroattiva delle informazioni B sulle informazioni A. 10-STADI DELLA MEMORIA La memoria viene definita come la capacità di conservare nel tempo le informazioni apprese e di recuperarle quando servono in modo pertinente. È un processo attivo e dinamico, ma non va considerata una fotocopia della realtà poiché soggetta a distorsioni. Inoltre non ha una capacità infinita, ma limitata in termini quantitativi e di durata: memoria e oblio sono quindi in stretta interdipendenza. I metodi di indagine per studiare i processi di memoria sono principalmente due: il metodo naturalistico in un contesto ecologico e il metodo scientifico in un contesto di laboratorio. Il primo metodo risulta particolarmente vantaggioso nei casi in cui i processi di memoria sono modulati da processi emotivo-affettivi, il secondo metodo invece è quindi preferibile in tutte le situazioni in cui i processi emotivo-affetti non hanno grande influenza sulle prestazioni. I tipi di compiti che si possono utilizzare possono essere classificati lungo due dimensioni: la tipologia di risposta richiesta al soggetto (di richiamo o di riconoscimento) e la natura delle informazioni da utilizzare per svolgere il compito (episodico o semantico). La memoria viene distinta in due principali magazzini la MBT e la MLT: la prima ha una capacità e una durata molto limitata e vi si fa ricorso per le informazioni che devono essere immediatamente utilizzate. La MLT è invece un magazzino con una capacità molto ampia e un'alta durata dei ricordi che vi entrano a far parte. Più che di memoria al Nell'ultimo modello dell'analisi delle componenti, elaborati da Biederman (1987), si suppone che il sistema percettivo dei soggetti sia dotato di un certo numero di rilevatori di componenti elementari delle possibili forme tridimensionali dei pattern di stimolazione. Questi rilevatori individuano la presenza di certi componenti indipendentemente dalle loro dimensioni,, dal punto di vista del soggetto, dalla presenza del rumore o elementi di disturbo nel pattern visivo; secondo Biederman, le possibili differenti componenti elementari, da lui denominate GEONI, sono in tutto 36. Questa teoria è supportata da esperimenti che mostrano come, nascondendo parti di un pattern che consentono di individuare i geoni che lo costituiscono, non si riesce più a riconoscerlo; invece a parità di aree nascoste, lasciando che i geoni vengano individuati, si riesce ancora a riconoscere il pattern. 14-L'APPROCCIO ECOLOGICO DI GIBSON La percezione può essere intesa come l'organizzazione immediata, dinamica e significativa delle informazioni sensoriali. Percepire vuol dire assegnare un significato agli stimoli provenienti dagli organi di senso e nell'attribuire loro proprietà fisiche: nitidezza ad un’immagine, grandezza ad un oggetto, chiarezza ad un suono, ecc. Per capire il fenomeno della percezione visiva, dal punto di vista strettamente cognitivo, bisogna porsi due domande: perché e come percepiamo. Al primo quesito la risposta è perché ricerchiamo la “buona forma”, intesa come qualunque organizzazione percettiva a cui l’individuo attribuisce un significato in funzione a) della propria struttura anatomo-fisiologica, b) delle regole che governano l’organizzazione percettiva e c) dell’esperienza. Inoltre perché quest’attività è indispensabile per l’elementare sopravvivenza nell’ambiente, per la riproducibilità selettiva, e per il raggiungimento di livelli ottimali di realizzazione e di qualità della vita. Per quanto riguarda il come percepiamo ciò che vediamo non è quello che esiste effettivamente nella realtà, come ingenuamente si potrebbe credere; la realtà è “fredda” e “incolore”, fatta, cioè, di luce proiettata ai nostri organi di senso sotto forma di lunghezze d’onda. La nostra “costruzione” della realtà (in senso visivo) è, quindi, una trasformazione della luce proiettata sulle nostre retine. Questo è il fenomeno del realismo ingenuo. Secondo il senso comune le proprietà fisiche esperite dall'esperienza sono oggettive e la percezione è una mera registrazione sensoriale, mentre la psicologia scientifica ci ha confermato che le prime sono frutto di un'elaborazione mentale e risentono di processi cognitivi di classificazione, mentre la percezione è una complessa interpretazione della realtà. Detto ciò possiamo affermare che le sensazioni, intese come impressioni soggettive, immediate e semplici, che corrispondono a una data intensità dello stimolo fisico, da sole non contengono le informazioni sufficienti per spiegare le nostre percezioni. Il passaggio dalla percezione ai percetti è il risultato della catena psicofisica: gli oggetti del mondo circostante producono in continuazione una molteplicità indefinita di radiazioni, tutto ciò è la stimolazione fisicamente generata dall'oggetto presente nell'ambiente, definita come stimolazione distale. La stimolazione fisica che effettivamente giunge ai nostri recettori sensoriali è invece la stimolazione prossimale, mentre il percetto è la percezione che fenomenicamente noi sperimentiamo. Questo processo, sotto alcune condizioni, crea una discrepanza fra la realtà fisica e quella fenomenica (percepita), questo può indurci a fare degli errori di valutazione su quello che percepiamo, in due direzioni: descrivere quello che si sa e non quello che si vede (errore dello stimolo:), oppure attribuire agli stimoli distali o prossimali una proprietà fenomenica attribuibile soltanto ai percetti (errore dell’esperienza). Per quanto riguarda le teorie della percezione possiamo classificarle secondo due diversi criteri: in base al ruolo che assegnano alle caratteristiche fisiche del pattern di stimolazione nel determinare il percetto (teorie basate sullo stimolo e teorie basate su fattori interni) oppure in base al fatto che concepiscano la percezione come un processo composto da stadi successivi di elaborazione (teorie degli stadi) o come un processo che si verifica in un singolo passo (teorie olistiche). Le cinque teorie che hanno avuto maggiore rilievo in tale campo sono: la teoria empirista, la teoria della Gestalt, il New Look, Gibson e la teoria computazionale di Marr e Poggio. Gibson (1966) rigetta ogni interpretazione della percezione avanzata in precedenza da altri modelli,. Il suo è un approccio ecologico: egli assume che le informazioni percettive sono già contenute nella stimolazione così come essa si presenta al soggetto. La stimolazione offre un ordine intrinseco, dovuto alle reciproche relazioni fra i vari aspetti degli stimoli stessi. Una ricca informazione è già contenuta nella distribuzione spaziale e temporale degli stimoli e resa disponibile per il soggetto. Gibson ha chiamato affordance l'insieme di azioni che un oggetto “consente” e “invita” a compiere da parte di un certo organismo, animali compresi. Il soggetto deve solo riuscire a cogliere queste informazioni percettive già esistenti nell'ambiente circostante. Non ha bisogno né di rielaborarle successivamente attraverso un processo cognitivo, né di integrarle con l'apporto di altre fonti. a teoria della percezione di J. J. Gibson adotta un punto di vista profondamente diverso. In essa l'osservatore e l'ambiente esterno vengono visti come costituenti un unico sistema e la percezione non è più un affare privato del soggetto ma un aspetto di un processo di interazione che coinvolge sia l'organismo che il mondo circostante. Si tratta di un'impostazione assai difficile da tradurre in un apparato teorico completo, cosicché si può asserire che quella di Gibson può essere considerata prevalentemente come la proposta di un nuovo paradigma da adottare nello studio dei processi percettivi, che dovrebbe servire da base per la costruzione di modelli più dettagliati. Lo stesso Gibson ha modificato in parte le sue posizioni nel corso degli anni. Esse sono state espresse principalmente in due libri assai stimolanti, The senses considered as perceptual systems, pubblicato nel 1966 e The ecological approach to visual perception, pubblicato nel 1979 (Gibson, 1966; 1979). Il punto chiave dell'impostazione di Gibson sta nel negare che la percezione sia un processo mentale e nel vederla come un prodotto dell'interazione organismo-ambiente, anzi un'attività che deriva dalla cooperazione di entrambe queste entità, ma che non è riducibile né a un processo puramente fisico o fisiologico né a un processo puramente mentale: è, per usare l'aggettivo proposto da Gibson, un'attività "psicosomatica" di un essere vivente immerso nell'ambiente. Sparisce dunque ogni dualismo mente-corpo e la preoccupazione della Psicologia diventa quella di individuare quali sono le situazioni di equilibrio dinamico del sistema organismo-ambiente, condizionate da un ciclo di interazioni ambiente-occhiocervello-corpo-ambiente che hanno luogo in situazioni reali, "ecologiche", e non in situazioni artificiali, come quelle degli esperimenti di laboratorio. Per condurre questo studio è necessario, secondo Gibson, modificare il concetto stesso di stimolo, che non può più riferirsi solo ad una fonte di energia, ad esempio luminosa, in grado di attivare i recettori sensoriali. Prendendo in considerazione particolarmente le stimolazioni visive, Gibson afferma che la luce che colpisce un osservatore è una luce riflessa dall'ambiente, ovvero una luce "strutturata" dalle sue caratteristiche, che già contiene in sé tutta l'informazione necessaria ad interagire efficacemente con esso. Il termine usato da Gibson a questo riguardo è "optic array", ovvero "disposizione ottica", che è nel contempo informazione sulla disposizione degli oggetti nell'ambiente. In particolare 1'"optic array" viene visto come composto da una gerarchia di angoli, con quelli più piccoli interni a quelli più grandi, aventi tutti il vertice nell'occhio dell'osservatore e una base corrispondente a diverse superfici che si presentano nell'ambiente. Dal momento che noi ci muoviamo continuamente nell'ambiente, questo "optic array" non è statico, ma in continuo movimento. La nostra percezione è quindi un qualcosa che ha a che fare con la raccolta di informazioni in un flusso continuo, che cambia sempre aspetto. Queste informazioni sono già disponibili nell'"optic array" e non necessitano di essere immagazzinate in memoria. Esse riguardano ciò che è invariante rispetto ai vari mutamenti dell'"optic array" e il modo con cui variano nel tempo le tessiture che contraddistinguono le varie superfici percepite. In questo modo Gibson spiega la costanza percettiva e la percezione del movimento. Secondo Gibson il nostro sistema nervoso è "in risonanza" con le informazioni contenute nell'"optic array", nel senso che l'interazione circolare organismo-ambiente dà luogo a stati di equilibrio ottimali per l'intero sistema. La costanza percettiva è, per l'appunto, l'espressione di questo equilibrio, così come lo è la persistenza percettiva che entra in gioco in situazioni come l'effetto tunnel (cfr. Michotte, Thinés e Crabbé, 1991), in cui i soggetti hanno la percezione di un movimento continuo quando un oggetto in moto passa dietro il bordo verticale di uno schermo opaco ed emerge successivamente dietro l'altro bordo ad esso parallelo. A questo proposito Gibson distingue tra la "percezione della persistenza" e la "persistenza del percetto". La prima consiste nel fatto di percepire che un dato oggetto continua ad esistere, ad essere presente nell'ambiente esterno, mentre la seconda è la circostanza per cui si continua a percepire un oggetto anche dopo che è cessato l'arrivo di energia luminosa proveniente da esso. La percezione della persistenza si può verificare sia quando continua a giungere luce da parte dell'oggetto sia quando essa non giunge, come nel caso dell'effetto tunnel. Il legame tra percezione e movimento, tra percezione e azione è enfatizzato da Gibson tramite il concetto di "affordance". Questo termine indica ciò che gli oggetti presenti nell'ambiente offrono ai fini di un'azione, ovvero l'utilità funzionale di un oggetto per un essere vivente dotato di certe capacità di agire. L'affordance denota una specifica combinazione della sostanza di cui l'oggetto è composto e delle proprietà delle sue superfici in riferimento all'organismo. Essa quindi esiste indipendentemente dal fatto che sia o no percepita, pur essendo una proprietà di natura tipicamente relazionale. Ciò implica che lo stesso oggetto ha affordance diverse nei confronti di organismi diversi. Il vantaggio del concetto di affordance consiste nel fatto che evita di dover introdurre mediazioni tra organismo e ambiente sotto forma di rappresentazioni o processi computazionali. In altri termini non si vede un oggetto per ricavarne poi le proprietà, ma l'oggetto viene visto direttamente con le sue proprietà. In questo senso si può affermare che Gibson è il sostenitore di una "percezione diretta". La teoria di Gibson è stata ampiamente criticata dai cognitivisti, soprattutto per il suo realismo ingenuo. In sostanza essa non fa altro che trasferire la complessità dei pattern percettivi nella struttura stessa dello stimolo. È importante notare, però, la novità del modo di concepire l'interazione organismo-ambiente, che supera le difficoltà di una impostazione rigidamente empiristica che vede l'organismo alla stregua di un semplice analizzatore di stimoli immessi dall'esterno. Per altro la teoria di Gibson, come abbiamo già detto, non rappresenta un vero e proprio modello di spiegazione dei processi percettivi, nel senso usuale del termine. Essa ha influenzato profondamente vari psicologi contemporanei, tra cui è doveroso citare U. Neisser che, con il suo indirizzo "ecologico", si proclama un diretto continuatore dell'opera di Gibson. 15-LA METAFORA DELLA LENTE CON LO ZOOM NEI PROCESSI ATTENTIVI L'attenzione è l'insieme dei dispositivi che consentono di a) orientare le risorse mentali disponibili verso gli oggetti e gli eventi, b) ricercare ed individuare in modo selettivo le informazioni per focalizzare e dirigere la nostra condotta, c) mantenere in modo vigile una condizione di controllo su ciò che stiamo facendo. È un processo grazie al quale, in un dato momento, attribuiamo rilievo a una data informazione, selezionando, di volta in volta, ciò che per noi è saliente e trascurando ciò che per noi è indifferente. L'attenzione si frastaglia in una gamma estesa e variabile di processi che accompagnano continuamente l'esperienza nell'interazione con l'ambiente. Ad esempio l'attenzione endogena è avviata dalle nostre esperienze personali, governata da processi mentali top-down, implicando un orientamento volontario verso uno specifico oggetto o evento dell'ambiente; al contrario l'attenzione esogena è attivata da uno stimolo esterno, inaspettato e saliente, ed è regolata da processi mentali bottom-up, implicando un orientamento automatico dell'attenzione (effetto cocktail party). Sono stati riconosciuti inoltre processi attentivi deputati ad indagare una piccola porzione dell'ambiente come l'attenzione spaziale che si attua quando solitamente vi è coincidenza fra la direzione dello sguardo e quella dell'attenzione, tuttavia possiamo separare i due processi. Questa diventa particolarmente importante quando ci focalizziamo su un oggetto, poiché ci permette di integrare le varie parti che lo compongono nello stesso tempo per dare luogo alla sua interezza, secondo le leggi della percezione. Lo studio dei processi attentivi è di fondamentale importanza ai fini della comprensione di come progettare le INTERFACCE UOMO-MACCHINA e come i soggetti umani selezionano e recepiscono le informazioni provenienti dall’ambiente circostante. Questo studio è stato condotto (principalmente nell’ambito della Psicologia Cognitiva) servendosi di ESPERIMENTI CONDOTTI SU SOGGETTI UMANI e METAFORE E MODELLI IN GRADO DI SPIEGARE I RISULTATI SPERIMENTALI OTTENUTI. Sono stati utilizzati tipologie di compiti differenti negli esperimenti per indagare i processi attentivi, ovvero i compiti di attenzione selettiva (il compito del soggetto è quello di SELEZIONARE, tra le varie informazioni che arrivano contemporaneamente o in successione sui canali sensoriali, una particolare di esse in funzione di opportune caratteristiche stabilite in precedenza dallo sperimentatore), i compiti di attenzione divisa (in questo caso il soggetto deve selezionare contemporaneamente più informazioni o deve eseguire più compiti simultaneamente) e i compiti di vigilanza(in questo caso il soggetto deve mantenere il più a lungo possibile una elevata performance nel monitorare le informazioni che provengono dall’ambiente esterno). Per quanto riguarda i tipi di metafore addotte per giustificare il comportamento dei processi attentivi si ricordano la metafora del filtro, la metafora del serbatoio, la metafora del fascio di luce e della lente con zoom. In quest'ultima metafora l’attenzione viene paragonata ad una lente con distanza focale variabile che illumina porzioni più ampie o porzioni più piccole del campo percettivo in funzione delle aspettative del soggetto. Questa metafora si fonda sul fatto che in talune circostanze il sistema visivo non è sensibile tanto alle caratteristiche particolari, (locali) dei pattern di stimolazione, quanto a caratteristiche generali (globali). Famoso è l'esperimento che evidenzia l'EFFETTO NAVON: si presenta una tavola con scritte sopra delle lettere grandi (globali) H e S, che a loro volta possono essere composte da lettere più piccole (locali) H e S. Possiamo avere in tal modo due combinazioni congruenti (per esempio, H globale composta da H locali) e due combinazioni incongruenti (per esempio, H globale composta da S locali), vi sono inoltre due lettere che fungono da controllo. Quando il soggetto, posto di fronte a stimoli incongruenti, è invitato a prestare attenzione alle lettere locali (ad esempio, alla S), la presenza di una lettera incongruente (non rilevante) a livello globale (ad esempio, una H) produce un netto rallentamento nei suoi tempi di risposta. 16-METAFORA DEL FASCIO DI LUCE L'attenzione è l'insieme dei dispositivi che consentono di a) orientare le risorse mentali disponibili verso gli oggetti e gli eventi, b) ricercare ed individuare in modo selettivo le informazioni per focalizzare e dirigere la nostra condotta, c) mantenere in modo vigile una condizione di controllo su ciò che stiamo facendo. È un processo grazie al quale, in un dato momento, attribuiamo rilievo a una data informazione, selezionando, di volta in volta, ciò che per noi è saliente e trascurando ciò che per noi è indifferente. L'attenzione si frastaglia in una gamma estesa e variabile di processi che accompagnano continuamente l'esperienza nell'interazione con l'ambiente. Ad esempio l'attenzione endogena è avviata dalle nostre esperienze personali, governata da processi mentali top-down, implicando un orientamento volontario verso uno specifico oggetto o evento dell'ambiente; al contrario l'attenzione esogena è attivata da uno stimolo esterno, inaspettato e saliente, ed è regolata da processi mentali bottom-up, implicando un orientamento automatico dell'attenzione (effetto cocktail party). Sono stati riconosciuti inoltre processi attentivi deputati ad indagare una piccola porzione dell'ambiente come l'attenzione spaziale che si attua quando solitamente vi è coincidenza fra la direzione dello sguardo e quella dell'attenzione, tuttavia possiamo separare i due processi. Questa diventa particolarmente importante quando ci focalizziamo su un oggetto, poiché ci permette di integrare le varie parti che lo compongono nello stesso tempo per dare luogo alla sua interezza, secondo le leggi della percezione. Lo studio dei processi attentivi è di fondamentale importanza ai fini della comprensione di come progettare le INTERFACCE UOMO-MACCHINA e come i soggetti umani selezionano e recepiscono le informazioni provenienti dall’ambiente circostante. Questo studio è stato condotto (principalmente nell’ambito della Psicologia Cognitiva) servendosi di ESPERIMENTI CONDOTTI SU SOGGETTI UMANI e METAFORE E MODELLI IN GRADO DI SPIEGARE I RISULTATI SPERIMENTALI OTTENUTI. Sono stati utilizzati tipologie di compiti differenti negli esperimenti per indagare i processi attentivi, ovvero i compiti di attenzione selettiva (il compito del soggetto è quello di SELEZIONARE, tra le varie informazioni che arrivano contemporaneamente o in successione sui canali sensoriali, una particolare di esse in funzione di opportune caratteristiche stabilite in precedenza dallo sperimentatore), i compiti di attenzione divisa (in questo caso il soggetto deve selezionare contemporaneamente più informazioni o deve eseguire più compiti simultaneamente) e i compiti di vigilanza(in questo caso il soggetto deve mantenere il più a lungo possibile una elevata performance nel monitorare le informazioni che provengono dall’ambiente esterno). Per quanto riguarda i tipi di metafore addotte per giustificare il comportamento dei processi attentivi si ricordano la metafora del filtro, la metafora del serbatoio, la metafora del fascio di luce e della lente con zoom. Spesso si è fatto ricorso alla metafora del fascio di luce per illustrare l'attività di selezione svolta dall'attenzione nei riguardi dell'ambiente. Essa sarebbe come un fascio di luce che, di volta in volta illumina specifici aspetti della scena. Tale modello viene applicato unicamente per studiare l'attenzione spaziale, di tipo visivo. La metafora del fascio di luce trae origine dagli studi compiuti sui MOVIMENTI OCULARI iniziati da Yarbus (1967). Tali studi hanno mostrato che i movimenti oculari consistono in rapidi spostamenti della fovea da un punto all’altro del campo visivo (SACCADI), della durata di circa 150-160 ms, alternati a FISSAZIONI, durante le quali la fovea rimane ferma su un particolare punto del campo visivo. L’attenzione, però, potrebbe anche essere diretta verso punti diversi da quelli su cui si sofferma la fovea (rivolgere l'attenzione con la coda dell'occhio). Una prima risposta alla precedente domanda consiste nel supporre che i processi attentivi siano costituiti da due livelli: i processi attentivi veri e propri, di livello superiore, che stabiliscono quali sono i criteri di selezione del materiale cui prestare attenzione e quindi determinano la strategia generale che guida i movimenti oculari e i processi preattentivi, di livello inferiore, che stabiliscono verso quali punti specifici dirigere l’attenzione in un determinato istante. Quest'ultimi sono guidati sia da influenze di tipo bottom-up (caratteristiche degli stimoli) messi in evidenza tramite compiti di ricerca visiva, sia da influenze top-down (aspettative del soggetto) messi in evidenza dallo spatial cueing task di Posner. A favore di questa metafora ci sono pareri contrastanti tra chi accetta i risultati sperimentali sui processi attentivi e preattentivi coniugandolo con questo modello e chi crede che sia poco verosimile sul piano teorico, poiché suppone che l'attenzione sia un processo on-off, in cui le informazioni fuori dal campo selezionato sarebbero semplicemente ignorate. 17-COMPUTAZIONALISMO SIMBOLICO La psicologia studia il comportamento degli esseri umani (eventualmente anche degli animali), cercando di spiegarlo tramite il ricorso al metodo scientifico, che ci garantisce spiegazioni non influenzate da interpretazioni proprie delle psicologia ingenua. La folk psychology non si fonda su controlli scientifici ma sull'esperienza personale: buona parte delle spiegazioni che noi utilizziamo nella vita quotidiana, non appartengono alla psicologia scientifica ma alla psicologia ingenua e sono alla base di conclusioni erronee. Può essere definita come la capacità, universalmente condivisa dagli esseri umani adulti, di spiegare e prevedere il comportamento, proprio e degli altri, attribuendo stati mentali come credenze, desideri, paure... La differenza tra una eoria ingenua e una teoria scientifica sta fondamentalmente nel metodo di controllo delle spiegazioni. Per le teorie scientifiche il metodo principale è il metodo sperimentale : quindi, per acquisire conoscenze attendibili, gli psicologi utilizzano questo metodo in quanto può fornire l’evidenza di una relazione causale fra due o più eventi o variabili. Tuttavia, proprio per questo vincolo la psicologia scientifica ha finora potuto studiare un numero limitato di fenomeni, quelli nei quali era possibile impiegare procedure sperimentali rigorose. Il termine “orientamenti metodologici” indica dei principi molto generali, di natura filosofica, che ispirano lo studio dei fenomeni del comportamento umano e animale. Questi principi costituiscono dei vincoli per la costruzione di ipotesi,, modelli e teorie; costruzione che viene effettuata in modo da rispettare gli orientamenti metodologici del ricercatore che la realizza. Nel corso della storia della psicologia scientifica, sbocciata a Lipsia negli anni tra il 1870 e il 1880 ad opera del tedesco Wilhelm Wundt, allievo di Helmholtz, sono stati proposti vari orientamenti metodologici. I principali sono: comportamentismo, psicologia della Gestalt e cognitivismo. Ufficialmente il cognitivismo e’ stato introdotto nel 1967 da Ulric Neisser, con la pubblicazione del suo libro “Cognitive Psychology”. Tuttavia questo orientamento si era, in realtà’, già affacciato alla ribalta nel momento della crisi del comportamentismo, avvenuta intorno agli anni Cinquanta. I cognitivisti assegnano all’organismo il ruolo di mediatore tra stimoli e risposte, inoltre essi descrivono l’organismo come sede dei processi mentali, i cui principali esempi sono costituiti dai processi cognitivi. L'uomo viene visto come “elaboratore di informazioni”, concetto ripreso successivamente anche da Lindsay e Norman (1977) con il modello dello Human Information Processing (HIP) all'interno del paradigma dell'intelligenza artificiale. Dal momento che tali processi interni sono inosservabili, essi ricorrono ad una impostazione di tipo modellistico, nel senso che costruiscono opportuni modelli dei processi mentali, fatti in modo da ricavare da essi conseguenze sperimentali direttamente osservabili in laboratorio. I primi cognitivisti hanno adottato un approccio computazionale simbolico, nel quale si ipotizza che la mente abbia un funzionamento analogo a quello di un computer digitale e che quindi sia una specie di calcolatore che agisce su simboli. In sostanza la spiegazione dei processi mentali sta nella struttura del programma che regola le loro modalità’ di funzionamento, programma che può’ essere scoperto tramite osservazioni sperimentali sul comportamento e la formulazione di appositi modelli per spiegarle. Dato che il funzionamento della mente viene regolato da una specie di software, diventa possibile implementare questo stesso software su computer artificiali, i quali, in linea di principio, potrebbero acquistare le stesse capacita’ della mente umana. Il compito di attuare questa implementazione spetta ad una nuova disciplina, nota come intelligenza artificiale, il cui scopo e’ quello di progettare dispositivi artificiali “intelligenti” e, per alcuni, di costruire macchine in grado di pensare. La speranza di implementare questo sogno ha avuto origine nel 1956, ad opera di Herbert Simon che ha costruito un programma per computer in grado di far dimostrare ad una macchina teoremi di logica, proprio come fanno i matematici umani. Essa si e’ poi alimentata grazie ai veloci progressi tecnologici dei computer. Come prerequisito fondamentale occorreva disporre di un'elaborazione digitale delle informazioni, poiché i processori dei computer sono in grado di elaborale solo in modo binario, con valore dicotomico 0 o 1. Tali cifre indicano una condizione di assenza (0) o di presenza (1) senza stadi intermedi, in grado di trasformare qualsiasi variabile continua in una variabile discreta. Il codice binario, inventato da Bacon (1623), consente di eseguire operazioni e calcoli in base a “pacchetti” di regole e di istruzioni “programmi”. È la teoria della computabilità: un insieme finito di elementi semplici può essere impiegato per costruire una varietà illimitata di processi complessi a livello mentale o digitale. L’intelligenza artificiale, secondo l’approccio cognitivista originario, rappresenta un potente strumento di indagine dei processi cognitivi: se si riesce a progettare un programma che fa eseguire ad un computer compiti in modo “intelligente”, in modo indistinguibile da come farebbe un essere umano, allora questo costituisce una prova che anche i processi mentali umani sottostanti questi compiti sono governati dallo stesso programma (test di Turing). Il prototipo di tali macchine è la “macchina di Turing”: un dispositivo che, basandosi su funzioni ricorsive, consente di compiere numerose operazioni aritmetiche e che rappresenta l'embrione dei computer di oggi. La macchina di Turing offre una concezione concreta dell'intelligenza: un dispositivo può essere definito come intelligente se è dotato di capacità rappresentazionali (stati interni che rappresentano stati esterni del mondo) e se è in grado di operare sui suoi stati interni (mentali) in virtù di proprietà sintattiche. Il cognitivismo ha ispirato la maggior parte delle ricerche moderne sui processi cognitivi ed ha posto le basi per la costruzione di una nuova scienza, che superi i confini delle discipline tradizionali: la scienza cognitiva: il suo scopo e’ quello di studiare in modo unificato la conoscenza e le sue trasformazioni negli esseri umani, negli animali e nelle macchine. Tuttavia è andata incontro anche a numerose critiche. Fra gli altri Searle (1980) ha elaborato l'esperimento mentale della “stanza cinese” per dimostrare l'infondatezza di una concezione dell'intelligenza basata unicamente sulla capacità computazionale e sulla semplice manipolazione sintattica dei simboli. Inoltre la logica binaria va integrata con la logica sfocata (fuzzy logic), sviluppata da Zadeh (1965) in riferimento a numerosi processi (compresi quelli mentali) che risultano sfumati e imprecisi, continuamente variabili. La mente umana non solo manipola sintatticamente i simboli, ma li interpreta e vi attribuisce un significato che la sintassi, da sola, non è in grado di spiegare. Oggi questa prima impostazione cognitivista e’ stata in parte superata, tuttavia molti psicologi contemporanei continuano praticamente ad utilizzarla. Essa ha il grande vantaggio di recuperare lo studio scientifico di processi “interni”, come la memoria, la percezione e il pensiero, che invece i comportamentisti avevano trascurato. 18-CFR. PAVLOV E SKINNER Nel corso della storia della psicologia scientifica, sbocciata a Lipsia negli anni tra il 1870 e il 1880 ad opera del tedesco Wilhelm Wundt, allievo di Helmholtz, sono stati proposti vari orientamenti metodologici. I principali sono: comportamentismo, psicologia della Gestalt e cognitivismo. Il comportamentismo e’ stato introdotto nella psicologia americana da Watson nel 1913. Il principio di base e’ che la psicologia scientifica deve occuparsi solo dei fenomeni osservabili, costituiti per l’appunto dai comportamenti. Questi ultimi sono spiegabili considerando le associazioni stimolo-risposta (S-R), la psicologia assume il compito di occuparsi di come l'individuo agisca, adottando un orientamento descrittivo piuttosto che interpretativo. Il presente orientamento consente di studiare un numero limitato di fenomeni, dal momento che la percezione e la memoria, per non parlare della coscienza, non rientrano nell’ambito degli stimoli o delle risposte osservabili, tuttavia tale approccio ha permesso di estendere lo studio della psicologia a soggetti, come gli animali o i bambini molto piccoli, che non sono in grado di usare il linguaggio per riferire le proprie esperienze. Un altro grande merito del comportamentismo e’ stato quello di aver permesso la nascita di una rigorosa metodologia sperimentale, utilizzata quasi esclusivamente per studiare i processi di apprendimento, inteso come modificazione delle associazioni stimolo-risposta. Quasi tutto quello che oggi sappiamo sull’apprendimento e’ dovuto agli studi dei comportamentisti. Nel linguaggio dei comportamentisti l’apprendimento avviene grazie ad un processo di condizionamento. Se ne distinguono tre tipi differenti: il condizionamento classico, il condizionamento strumentale e il condizionamento operante. Il condizionamento classico comporta l'associare due o più eventi fra loro. Tale apprendimento è presente anche negli animali, come ha dimostrato Pavlov (1904). Interessato inizialmente a studiare la composizione della saliva, aveva osservato come, mettendo del cibo in bocca a un cane, si producesse un immediato aumento della salivazione. Questa relazione tra stimolo (il cibo) e risposta (la salivazione) è la conseguenza di un riflesso, una risposta automatica inscritta geneticamente nel sistema nervoso dell'animale. Pavlov notò altresì che i cani producevano più saliva quando udivano o vedevano eventi che, di solito, precedevano il cibo. Questi riflessi condizionati, o appresi, non sono innati e destarono la sua curiosità, che decise di studiarli in modo sistematico. Sinteticamente il processo di condizionamento classico comporta tipicamente l'associazione ripetuta fra SC (campanella) e SI (cibo). Tale associazione alla fine condiziona lo SC a evocare una RC (aumento della salivazione al suono della campanella) simile alla RI (aumento della salivazione con il cibo). Con il paradigma del condizionamento classico sono stati inoltre osservati i fenomeni di generalizzazione e discriminazione: quando a un dato SC è stata associata una risposta condizionata, gli stimoli simili allo SC tendono anch'essi a suscitare la RC (generalizzazione); mentre per discriminazione si intende un addestramento mirato a non rispondere a stimoli simili allo SC, pur continuando a rispondere allo stimolo condizionato. L'estensione del condizionamento classico fu realizzata da Skinner, che riprese le ricerche pionieristiche di Thorndike (1911), il cui nome è legato all'apprendimento per prove ed errori. Skinner si propose di costruire una Ingegneria dell'apprendimento, in base allo studio dell'effetto del rinforzo e dei relativi programmi di rinforzo (utilizzati anche nelle cosiddette “ macchine per insegnare ” ). Skinner introdusse la distinzione tra: a)comportamenti rispondenti, derivati da riflessi innati (la salivazione) o appresi tramite il condizionamento pavloviano (associazione SC+SI); categoria degli animali contiene così tanti esemplari e questi sono tanto differenti tra loro da rendere assai difficile l'individuazione di caratteristiche tipiche di un animale che siano comuni a molti di essi. La teoria di Smith, Shoben e Rips ha anche un'altra implicazione sperimentale: il tempo impiegato a riconoscere se un esemplare appartiene a un concetto è minore nel caso di un esemplare prototipico che nel caso di un esemplare non protitipico. Anche questa previsione è stata confermata da una serie di esperimenti eseguiti da Wilkins nel 1971. In alcuni casi, come evidenziato dagli stessi Smith, Shoben e Rips, si ha un rovesciamento del category size effect: ad esempio, il tempo medio di reazione relativo alla frase “la balena è un animale” è minore di quello relativo alla frase “la balena è un mammifero”, nonostante la categoria degli animali sia più ampia di quella dei mammiferi. Questo effetto, secondo Smith, Shoben e Rips, si può giustficare se si ammette che il primo processo di confronto in parallelo tra le liste delle caratteristiche di un esemplare e le liste delle caratteristiche tipiche e definienti di una categoria fornisca una quantità, cioè un valore numerico, che misura l'evidenza con cui l'esemplare in questione appartiene a quella categoria. La maggiore difficoltà incontrata da questa teoria deriva dal fatto di non avere nessun criterio, se non di tipo intuitivo, per individuare che cosa sia una caratteristica, definiente o prototipica, di una categoria. La teoria, insomma, non chiarisce in alcun modo per quale motivo le categorie, nei processi mentali, debbano essere per forza individuate da caratteristiche relative alla categorie stesse viste come un tutto, piuttosto che da proprietà possedute da singoli particolari esemplari. Un punto di vista esattamente opposto a quello della teoria classica dei concetti: nella mente non esiste una rappresentazione speciale di qualcosa che corrisponde alle “categorie” globalmente intese; esistono invece solo raggruppamenti, più o meno stabili, di esemplari caratterizzati da proprietà concrete e sono le modalità di utilizzo di questi raggruppamenti che ci danno l'impressione di usare delle categorie dotate di proprietà generali. Questo punto di vista è alla base delle teorie dei prototipi. Il primo aspetto da tener presente è che le teorie dei prototipi possono essere suddivise in due classi fondamentali: 1) le teorie che identificano i prototipi con una specie di tendenze centrali delle categorie, tendenze che, però, non coincidono con nessuno degli esemplari appartenenti alle categorie stesse (teorie dei prototipi-prototipi); 2) le teorie che identificano i prototipi con particolari esemplari appartenenti alle categorie (teorie dei prototipi-esemplari). Le prime hanno origine dalle ricerche e dalle proposte teoriche di Eleanor Rosch. La motivazione iniziale che ha spinto la Rosch i intraprendere queste ricerche, verso la fine degli anni Sessanta, è stata di cercare di far luce sulla complessa questione delle relazioni tra linguaggio e pensiero. Per quanto riguarda l'utilizzo degli esemplari dei concetti, gli aspetti più semplici da studiare empiricamente sono la capacità dei soggetti di distinguere gli esemplari l'uno dall'altro e di considerare un esemplare più tipico rispetto ad altri. La Rosch si servì proprio di questi aspetti per indagare le capacità di utilizzo degli esemplari del concetto “colore” da parte dei Dani, una popolazione, che vive ancora allo stato primitivo, della Nuova Guinea. I risultati mostrano come i Dani, pur avendo nel loro linguaggio due soli termini per indicare le diverse gradazioni dei colori (“chiaro” e “scuro”), sono tuttavia capaci di utilizzare gli esemplari del concetto di “colore”, allo stesso modo in cui li utilizzano gli individui che vivono in società industrializzate. Questa circostanza è una prova nettamente a sfavore dell'approccio empirista, in quanto evidenza come la manipolazione dei concetti sia in gran parte indipendente dal linguaggio usato. A questo proposito, la Rosch si è ben presto resa conto che alcune proprietà dei concetti utilizzate negli esperimenti non sono affatto possedute da tutti i concetti. La più interessante di queste proposte è l'esistenza di esemplari tipici o di caratteristiche tipiche del concetto, tali da individuare i cosiddetti prototipi. Ad esempio, mentre è relativamente facile pensare a un prototipo del concetto di “uccello”, è praticamente impossibile raffigurarsi un prototipo di concetti come “libertà”, “amore”, “verità” e simili. Tuttavia, anche restringendo l'analisi solo a concetti in cui è possibile introdurre dei prototipi, cioè le cosiddetta categorie, ci si accorge subito che non tutti i concetti di questo tipo possono essere associate a immagini rappresentative del concetto stesso. Così, tanto per continuare a usare la categoria di “uccello”, si può subito constatare come sia piuttosto difficile raffigurarsi questa categoria tramite una singola immagine. Infatti i possibili esemplari di uccello che ci possono venire in mente sono talmente diversi tra loro che è difficile trovare un'immagine che li accomuni. Le conclusioni sperimentali cui la Rosch è pervenuta sono basate su una serie di paradigmi, tra i quali: – le valutazioni di tipicità: queste si possono ottenere tramite differenti procedure. In una di esse il soggetto deve valutare, su un'apposita scala, quanto l'esemplare stesso è tipico rispetto alla categoria cui appartiene. In un'altra procedura si utilizzano, invece, i metodi adoperati negli esperimenti sulla memoria semantica. Al soggetto, cioè, viene presentata una frase asserente l'appartenenza di un certo esemplare a una certa categoria ed egli deve, nel più breve tempo possibile, valutare se la frase è vera o falsa: esemplari caratterizzati da tempi di reazione più bassi sono più tipici di esemplari caratterizzati da tempi di reazione più elevati; – le valutazioni di similarità: in questo caso i soggetti devono valutare, su un'opportuna scala, quanto un dato esemplare di una certa categoria sia simile a un altro esemplare della stessa categoria. I risultati degli esperimenti eseguiti possono essere così sintetizzati: 1) effettivamente, in ogni categoria utilizzata, alcuni esemplari vengono valutati come più tipici di altri; 2) gli esemplari di una data categoria valutati come più tipici vengono classificati come appartenenti alla categoria stessa in un tempo minore di quello richiesto a esemplari valutati come meno tipici; 3) quando i soggetti devono elencare gli esemplari di una data categoria, gli esemplari più tipici vengono elencati per primi; 4) per gli esemplari di una stessa categoria, la “somiglianza di famiglia” è correlata positivamente con le valutazioni di tipicità. Con il concetto “somiglianza di famiglia” si intende che gli esemplari non vengono classificati come appartenenti a una data categoria in base alle caratteristiche da essi possedute, ma in base a una somiglianza con altri esemplari già considerati come appartenenti alla stessa categoria. Tale costrutto è basato sulla frequenza con cui le caratteristiche dei singoli esemplari si presentano all'interno della categoria. Particolarmente produttivo è stato lo studio delle regole di categorizzazioni e attualmente oggetto di un intensa attività di ricerca. Questa attività ha preso in esame non solo i meccanismi in base a cui i soggetti decidono di attribuire un nuovo esemplare a una categoria preesistente, ma anche i meccanismi che consentono ai soggetti di formare nuove categorie in seguito all'osservazione di un certo numero di esemplari. Le regole di categorizzazione finora proposte si possono ripartire in quattro grandi classi: 1) una categoria è incentrata sul suo prototipo: ogni esemplare viene incluso nella categoria in cui la sua somiglianza col prototipo è massima rispetto alle somiglianze coi prototipi di altre categorie; la formazione della categoria prende dunque le mosse dalla scelta del prototipo della categoria stessa; 2) una categoria è caratterizzata sia dal suo prototipo che da un opportuno raggio di prototipicità, cioè da un'opportuna “distanza” dal prototipo comprendente gli esemplari più tipici; si può dunque introdurre il concetto di cerchio di prototipicità, inteso come la “zona” in cui gli esemplari più tipici sono contenuti; un esemplare viene incluso nella categoria il cui cerchio di prototipicità è il più vicino all'esemplare stesso; 3) una categoria comprende solo gli esemplari che sono più vicini tra loro, o la cui distanza reciproca non supera un certo valore; 4) la categoria comprende solo gli esemplari la cui distanza reciproca media è sufficientemente bassa; un esemplare è incluso nella categoria in cui la sua distanza media dagli esemplari della categoria stessa è la minima possibile. Le regole della classe 1) sono state considerate come le più adatte a prevedere quanto si verifica nelle valutazioni di tipicità o di similarità. Le teorie dei prototipi-esemplari, costruite da vari autori tra cui Medin e Schaffer, vengono introdotte a partire dagli anni Settanta. Tutte presuppongono che le categorie consistano semplicemente di insiemi di esemplari e che i nuovi esemplari vengano inclusi in esse in funzione della loro somiglianza con gli esemplari già esistenti. In altre parole, se proprio si vogliono introdurre dei prototipi, essi devono necessariamente coincidere con particolari esemplari. La ragione principale che ha giocato a favore dell'introduzione di questo tipo di teorie è che le teorie dei prototipi-prototipi non sono in grado di render conto della capacità dei soggetti di utilizzare categorie basate non solo sulle singole caratteristiche degli esemplari, ma anche sulla presenza o assenza di particolari combinazioni di caratteristiche. Viene introdotto il concetto di categorie non linearmente separabili, riferendosi alle categorie in cui la decisione sull'appartenenza o meno di un esemplare a una di esse è basata unicamente sul confronto tra un'opportuna somma pesata delle varie caratteristiche dell'esemplare e un apposito valore di soglia. Il problema è che molte categorie non sono linearmente separabili. In questo caso, i metodi della teoria dei prototipi-prototipi sono completamente inadeguati. Per questa ragione, le teorie dei prototipi-esemplari suppongono che la decisione relativa all'appartenenza di un esemplare a una data categoria sia basata su meccanismi completamente differenti da quelli illustrati in precedenza. Il più celebre postulato della teoria dei prototipi-esemplari è la cosiddetta Teoria del Contesto, proposta da Medin e Schaffer fin dal 1978. la versione originale di questa teoria è limitata a esemplari associati a caratteristiche di tipo binario, che, cioè, possono solo essere presenti o assenti. Ogni esemplare, sia esso nuovo che già incluso in una data categoria, è descritta da una lista di caratteristiche che è la stessa per tutti gli esemplari. In corrispondenza a ogni caratteristica è associato un valore, che vale 1 se la caratteristica è posseduta dall'esemplare in questione e vale 0 nel caso contrario. Per decidere se un nuovo esemplare appartiene o no a una data categoria, occorre calcolare la sua somiglianza rispetto alla categoria. Applicando la Teoria del Contesto sarebbe sufficiente scegliere una soglia appropriata di somiglianza per discriminare gli esemplari appartenenti alla categoria, da quelli che non vi appartengono, discriminazione questa impossibile a effettuarsi, invece, nelle teorie dei prototipi-prototipi, grazie al fatto che la categoria in questione è non linearmente separabile. Altro esempio di applicazione di tale teoria è il caso di due categorie e della decisione relativa a un nuovo esemplare, in questa circostanza occorre prendere in considerazione l'insieme complessivo di tutte le possibili caratteristiche, associate agli esemplari si a dell'una che dell'altra categoria. Possiamo concludere che vi sono vantaggi e difetti per entrambe le teorie, quelle dei prototipi-prototipi e quelle dei prototipi-esemplari. Il fatto che nessuno dei due approcci sia esente dai problemi ha spinto vari ricercatori a proporre modelli misti, che integrano entrambi i tipi di teorie. Questi modelli tendono conto del fatto che i dati sperimentali relativi ai soggetti in alcuni casi sono più facilmente interpretabili ricorrendo alle teorie dei prototipi-prototipi, mentre in altri casi sono più aderenti a quanto previsto dalle teorie dei prototipi-esemplari. 22-PARLARE DELLE RICERCHE SULLE IMMAGINI MENTALI Per conoscere e capire gli eventi, occorre rappresentarli nella nostra mente. Senza una loro rappresentazione, è impossibile ogni successiva attività. In generale, la rappresentazione di un oggetto o evento è un'entità che sta per quell'oggetto (o evento) e trasmette informazioni a esso congruenti. Per rappresentazione mentale intendiamo un'immagine, simbolo o modello presente nella mente, basato su una mappa cerebrale, in corrispondenza a un certo oggetto o evento. Una rappresentazione mentale è fondata sull'esperienza (grounded cognition), in grado di stabilire una connessione stretta fra ciò che abbiamo in mente e ciò che esiste nell'ambiente. Il mondo è un'esplosione di differenze. La differenza è alla base della conoscenza. È la mente computazionale, in grado di fare calcoli, confronti, combinazioni logiche, manipolazioni di simboli, operazioni di misura e di classificazione, equivalenze e graduatorie (ranking), capace di scelta tra alternative, di adeguamento a regole prefissate. Fra l'altro, questo modo di funzionare della mente trova fondamento nell'attività cerebrale. Le rappresentazioni mentali consentono di svolgere queste operazioni mentali in modo agevole, talvolta servendosi di automatismi, talvolta richiedendo un notevole impegno di risorse attentive. Il funzionamento della mente è stato spiegato da due prospettive fra loro opposte: la mente modulare e la mente radicata nel corpo. Negli ultimi decenni del secolo scorso un gruppo di eminenti psicologi (tra cui Fodor) ha privilegiato fortemente lo studio delle strutture mentali rispetto alle funzioni. Questa impostazione assume che i processi mentali siano gli stessi per tutti. Entro questa ricerca, Fodor ha difeso una concezione forte della mente computazionale, proponendo l'ipotesi di un linguaggi della mente (mentalese), analogo a una lingua naturale le rappresentazioni mentali sarebbero combinazioni di concetti semplici innati, intesi come entità univoche e chiuse, in grado di esprimere verità necessarie. Tali rappresentazioni sarebbero elaborate secondo le regole logiche, attente solo alla forma, non ai contenuti; “cieche al significato”, in grado di compiere operazioni di calcolo esattamente nel senso in cui lo sono le operazioni della macchina di Turing. Nella prospettiva di Fodor, la mente è un sistema chiuso che non interagisce con l'ambiente né sul piano percettivo né su quello motorio. Essa procede compiendo sofisticate computazioni su simboli amodali (non provenienti dalle diverse modalità sensoriali e propriocettive, ma già presenti in modo innato) mediante il ricorso a regole logiche. In base all'ipotesi del linguaggio della mente, Fodor ha proposto una concezione fortemente localizzatrice della mente, organizzata in moduli (cassetti), ciascuno dei quali con una struttura specializzata che lo rende un sistema esperto in un ambito specifico rispetto all'ambiente (modularismo). Le proprietà fondamentali di tale concezione sono: moduli dominio-specifici, architettura neurale fissa, innati definiti da precisi programmi genetici, vincolanti, veloci, isolati. Tale approccio non ha ricevuto, tuttavia, alcuna conferma empirica. Alla concezione astratta della mente proposta dal modularismo si contrappone oggi una prospettiva che ritiene che la mente sia fondata, momento per momento, sull'interazione senso-motoria con l'ambiente. È una mente radicata e situata nel corpo. L'ambiente (l contesto) è considerato, oltre che come scenario materiale in cui l'individuo opera, anche come realtà dinamica, in grado di influenzare e dirigere l'attività della mente stessa in funzione degli stimoli. Rispetto al modularismo, tale concezione appare più flessibile e dinamica, più aderente alle informazioni, più plausibile sul piano teorico, più potente e robusta, in quanto fondata su una mole ingente di dati sperimentali, compresi quelli neuropsicologici. Un contributo rilevante alla concezione delle rappresentazioni mentali come radicate nell'organismo è venuto dalla scoperta dei neuroni specchio, fatta in Italia (Parma) a metà degli anni Novanta. Il cervello è destinato a creare mappe nell'interazione costante con l'ambiente (Damasio 2010). Le mappe cerebrali, tramite cui il cervello informa se stesso, sono modelli nervosi in continuo cambiamento, poiché si modificano ogni istante in corrispondenza ai cambiamenti che hanno luogo nei neuroni implicati, che, a loro volta, riflettono i cambiamenti dell'organismo e dell'ambiente. Nell'elaborazione delle mappe, il cervello interviene attivamente mediante i processi di associazione fra le informazioni sensoriali e quelle motorie, nonché quelle precedenti registrate nei depositi di memoria. In taluni casi, le mappe cerebrali presentano una configurazione topografica in corrispondenza alla disposizione spaziale dello stimolo ambientale. A livello fenomenologico, le loro rappresentazioni costituiscono le immagini mentali generate dalle corrispondenti mappe cerebrali momentanee di una data situazione. La coscienza ci permette quindi di sperimentare le mappe cerebrali come immagini. Mappe cerebrali e immagini mentali implicano un costante processo di influenza reciproca fra cervello e mente. Nessuna delle funzioni distintive della nostra mente è presente al momento della nascita. Tali funzioni si sviluppano solo grazie all'interazione con altri umani in un dato ambiente culturale. Per dare origine alla mente, il cervello ha bisogno delle menti di altri. Il cervello senza stimoli è in difficoltà e non è più in grado di funzionare in modo regolare. Dati questi requisiti, il confine fra ciò che è biologico e ciò che è psicologico, appare piuttosto debole, spesso invisibile e inconscio. Più che di confine, è opportuno parlare di frontiera fra il cerebrale e il mentale. È uno spazio neutro che, nel momento in cui separa, unisce. Per sapere come sono elaborate le rappresentazioni a livello mentale, dobbiamo partire dal presupposto che le idee innate non esistono. Certamente, vi sono dispositivi genetici idonei a organizzare il funzionamento del cervello. Le informazioni nervose provenienti dalle diverse modalità sensoriali, motorie e affettive sono elaborate da corrispondenti aree cerebrali. Le diverse popolazioni dei neuroni deputate a mappare queste differenti caratteristiche modali del fenomeno sono organizzate in modo gerarchico e sincronizzato. Tali informazioni sono integrate tra loro attraverso l'azione degli interneuroni che interagiscono in modo intenso solo con gli altri neuroni. Il lavoro da parte degli interneuroni consiste nell'elaborazione di disposizioni che confluiscono in mappe che racchiudono le diverse caratteristiche dell'oggetto. Queste mappe sono depositate in depositi microscopici (micronodi) della memoria, immediatamente recuperabili. I micronodi costituiscono le zone di convergenza-divergenza (ZCD) [Damasio 2010]. Ognuna di esse procede a elaborare inizialmente in modo selettivo i dati provenienti dall'ambiente (elaborazione modale) per integrarsi successivamente mediante una serie di connessioni ricorsive da quelli provenienti da altre modalità nelle regioni associative di ordine superiore (elaboazione multimodale). Le ZCD sono gerarchicamente organizzate tra loro e lavorano in parallelo, inoltre grazie a importanti circuiti nervosi di interconnessione, presenti nella corteccia frontale, parietale, temporale e occipitale del cervello, le diverse ZCD partecipano in modo sinergico all'elaborazione congiunta della rappresentazione di un oggetto, senza la necessità di prevedere uno specifico modulo dedicato a questo scopo. Le informazioni provenienti dalle varie modalità, sia fisiche che immaginative, interagiscono tra loro per mappare i vari aspetti dell'esperienza e si influenzano reciprocamente per elaborare una rappresentazione multimodale, unitaria e globale dell'evento o oggetto, fondata sull'esperienza e radicata nell'organismo. Gli studi di Damasio sul funzionamento cerebrale della mente sono stati approfonditi a livello psicologico da un gruppo di studiosi nutrito. In questa traiettoria, degno di interesse è il modello dei simboli percettivi: le rappresentazioni mentali derivano dai processi con cui percepiamo e sentiamo gli accadimenti circostanti. Un simbolo percettivo è la registrazione dell'eccitazione di una popolazione di neuroni a seguito di un processo percettivo o di un'azione motoria. È una rappresentazione inconsapevole, di natura schematica e parziale (corrispondente a una certa caratteristica dell'oggetto), dinamica (variabile e flessibile i funzione del contesto immediato) e componenziale (quando i neuroni relativi alla forma di un oggetto sono attivi, quelli concernenti altre proprietà come l'orientamento restano inattivi), indeterminata (non perfettamente identica all'oggetto nella sua realtà), e generica (non necessariamente conforme a uno specifico individuo o occorrenza dell'oggetto o evento). La formazione di simboli percettivi procede dal basso verso l'alto, essi sono multimodali, quindi generati da tutti i modi con cui viviamo l'esperienza. Il risultato è un sistema distribuito e unitario, corrispondente al contenuto mentale del concetto di un oggetto (automobile). Barsalou (1999) ha definito simulatore mentale tale sistema, in grado di funzionare secondo due livelli: a) funge da cornice che integra i simboli percettivi relativi a un dato oggetto in base all'esperienza di molte sue occorrenze; b) opera come dispositivo generatore in grado di produrre un numero pressochè indefinito di simulazioni mentali. Le simulazioni mentali sono in grado di riprodurre certi segmenti dei simulatori mentali che, a loro volta, rimandano agli oggetti della realtà, pur in loro assenza. Un quesito che molti studiosi si sono posti riguarda il comportamento delle immagini mentali: sono simili alle immagini reali o differenti da esse? Sono state analizzate differenti caratteristiche, tra cui rotazione mentale, imagery e grandezza, scansione di immagini, immagini e forme, enfasi sulla percezione. Shepard e Metzler hanno studiato approfonditamente la rotazione mentale, progettando diversi paradigmi sperimentali utilizzati nei loro esperimenti: paradigma della presentazione simultanea, paradigma della presentazione successiva e paradigma della freccia. Nel primo compito vengono presentate contemporaneamente al soggetto due immagini, una contenente un pattern di riferimento e una seconda contenente un altro pattern che può essere o non essere una versione ruotata del primo pattern. Il soggetto deve dire se il secondo pattern è o non è una versione ruotata del primo pattern. Nel secondo paradigma vengono presentate successivamente al soggetto due immagini, una contenente un pattern di riferimento e, dopo la scomparsa della prima, una seconda contenente un altro pattern che può essere o non essere una versione ruotata del primo pattern. Il compito del soggetto è quello di dire se il secondo pattern è o non è una versione ruotata del primo pattern. E infine nel paradigma della freccia viene dapprima presentata un’immagine contenente un primo pattern. Alla scomparsa di questa compare come immagine solo una freccia indicante una certa direzione nel piano (corrispondente ad una rotazione di un certo angolo). Successivamente viene presentata una seconda immagine contenente un secondo pattern. Il compito del soggetto è sempre quello di dire se il secondo pattern è o non è una versione ruotata del primo pattern. Nelle situazioni precedenti la variabile dipendente misurata è il tempo di reazione, dato dal tempo intercorrente tra l'inizio della presentazione del secondo pattern e la risposta del soggetto (nel caso della rappresentazione simultanea si calcola il tempo che intercorre dall'inizio della presentazione alla risposta del soggetto). Questi esperimenti mostrano che i tempi di reazione sono direttamente proporzionali agli angoli di rotazione dei pattern (se gli angoli non sono troppo grandi). Tali risultati implicano che rispetto alla rotazione le immagini mentali si comportano in modo equivalente alle immagini reali ruotate a velocità angolare costante, per le quali il tempo di rotazione è direttamente proporzionale all’angolo di rotazione, inoltre se l’angolo di rotazione supera i 180°, il senso di rotazione si inverte in modo da percorrere una distanza angolare minore. Per quanto riguarda invece la scansione delle immagini i tempi di reazione dei soggetti nell’immaginare di spostarsi da un punto ad un altro, in assenza di una visione diretta della mappa, sono direttamente proporzionali alle vere distanze. Dunque, anche per quanto riguarda la struttura delle distanze spaziali, le immagini mentali sembrano comportarsi come le immagini reali. Finke's (1989) ha elencato cinque aspetti differenti delle immagini mentali: codifica implicita (le immagini contengono informazioni non codificate esplicitamente), equivalenza percettiva (formare un'immagine coinvolge gli stessi meccanismi di vedere qualche cosa), equivalenza spaziale (in un'immagine mentale grandezza, distanza e posizione sono le stesse degli oggetti reali), equivalenza trasformazionale (le immagini mentali vengono trasformate con le stesse regole con le quali vengono trasformati gli oggetti reali) e equivalenza strutturale (le immagini mentali sono strutture simili agli oggetti reali – costruire un'immagine mentale è come disegnare qualcosa). Anderson e Bower, della corrente proposizionalista, pensavano che l’informazione fosse immagazzinata in memoria attraverso proposizioni astratte o strutture (ad esempio: A è più grande di B). Suggerivano che noi impariamo questo attraverso una struttura mentale associativa astratta: quando si forma una immagine mentale, si usano queste strutture astratte relazionali per comprendere ed acquisire conoscenza. Essi sostenevano, inoltre, che le immagini siano la superficie dell’informazione e che queste strutture astratte siano sottostanti alle immagini. Tuttavia, i risultati degli esperimenti sulla rotazione mentale e sulle distanze spaziali supportano le ipotesi degli IMMAGINISTI, i quali sostengono che, accanto alle rappresentazioni proposizionali, esistono anche rappresentazioni mentali direttamente basate sulle immagini stesse. Il punto di vista dei proposizionalisti appare dunque insostenibile. La teoria del doppio codice di Paivio, storicamente fu la prima a superare la dicotomia tra immaginisti e proposizionalisti tramite una doppia funzione di codifica. Suggerì che le parole potrebbero essere descritte in termini del loro contenuto immaginifico (esempio: una parola come ”soldato” può dar luogo a tante immagini, al contrario della parola “libertà”). Per Paivio, l’acquisizione era in funzione dell’immagine: il grado di acquisizione e di richiamo era il risultato di quanto erano forti i costrutti in termini di capacità e di immaginazione visiva. 23-L'APPROCCIO COGNITIVISTA ALLA SOLUZIONE DEI PROBLEMI Uno dei processi fondamentali che interviene nell'utilizzo della conoscenza e nella produzione di nuova conoscenza è il ragionamento. A partire dai pensatori dell'antica Grecia la nostra cultura occidentale lo considera addirittura come il processo al quale attribuire la maggiore importanza in tali attività. Tradizionalmente si distinguono tre forme di ragionamento: la deduzione, l' induzione e l'abduzione. La deduzione consiste nel ricavare conclusioni partendo da premesse date, l'induzione nel verificare le ipotesi in base ai dati ottenuti (grazie ad osservazioni suggerite dall'ipotesi stessa) e l'abduzione nel generare l'ipotesi migliore compatibile con i dati esistenti. Un altro sistema potente per produrre conoscenze di fronte a situazioni nuove è il ricorso all'analogia. Le analogie non garantiscono conclusioni certe, eppure sono uno degli strumenti del pensiero che utilizziamo di più, e spesso conducono a soluzioni creative ai problemi. Il ragionamento analogico implica l'utilizzo di una conoscenza specifica di un certo dominio come “sorgente” e la trasferiamo a un dominio diverso. Nel corso dei secoli il processo di deduzione è stato formalizzato in modo rigoroso tramite la Logica, che, a partire dalla metà dell'Ottocento, si è trasformata, grazie all'opera di studiosi come Boole e De Morgan, in Logica Matematica. Questa disciplina ha avuto notevoli sviluppi, tanto da diventare un importante settore della scienza, che pretende persino di fornire un fondamento a tutta la Matematica. Nel contempo essa ha provocato una scissione tra lo studio degli aspetti meccanico-formali e quello degli aspetti reali dei processi di deduzione, lasciando quest'ultimo agli psicologi. Questa rigida suddivisione è stata una delle cause che ha favorito il formarsi di barriere artificiali tra Matematica e Psicologia, che solo gli sviluppi recenti del Cognitivismo contribuiscono lentamente a superare Ma in che modo la conoscenza viene impiegata per conseguire dei fini particolari, ovvero per risolvere dei problemi. Su questo argomento sono state condotte numerose ricerche, fin dai primordi della storia della Psicologia. Di solito si suddividono le teorie formulate in merito in due categorie: quella delle teorie cognitive e quella delle teorie stimolo-risposta. Le prime attribuiscono un ruolo fondamentale, nel processo di soluzione di un problema, alle strutture cognitive del soggetto, ovvero al modo con cui egli si rappresenta il problema, mentre le seconde focalizzano la loro attenzione esclusivamente sui comportamenti che conducono alla soluzione e sul modo con cui essi sono influenzati dagli stimoli ricevuti. La teoria cognitiva per eccellenza è costituita dalla Psicologia della Gestalt e i concetti che essa ha formulato derivano inizialmente dalle osservazioni effettuate, durante il corso della Prima Guerra Mondiale, dal gestaltista W. Kòhler sul comportamento delle scimmie antropoidi (quasi esclusivamente scimpanzè) nell'isola di Tenerife, nelle Canarie. Come è noto, fin dal 1913 Kòhler dirigeva su quell'isola una stazione di ricerca sulle scimmie antropoidi dell'Accademia Prussiana delle Scienze. Allo scoppio della Prima Guerra Mondiale, sospettato di essere una spia tedesca, fu costretto a rimanere a Tenerife. Durante tutto quel periodo ebbe modo di compiere una lunga serie di studi sulle scimmie antropoidi. Il concetto fondamentale introdotto da Kòhler è quello di "Insight", che indica un processo di rapido conseguimento della soluzione, consistente nella percezione delle corrette relazioni tra gli elementi del problema. Secondo Kòhler un problema è una "Gestalt", cioè una "Forma", né più né meno che come le Forme che osserviamo nel campo visivo. Esso consiste di un certo numero di elementi, connessi tra di loro da certe relazioni. Il problema consiste nel fatto che questa struttura inizialmente non costituisce una Forma "buona", ma una Forma "disturbante", in cui certe relazioni sono incongruenti. La soluzione si ottiene solo quando si riesce a percepire una Forma "buona", che si fonda su nuove relazioni tra gli elementi del problema. Questa rapida ristrutturazione, che spesso consiste in un vero e proprio processo percettivo (una nuova "visione" della situazione) è l' "Insight" e la nuova Forma è la soluzione stessa del problema. Il punto di vista di Kòhler rappresentava, all'epoca, una grossa novità, in quanto si opponeva decisamente a quanto sostenevano le teorie stimolo-risposta, che vedevano il processo di soluzione di un problema come basato su una successione di prove ed errori, in cui il ruolo fondamentale era giocato dall'esperienza passata. Kòhler opponeva le sue osservazioni di scimmie che, dopo aver condotto per lungo tempo esperienze con gli elementi della situazione problemica senza ottenere alcun progresso verso la soluzione, una qualsiasi lingua naturale sulla base di un insieme limitato di regole. Tale teoria presuppone l'uniformità della competenza linguistica e l'omogeneità dei processi linguistici negli esseri umani sulla base del cosiddetto “organo del linguaggio” geneticamente definito ed ereditario. Chomsky ha utilizzato la grammatica come fosse un calcolo matematico in grado di generare una lingua nelle sue infinite espressioni a partire da pochi elementi semplici. I principi fondamentali sono i seguenti: la lingua è un insieme infinito di frasi; la frase, in quanto unità fondamentale, è costruita a partire da un insieme finito di elementi; la grammatica è un sistema astratto di regole; la grammatica è indipendente da ogni altro sistema cognitivo e della semantica; esistono due livelli di rappresentazione della frase (la struttura superficiale e la struttura profonda) e una serie di trasformazioni consente di passare da una struttura all'altra; i processi mentali che sono alla base della grammatica sono quelli dell'astrazione e del ricorso a modelli ideali. Chomsky ha distinto tra competenza e prestazione. La prima (detta anche lingua internalizzata) descrive la capacità generale di usare una certa lingua e implica una conoscenza perfetta della lingua stessa posseduta da un parlante ideale. La seconda (chiamata anche lingua esternalizzata) riguarda l'impiego concreto di tale lingua in una data situazione. Parimenti Chomsky ha distino fra struttura superficiale e struttura profonda di una certa lingua. La prima concerne l'articolazione apparente e acusticamente percepibile di una frase, mentre la seconda riguarda la categorizzazione linguistica che non è direttamente percepibile ma è comunque necessaria per spiegare la struttura superficiale. Il pensiero di Chomsky, che ha segnato una svolta profonda nello studio del linguaggio, non è esente da critiche. La più importante concerne, anzitutto, il fatto che finora la linguistica comparata non ha trovato mezzi teorici soddisfacenti per definire ciò che nelle oltre 7000 lingue naturali oggi esistenti corrisponde a “soggetto” e a “oggetto”, o a “nome” e a “plurale”. È impossibile confrontare le categorie linguistiche senza una “metalingua” che stabilisca a priori le necessarie distinzioni. Inoltre è stato rimproverato all'approccio il suo rifiuto di affrontare il livello psicologico e sociologico dei processi linguistici. Il suo modello “matematico” della lingua appare un esercizio astratto sulla “logica” della mente umana, fuori da ogni riferimento contestuale e da ogni verifica empirica (è la cosiddetta lingua che non serve a comunicare). 26-ESPRIMERE IL CONCETTO DI SCHEMA E LE TEORIE ANNESSE Ciò che accomuna tutti i processi, che la Psicologia segmenta e studia in modo specifico, è il fatto che in essi viene utilizzata una entità, che fin dall'antichità si è preferito chiamare "conoscenza". Essa, in un certo senso, è la merce di scambio, o la moneta, che viene impiegata in tutte le interazioni tra gli esseri umani (e non solo umani) ed il resto del mondo. E grazie all'acquisizione di conoscenza che cambia il nostro stato "interno". E grazie alla conoscenza posseduta che noi possiamo agire per modificare lo stato "esterno" del mondo. Tutti i processi che interessano la nostra vita, dai più semplici ai più complessi, possono essere descritti in termini di scambi o trasformazioni di conoscenza. Da ciò che abbiamo detto traspare l'importanza che lo studio della conoscenza assume per la Psicologia, in particolare per quel ramo costituito dalla Psicologia dei Processi Cognitivi, il cui scopo principale è lo studio dei processi di percezione, attenzione, memorizzazione, apprendimento, pensiero. Oggi quest'ultima disciplina si configura in modo autonomo, con un proprio oggetto, ovvero i processi sopra elencati, un proprio metodo, basato sull'impiego di modelli dei fenomeni studiati e sull'esecuzione di precisi esperimenti di laboratorio, e un consistente campo di applicazioni, che vanno dalla valutazione della performance di interfacce uomo-macchina alla progettazione di attività educative. Si tratta di un ambito di studi che diventa sempre più complesso, sia per l'interazione di diverse discipline, dalla Psicologia alla Neurofisiologia, dall'Intelligenza Artificiale alla Matematica, dalla Filosofia alla Fisica, che per la crescente mole di lavoro sperimentale nei domini più disparati. Per orientarsi in questo ambito occorre disporre di una rappresentazione schematica delle varie problematiche relative alla conoscenza. Da un punto di vista generale esse si possono sintetizzare tramite alcune domande fondamentali, ovvero: 1) cos'è la conoscenza? 2) come si misura la conoscenza? 3) quali trasformazioni può subire? 4)come avvengono l'acquisizione, la cessione e l'utilizzo della conoscenza? Le risposte fornite a queste domande caratterizzano i differenti modelli generali proposti nell'ambito della Psicologia dei Processi Cognitivi, i quali, a loro volta, hanno ispirato modelli specifici dei processi particolari in cui intervengono scambi o trasformazioni di conoscenza. Il problema della rappresentazione della conoscenza è stato affrontato, da vari punti di vista: nei vari studi si sono prese in esame le reti semantiche nel caso della rappresentazione della struttura dei concetti, le rappresentazioni geometrico-spaziali e quelle proposizionali nel caso delle immagini mentali, le rappresentazioni astratte nel caso della struttura profonda delle frasi. Occorre, però, tener conto del fatto che tutte queste forme di rappresentazione sono integrate nell'ambito di strutture di tipo più generale, essenziali per comprendere in qual modo la conoscenza è effettivamente rappresentata ed utilizzata. Riguardo a queste strutture una distinzione che viene spesso introdotta le suddivide in due categorie: quelle connesse alle rappresentazioni di tipo dichiarativo e quelle connesse alle rappresentazioni di tipo procedurale. Le prime sono basate sull'utilizzo di simboli e danno luogo alla produzione di altri simboli, mentre le seconde sono innescate da ingressi di tipo fisico e consistono in modalità di associazione input-output che danno luogo alla produzione di azioni. Possiamo raffigurarci una rappresentazione di tipo dichiarativo come costituita da un insieme di espressioni simboliche, sulle quali agiscono opportune regole che, a partire da opportune espressioni, danno luogo alla formazione di nuove espressioni. Queste regole, raffigurabili come regole meccaniche, sono di due tipi: regole acontestuali, in cui una data espressione viene trasformata in un'altra indipendentemente dal contesto, cioè dalla presenza o meno di certe altre espressioni simboliche, e regole contestuali, in cui la trasformazione avviene solo in presenza di altre opportune espressioni. Le regole acontestuali trovano vasta applicazione nei domini logici e matematici. Profondamente differenti appaiono invece le rappresentazioni della conoscenza di tipo procedurale, che considerano la mente alla stregua di un insieme di unità cognitive interconnesse, ciascuna delle quali è in grado di attivarsi in presenza di opportuni ingressi. Essi sono sostanzialmente equivalenti a delle reti neurali. La conoscenza è immagazzinata nel senso che consente di dar luogo a ben precisi tipi di associazioni tra input ed output. Questi ultimi non vanno interpretati necessariamente in senso fisico diretto, in contatto con l'esterno, ma possono essere di natura interna alle reti stesse, grazie alla presenza di unità (le cosiddette "unità nascoste") che non hanno connessioni dirette né con l'ingresso né con l'uscita del sistema. Per un certo numero di anni gli studiosi hanno sostenuto l'esistenza di una incompatibilità tra i due tipi di rappresentazione della conoscenza, quella dichiarativa e quella procedurale. In particolare nel momento della nascita del Cognitivismo e dei primi concreti successi dell'Intelligenza Artificiale, in corrispondenza agli anni Sessanta, la tesi secondo cui l'unica rappresentazione possibile della conoscenza è quella di tipo dichiarativo è stata posta a fondamento della Psicologia dei Processi Cognitivi e della stessa Intelligenza Artificiale. Su questa tesi si basa un approccio allo studio dei processi mentali, noto come “approccio computazionale simbolico", teorizzato principalmente da Fodor e Pylyshyn. Questo approccio considera tali processi sostanzialmente equivalenti a computazioni agenti su simboli secondo opportune regole di calcolo. La mente sarebbe dunque nient'altro che una particolare macchina di Turing e, in quanto tale, le sue proprietà potrebbero essere trasferite in un calcolatore governato da programmi di opportuna complessità. Le macchine potrebbero quindi essere in grado di pensare e di esibire comportamenti "intelligenti", pur di trovare le regole di calcolo che governano le elaborazioni simboliche effettuate dai processi mentali nell'uomo (quest'ultimo sarebbe il compito della Psicologia). Questa asserzione è propria dei sostenitori della cosiddetta "Intelligenza Artificiale Forte". I risultati ottenuti nell'ambito dell'Intelligenza Artificiale hanno riacceso l'interesse degli psicologi per quella forma di rappresentazione della conoscenza che è costituita dagli "schemi". Originariamente il concetto di schema è stato proposto da Bartlett nel 1932 per descrivere il modo con cui i soggetti integravano, nel raccontarla dopo un certo tempo, le informazioni che avevano memorizzate relativamente ad una storia loro presentata con le conoscenze generali di cui già disponevano. La nozione di schema non viene, però, definita da Bartlett in modo sufficientemente preciso. Invece i concetti di frame e di script rappresentano dei modi di definire gli schemi che, anche se troppo ristretti, sono comunque assai circostanziati. Questo tipo di approccio è stato ripreso in un lavoro di Rumelhart e Ortony del 1977, nel quale gli autori propongono una definizione generale di schema, che cerca di catturare le caratteristiche di tutte le possibili rappresentazioni della conoscenza (Rumelhart e Ortony, 1977). Secondo loro uno schema è una generica struttura cognitiva caratterizzata da: a) caselle o variabili b) possibilità di inclusione in altri schemi, in modo gerarchico c) diversi livelli di astrazione delle informazioni che possono riempire le sue caselle. Gli schemi possono essere modificati, così come se ne possono creare di nuovi, a differenti livelli. Si hanno così schemi altamente astratti, come quelli usati nella ricerca scientifica o nella comprensione e produzione di testi letterari o filosofici, e schemi più concreti, come quelli che dirigono la guida di un'automobile nel traffico cittadino. Essi sono interconnessi in strutture gerarchiche assai complesse, con vari tipi di inclusione. Se si ipotizza che tutta la conoscenza sia rappresentata tramite schemi, ciò ha delle precise conseguenze per ciò che riguarda i processi di immagazzinamento e di richiamo di informazioni. Nel 1983 Alba e Hasher hanno fatto notare che, se si suppone che la memoria sia organizzata tramite schemi, l'elaborazione delle informazioni presentate al soggetto deve consistere di quattro fasi (Alba e Hasher, 1983): 1) la selezione, nella quale gli schemi determinano quale informazione prendere in considerazione; 2) l'astrazione, nella quale si estrae il significato astratto dell'informazione selezionata; 3) l'interpretazione, nella quale il significato dell'informazione viene interpretato alla luce delle altre informazioni contenute nello schema; 4) l'integrazione, nella quale l'informazione viene a far parte degli schemi preesistenti e quindi viene elaborata in modo da essere compatibile con essi; in questa fase si possono verificare modifiche degli schemi o creazioni di nuovi schemi. Le modalità con cui in queste fasi avviene l'elaborazione delle informazioni sono state studiate in una serie di esperimenti, alcuni dei quali basati sul paradigma della memoria di riconoscimento, mentre altri appartenevano alla categoria del richiamo basato su indizi. Molti di essi sono stati condotti, in effetti, ben prima che la teoria degli schemi venisse formulata in modo così preciso. Tra quelli basati sul paradigma della memoria di riconoscimento viene spesso citato un esperimento di Sachs del 1967, nel quale i soggetti ascoltavano una storia, all'interno della quale, in un punto prestabilito e variabile a seconda della scelta dello sperimentatore, compariva una determinata frase (Sachs, 1967). Al termine della storia veniva presentata ai soggetti una frase test e si chiedeva loro se era uguale o no a quella che avevano sentito nella storia. In alcuni casi questa seconda frase era identica a quella presente nella storia, in altri aveva lo stesso significato ma conteneva parole differenti o disposte in modo differente, in altri ancora aveva addirittura un significato diverso. I risultati hanno mostrato che i soggetti ricordavano meglio la frase contenuta nella storia, nella esatta forma in cui era stata presentata, solo quando quest'ultima era posta verso la fine della storia. Se ciò non si verificava, i soggetti ricordavano bene il suo significato, ma non l'esatta disposizione dei termini che la costituivano. Ciò conferma la realtà psicologica della fase di astrazione nella quale molto spesso si dimentica la forma esatta dell'informazione selezionata, memorizzandone solo il significato. Gli esperimenti di richiamo basato su indizi, invece, sono stati volti a mostrare l'esistenza di una inferenza ricostruttiva da parte dei soggetti nel processo di richiamo di informazioni, inferenza guidata dal tipo di informazioni fornite dallo sperimentatore. I più noti tra questi esperimenti sono quelli di Brewer e Treyens del 1981 e quelli di Loftus e Palmer del 1974 (Brewer e Treyens, 1981; Loftus e Palmer, 1974; vedi anche Loftus, 1979). Essi evidenziano l'esistenza effettiva di processi di integrazione delle informazioni in uno schema preesistente, che conduce, nel ricordo di oggetti o eventi, a riferire informazioni non contenute nei pattern di stimolazione effettivamente presentati. Da un punto di vista concettuale la teoria degli schemi offre la possibilità di un superamento della contrapposizione tra rappresentazioni dichiarative e rappresentazioni procedurali della conoscenza. A questo proposito occorre ricordare che negli anni Ottanta sono apparse serie confutazioni alla tesi dell'Intelligenza Artificiale Forte, la più celebre delle quali è quella di Searle del 1980, basata sul cosiddetto "argomento della stanza cinese" (cfr. Searle, 1980; 1984; 1990). Egli mostra, in sostanza, che la pura manipolazione di simboli, attuata attraverso procedure di carattere meccanico, non è in grado di produrre la comprensione del significato dei simboli stessi, che è invece la caratteristica fondamentale dei processi reali di pensiero. Ne consegue che una macchina, in quanto sistema di computazione di simboli, non è per questo capace né di pensare, né di esibire comportamenti "intelligenti". A sostegno della sua argomentazione Searle propone l'esempio di un individuo, che non conosce e non comprende la lingua cinese, chiuso in una stanza ed in grado di comunicare con l'esterno solo ricevendo o inviando tavolette sulle quali sono impressi dei simboli. Nella stanza egli ha inoltre a disposizione un magazzino di altre tavolette contenenti simboli ed un manuale, scritto nella sua lingua, nel quale si specifica esattamente, quando riceve dall'esterno una tavoletta con sopra impresso un particolare simbolo, quali altre tavolette con simboli deve andare a cercare nel magazzino per inviarle all'esterno. Nel caso in cui i simboli scritti sulle tavolette siano ideogrammi della lingua cinese e le regole scritte nel manuale siano fatte in modo che le tavolette da inviare all'esterno contengano altri ideogrammi che rappresentano, in lingua cinese, la risposta a quelli presentati in ingresso, un cinese autentico sarebbe convinto, inviando e ricevendo tavolette, che l'uomo chiuso nella stanza sia un perfetto conoscitore della lingua cinese. Invece egli non lo è e seguita a non esserlo, nonostante le opinioni di chi osserva la cosa dall'esterno, in quanto il processo di manipolazione di simboli non coincide affatto con la comprensione effettiva del loro significato. Le difficoltà incontrate dai sostenitori dell'Intelligenza Artificiale Forte hanno coinciso con una progressiva affermazione dell'approccio connessionista basato sull'impiego di reti neurali. Nel 1986 Rumelhart, Smolensky, McClelland e Hinton, in un articolo comparso nella celebre antologia PDP ("Parallel Distributed Processing"), la "Bibbia" dei connessionisti, hanno dimostrato come la nozione di schema sia in effetti traducibile completamente nel linguaggio delle reti neurali (cfr. McClelland e Rumelhart, 1986, voi. 2). Ne consegue che la distinzione tra rappresentazioni dichiarative e rappresentazioni procedurali va vista come qualcosa di più sfumato; il grosso problema della ricerca del futuro è quello di stabilire in quali condizioni e come le rappresentazioni puramente procedurali danno origine a rappresentazioni puramente dichiarative. In altri termini, il problema da risolvere è quello di spiegare l' "emergenza" dei simboli a partire da una realtà di procedure non simboliche. 27-IL RAGIONAMENTO: TEORIE E ESEMPI Uno dei processi fondamentali che interviene nell'utilizzo della conoscenza e nella produzione di nuova conoscenza è il ragionamento. A partire dai pensatori dell'antica Grecia la nostra cultura occidentale lo considera addirittura come il processo al quale attribuire la maggiore importanza in tali attività. Tradizionalmente si distinguono tre forme di ragionamento: la deduzione, l' induzione e l'abduzione. La deduzione consiste nel ricavare conclusioni partendo da premesse date, l'induzione nel verificare le ipotesi in base ai dati ottenuti (grazie ad osservazioni suggerite dall'ipotesi stessa) e l'abduzione nel generare l'ipotesi migliore compatibile con i dati esistenti. Un altro sistema potente per produrre conoscenze di fronte a situazioni nuove è il ricorso all'analogia. Le analogie non garantiscono conclusioni certe, eppure sono uno degli strumenti del pensiero che utilizziamo di più, e spesso conducono a soluzioni creative ai problemi. Il ragionamento analogico implica l'utilizzo di una conoscenza specifica di un certo dominio come “sorgente” e la trasferiamo a un dominio diverso. Nel corso dei secoli il processo di deduzione è stato formalizzato in modo rigoroso tramite la Logica, che, a partire dalla metà dell'Ottocento, si è trasformata, grazie all'opera di studiosi come Boole e De Morgan, in Logica Matematica. Questa disciplina ha avuto notevoli sviluppi, tanto da diventare un importante settore della scienza, che pretende persino di fornire un fondamento a tutta la Matematica. Nel contempo essa ha provocato una scissione tra lo studio degli aspetti meccanico-formali e quello degli aspetti reali dei processi di deduzione, lasciando quest'ultimo agli psicologi. Questa rigida suddivisione è stata una delle cause che ha favorito il formarsi di barriere artificiali tra Matematica e Psicologia, che solo gli sviluppi recenti del Cognitivismo contribuiscono lentamente a superare. Faremo riferimento, principalmente, alle ricerche sui processi cognitivi che entrano in gioco nella deduzione. I settori di indagine finora presi in considerazione dagli psicologi sono essenzialmente tre: ricerche sui processi cognitivi che entrano in gioco nella deduzione. I settori di indagine finora presi in considerazione dagli psicologi sono essenzialmente tre: i problemi seriali a tre o più termini, il ragionamento condizionale e i sillogismi categorici. I primi sono quei problemi in cui si devono ricavare conclusioni a partire da due (o più) premesse, ciascuna delle quali contiene un'asserzione relativa ad una relazione tra due enti particolari. Ad esempio le due premesse possono essere "Carlo è più alto di Giovanni" e "Giovanni è più alto di Angelo" e la conclusione corretta consiste nel ricavare "Carlo è più alto di Angelo". Il ragionamento condizionale fa uso di connessioni tra proposizioni attuate tramite le congiunzioni "se... allora...". Un esempio classico di ragionamento condizionale è il cosiddetto "modus ponens", la regola principale adoperata nel dedurre conseguenze nel ragionamento scientifico. Essa parte dalle premesse "se vale A allora vale B" e "vale A" per dedurre la conclusione "vale B". I sillogismi categorici, infine, contengono due premesse nelle quali compaiono asserzioni relative a tutti gli esemplari di una categoria o ad alcuni di essi, costruite utilizzando i cosiddetti "quantificatori", cioè espressioni linguistiche del tipo "tutti...", oppure "per tutti i membri della categoria vale che...", oppure "esiste qualche membro della categoria tale che...". Il classico sillogismo aristotelico ("tutti gli uomini sono mortali, Socrate è un uomo, quindi Socrate è mortale") ricade in questo tipo di ragionamenti deduttivi. Iniziando a prendere in considerazione le ricerche sui problemi seriali, ricordiamo che esistono due categorie di teorie relative ai processi cognitivi che intervengono nella loro soluzione: le teorie basate sulle immagini e quelle di tipo linguistico. Le prime sostengono che i soggetti si formano una immagine visiva della disposizione spaziale dei termini che compaiono nelle premesse, ordinata secondo le loro personali preferenze. La conclusione cui essi arrivano dipende essenzialmente da come è configurata questa disposizione. Riguardo alla sua formazione si hanno varie ipotesi: ad esempio De Soto, London e Haendel (1965) sono del parere che tale disposizione coincida con l'ordine con cui i singoli termini compaiono successivamente nelle varie premesse. In una serie di esperimenti, condotti nel 1965, essi hanno dimostrato che, quando l'ordine logico dei termini coincide con quello con cui essi compaiono nelle premesse, allora la prestazione dei soggetti è migliore rispetto al caso in cui l'ordine logico e l'ordine spaziale sono differenti. Secondo la Huttenlocher (1968), invece, ciò che conta sono i due termini che fanno parte della prima premessa e il terzo termine viene aggiunto solo se esso è il soggetto logico della seconda premessa. Questa ipotesi è suggerita dai risultati di alcuni esperimenti condotti nel 1968 dalla stessa Huttenlocher che mostrano come, in quest'ultima situazione, la prestazione dei soggetti sia migliore. Venendo ora alle teorie di tipo linguistico, menzioniamo quella proposta da Clark nel 1969, che cerca di spiegare le prestazioni ottenute dai soggetti (misurate tramite il tempo medio di risposta) in compiti in cui, dopo la presentazione delle prime due premesse (del tipo "A è più lungo di B", "B è più lungo di C"), segue una domanda (del tipo "chi è il più lungo?") cui il soggetto deve fornire una risposta. La teoria di Clark si basa su tre principi fondamentali (cfr. Clark, 1969): 1) delle premesse vengono memorizzati direttamente i significati profondi; 2) gli attributi usati nel descrivere le relazioni e nel porre le domande sono di due tipi: "neutrali", quando non fanno riferimento a qualche particolare zona di una scala di valori (come, ad esempio, l'attributo "lungo" che non implica un particolare valore di lunghezza), e "marcati", quando invece contraddistinguono una particolare zona (come, ad esempio, l'attributo "corto", che implica una lunghezza di valore basso); gli attributi neutrali vengono memorizzati e richiamati più facilmente di quelli marcati; 3) se la forma della domanda finale è congruente con il significato profondo delle premesse immagazzinato in memoria, il tempo di risposta sarà minore di quando essa non è congruente. La teoria di Clark è stata verificata in una serie di esperimenti condotti da Potts e Scholz nel 1975, nei quali ai soggetti prima venivano presentate le premesse, proiettate su uno schermo e, quando ritenevano di averle comprese, premevano un bottone che provocava la comparsa sulla schermo della domanda (Potts e Scholz, 1975). La risposta del soggetto avveniva, poi, premendo un secondo bottone ed il tempo di reazione misurato era quello intercorrente tra la pressione dei due bottoni. In questo modo esso era una misura diretta del tempo impiegato a confrontare la domanda con la forma delle premesse, così come erano state codificate "internamente". I risultati ottenuti da Potts e Scholz confermano solo parzialmente le ipotesi di Clark. In particolare la terza ipotesi non è stata verificata, in quanto i tempi di reazione sono risultati indipendenti dalla forma con cui le premesse sono state presentate ai soggetti. Come si vede, è assai difficile costruire teorie relative ai problemi seriali che tengano conto di tutti i dati sperimentali. Una delle cause di questa difficoltà è sicuramente data dall'artificialità della situazione con cui si ha a che fare negli esperimenti di laboratorio. Un'altra possibile causa, come ha suggerito Griggs nel 1978, può essere dovuta al fatto che non tutti i soggetti codificano i problemi nello stesso modo. Numerose sono anche le ricerche sul ragionamento condizionale. Dal momento che, come abbiamo visto, esso riveste un ruolo centrale nell'apparato deduttivo delle teorie scientifiche formalizzate, la maggior parte delle ricerche è stata rivolta ad indagare se, quando i soggetti umani usano tale tipo di ragionamento, essi adoperano le regole che lo codificano nell'ambito della Logica formale. Come è noto, questa disciplina rappresenta il processo di deduzione alla stregua del funzionamento di una macchina e concepisce il processo di deduzione non come un reale processo di pensiero, ma semplicemente come un calcolo logico, che parte da espressioni primitive (costituite dai cosiddetti assiomi) e, tramite opportune regole meccaniche (le cosiddette regole di inferenza), ricava nuove espressioni, ovvero i teoremi della Logica. Da notare che questo meccanismo è stato progettato in modo da funzionare indipendentemente dal significato attribuito alle espressioni stesse, le quali vengono viste nient'altro che come pure sequenze di simboli. Il problema è quello di sapere se le regole meccaniche di inferenza studiate nella Logica Matematica sono le stesse utilizzate dagli esseri umani quando effettuano ragionamenti di tipo condizionale. Le prime ricerche in merito sono state compiute negli anni Settanta da Osherson, il quale ha usato particolari problemi di logica, sottoponendoli ai soggetti e confrontando le difficoltà da loro incontrate nella soluzione con la complessità delle deduzioni necessarie per ottenere la soluzione utilizzando gli algoritmi standard della Logica Matematica (cfr. Osherson, 1974). I risultati ottenuti da Osherson hanno mostrato l'assenza di correlazioni significative tra questi due aspetti e l'hanno portato a concludere che il ragionamento condizionale umano non segue le leggi della Logica formale. Questa circostanza è stata confermata da una serie di esperimenti condotti da Rips e Marcus verso la fine degli anni Settanta, che hanno anche evidenziato come la maggiore discrepanza tra comportamento umano e leggi della Logica formale non stia tanto nell'uso della regola del "modus ponens", precedentemente citata, quanto in quello della cosiddetta regola del "modus tollens". Essa ha una forma del tipo "se A implica B e se non vale B, allora non vale neanche A". La scarsa capacità dei soggetti umani di usare questa regola è stata messa in luce da un celebre esperimento del 1972 di Wason e Johnson-Laird, in cui veniva proposto il cosiddetto "problema delle quattro carte". In esso si mostravano al soggetto quattro carte, con sopra, rispettivamente, i simboli E, K, 4 e 7, e lo si informava che ogni carta recava un numero su un lato ed una lettera sull'altro. Si sottoponeva poi al soggetto questa regola: "se su di un lato di una carta c'è una vocale, allora c'è un numero pari sull'altro lato". Il compito del soggetto consisteva neh" indicare quante e quali carte dovevano essere girate per verificare la validità della regola. La scelta corretta era quella di girare le carte con il simbolo E e con il simbolo 7. Infatti la prima delle due scelte verificava la regola usando il "modus ponens" ("se su un lato c'è una vocale, allora sull'altro c'è un numero pari; inoltre su un lato c'è la vocale E, quindi sull'altro lato ci deve essere un numero pari"), mentre la seconda la verificava usando il "modus tollens" ("se su un lato c'è una vocale, allora sull'altro c'è un numero pari; ma su un lato non c'è un numero pari, quindi sull'altro lato non ci deve essere una vocale").Eppure, contrariamente a ciò che si poteva aspettare, solo il 4% dei soggetti scelse di voltare le carte con i simboli E e 7 (la scelta corretta), mentre ben il 46% scelse di voltare le carte con i simboli E e 4. In ogni caso l'83% concordò sulla decisione di voltare la carta E. Ciò mostra una buona capacità di usare il "modus ponens" e una incapacità nei confronti del "modus tollens". La difficoltà di soluzione del problema delle quattro carte non dipende dalla scarsa conoscenza che i soggetti hanno delle regole della Logica Matematica. Infatti una ricerca del 1986 di Cheng, Holyoak, Nisbett e Oliver ha mostrato che studenti universitari che avevano seguito un corso di Logica formale presentavano, in questo problema, una performance di pochissimo superiore a quella degli altri. Secondo una teoria proposta da Braine nel 1978 i soggetti umani utilizzerebbero regole di inferenza logica ben precise, ma in gran parte diverse da quelle della Logica Matematica. Egli, infatti, arrivò ad affermare che non è tanto il pensiero umano che è incapace di usare le regole astratte della Logica formale, quanto è piuttosto quest'ultima che è inadeguata a rappresentare i reali processi di pensiero. Un'altra serie di ricerche riguarda i sillogismi categorici. Anche qui il problema fondamentale è quello del confronto tra leggi della Logica formale e processi reali di pensiero. Per ciò che concerne le prime, ricordiamo che, fin dai tempi di Aristotele, i sillogismi sono stati analizzati, sul piano formale, in grande dettaglio. Questa circostanza ha dato origine ad una serie di suddivisioni e nomenclature che vengono largamente utilizzate anche nelle ricerche sui processi di pensiero connessi all'impiego dei sillogismi stessi. Qui rammentiamo il fatto che ogni sillogismo è composto da due proposizioni, che fungono da "premesse", e da una proposizione, che funge da "conclusione". Le prime ricerche condotte in Psicologia sui sillogismi categorici hanno messo in rilievo l'influenza dei "modi" in cui compaiono le premesse nel determinare il tipo di conclusione raggiunta dai soggetti umani. In particolare Woodworth e Sells nel 1935 hanno proposto, come spiegazione dei comportamenti osservati nei soggetti, l'esistenza di un "effetto atmosfera", secondo il quale due premesse che compaiono in "modi" uguali indurrebbero il soggetto a fornire una conclusione dello stesso "modo". Nel 1969 Begg e Denny hanno riformulato l'effetto atmosfera in termini più precisi, introducendo due principi, secondo i quali: a) quando almeno una premessa è negativa, il soggetto tenderà a formulare una conclusione negativa; in caso contrario tenderà ad una conclusione affermativa; b) quando almeno una premessa è particolare, il soggetto tenderà ad una conclusione particolare; in caso contrario tenderà ad una conclusione universale. Nonostante gli esperimenti di Begg e Denny abbiano messo in luce un notevole potere predittivo di queste ipotesi, molti autori hanno negato l'esistenza dell'effetto atmosfera, proponendo ipotesi alternative per spiegare le prestazioni dei soggetti. Tra di essi vanno citati Chapman e Chapman, che nel 1959, hanno supposto che gli errori nelle conclusioni raggiunte dai soggetti dipendano essenzialmente da una codifica scorretta delle premesse, che si rifletterebbe in conversioni non lecite di queste ultime in altre proposizioni, ad esse non equivalenti sul piano logico. Vi è da notare, a questo proposito, che molte volte la scorrettezza delle conclusioni dipende effettivamente dalla mancata comprensione del vero significato delle premesse, come hanno mostrato Ceraso e Provitera in una ricerca del 1971. Per altro, la proposta di Chapman e Chapman è formulata in modo troppo vago per poter costituire la base su cui ricavare previsioni relative a risultati sperimentali. Nel corso degli anni Settanta sono stati costruiti modelli più precisi dei processi cognitivi sottostanti all'utilizzo dei sillogismi, basati su uno schema a stadi. Tra di essi va citato il modello dell'analisi insiemistica di Erickson proposto nel 1974, secondo il quale i soggetti codificherebbero il contenuto delle premesse e delle conclusioni in termini di relazioni tra insiemi. Ciò concorda con il fatto che i "modi" delle varie proposizioni corrispondono, in effetti, a particolari tipi di relazioni tra insiemi. Secondo Erickson il ragionamento sillogistico dei soggetti comprenderebbe tre fasi: nella prima si avrebbe l'interpretazione insiemistica delle premesse, nella seconda la lora combinazione, sempre in termini insiemistici, e nella terza la conclusione, ottenuta scegliendo la relazione comune a tutte le combinazioni prese in esame nella fase precedente. Gli errori dei soggetti dipenderebbero da scorrette interpretazioni insiemistiche nella prima fase o da un numero insufficiente di combinazioni esaminate nella seconda. Nel 1978 Johnson-Laird e Steedman hanno condotto una serie di esperimenti sui cosiddetti sillogismi "concreti", costituiti da premesse (e conclusioni) riguardanti circostanze che rientrano nelle possibili esperienze comuni dei soggetti. Esse hanno messo in luce una forte influenza della forma delle premesse del sillogismo sulle conclusioni effettivamente ottenute. Per spiegare questi risultati gli autori hanno proposto la cosiddetta "teoria analogica dei sillogismi", secondo la quale i soggetti, di fronte alle premesse, si formerebbero una specie di "modello mentale" del loro significato, costituito da una rappresentazione analogica con la quale essi riuscirebbero a crearsi un'immagine della situazione cui le premesse si riferiscono. .Le operazioni cognitive che conducono alla conclusione sarebbero dunque operazioni che agiscono su queste rappresentazioni analogiche, combinandole secondo opportune regole euristiche. La teoria dei "modelli mentali" è stata implementata anche in modelli di simulazione su computer, che si sono mostrati in grado di prevedere efficacemente i dati sperimentali. Essa, in un certo senso, rappresenta una generalizzazione delle idee già presentate da Erickson, ma si contrappone ad approcci, come quello della "Logica Naturale" di Braine, che privilegiano invece le rappresentazioni di tipo proposizionale o astratto delle premesse. Questa contrapposizione non è che uno dei tanti aspetti della contrapposizione che,come abbiamo visto nei capitoli precedenti, è esistita per molti anni tra teorie basate sulle rappresentazioni della conoscenza di tipo analogico e quelle basate su rappresentazioni di tipo proposizionale. Oggi si tende ad un superamento di queste dicotomie, non compatibili con i dati sperimentali, in funzione di una visione integrata dei processi mentali basata sull'uso simultaneo di più tipi di rappresentazione differenti. Dopo aver passato in rassegna le ricerche sui processi di decisione, ci occuperemo qui di quelle riguardanti i processi di induzione. Esse possono essere suddivise in due categorie principali: quelle relative all'apprendimento di concetti e quelle relative alle decisioni statistiche. La prima è basata sui concetti, anche se non è facile definire esattamente che cosa si intende con la parola "concetto", in quanto una definizione del genere diventa, di per sé, una particolare teoria della formazione e dell'utilizzo dei concetti. In questo contesto il termine "concetto" verrà utilizzato come sinonimo di "categoria", ovvero modo per raggruppare insieme più oggetti o eventi. L'utilizzo dei concetti è fondamentale per l'attività cognitiva. L'impiego dei concetti consente, allo stesso tempo, di fare sensibili economie nell'ambito dei processi mentali, dato che ci possiamo limitare ad applicarli ai concetti, anziché a tutti i singoli esemplari che ne fanno parte. Per quanto riguarda le teorie sui concetti possiamo distinguere tra teorie olistiche e teorie basate sulle caratteristiche (o tratti). Le prime considerano ogni concetto alla stregua di chiamare "conoscenza". Essa, in un certo senso, è la merce di scambio, o la moneta, che viene impiegata in tutte le interazioni tra gli esseri umani (e non solo umani) ed il resto del mondo. E grazie all'acquisizione di conoscenza che cambia il nostro stato "interno". E grazie alla conoscenza posseduta che noi possiamo agire per modificare lo stato "esterno" del mondo. Tutti i processi che interessano la nostra vita, dai più semplici ai più complessi, possono essere descritti in termini di scambi o trasformazioni di conoscenza. Da ciò che abbiamo detto traspare l'importanza che lo studio della conoscenza assume per la Psicologia, in particolare per quel ramo costituito dalla Psicologia dei Processi Cognitivi, il cui scopo principale è lo studio dei processi di percezione, attenzione, memorizzazione, apprendimento, pensiero. Oggi quest'ultima disciplina si configura in modo autonomo, con un proprio oggetto, ovvero i processi sopra elencati, un proprio metodo, basato sull'impiego di modelli dei fenomeni studiati e sull'esecuzione di precisi esperimenti di laboratorio, e un consistente campo di applicazioni, che vanno dalla valutazione della performance di interfacce uomo-macchina alla progettazione di attività educative. Si tratta di un ambito di studi che diventa sempre più complesso, sia per l'interazione di diverse discipline, dalla Psicologia alla Neurofisiologia, dall'Intelligenza Artificiale alla Matematica, dalla Filosofia alla Fisica, che per la crescente mole di lavoro sperimentale nei domini più disparati. Per orientarsi in questo ambito occorre disporre di una rappresentazione schematica delle varie problematiche relative alla conoscenza. Da un punto di vista generale esse si possono sintetizzare tramite alcune domande fondamentali, ovvero: 1) cos'è la conoscenza? 2) come si misura la conoscenza? 3) quali trasformazioni può subire? 4)come avvengono l'acquisizione, la cessione e l'utilizzo della conoscenza? Le risposte fornite a queste domande caratterizzano i differenti modelli generali proposti nell'ambito della Psicologia dei Processi Cognitivi, i quali, a loro volta, hanno ispirato modelli specifici dei processi particolari in cui intervengono scambi o trasformazioni di conoscenza. Il problema della rappresentazione della conoscenza è stato affrontato, da vari punti di vista: nei vari studi si sono prese in esame le reti semantiche nel caso della rappresentazione della struttura dei concetti, le rappresentazioni geometrico-spaziali e quelle proposizionali nel caso delle immagini mentali, le rappresentazioni astratte nel caso della struttura profonda delle frasi. Occorre, però, tener conto del fatto che tutte queste forme di rappresentazione sono integrate nell'ambito di strutture di tipo più generale, essenziali per comprendere in qual modo la conoscenza è effettivamente rappresentata ed utilizzata. Riguardo a queste strutture una distinzione che viene spesso introdotta le suddivide in due categorie: quelle connesse alle rappresentazioni di tipo dichiarativo e quelle connesse alle rappresentazioni di tipo procedurale. Le prime sono basate sull'utilizzo di simboli e danno luogo alla produzione di altri simboli, mentre le seconde sono innescate da ingressi di tipo fisico e consistono in modalità di associazione input-output che danno luogo alla produzione di azioni. Possiamo raffigurarci una rappresentazione di tipo dichiarativo come costituita da un insieme di espressioni simboliche, sulle quali agiscono opportune regole che, a partire da opportune espressioni, danno luogo alla formazione di nuove espressioni. Queste regole, raffigurabili come regole meccaniche, sono di due tipi: regole acontestuali, in cui una data espressione viene trasformata in un'altra indipendentemente dal contesto, cioè dalla presenza o meno di certe altre espressioni simboliche, e regole contestuali, in cui la trasformazione avviene solo in presenza di altre opportune espressioni. Le regole acontestuali trovano vasta applicazione nei domini logici e matematici. Da un punto di vista puramente astratto (che cioè prescinde completamente da problemi concreti di realizzazione nello spazio e nel tempo) un sistema su cui agiscono regole di produzione è concettualmente equivalente ad un dispositivo logico di natura ideale noto come macchina di Turing. Esso è stato ideato, per l'appunto, nel 1936 dal matematico inglese A.M. Turing per rappresentare nel modo più generale e formalizzato possibile il concetto di procedimento meccanico di calcolo. Una macchina di Turing è composta da un dispositivo meccanico con un numero finito di ingressi, di uscite e di stati interni possibili, connesso ad un apparato di lettura e scrittura sotto il quale passa un nastro infinitamente lungo, suddiviso in caselle tutte uguali tra loro, su ognuna delle quali è stampato un simbolo, tratto da un opportuno alfabeto, che comprende tra i suoi elementi anche due simboli speciali: "bianco" (per indicare la casella in cui non c'è nessun simbolo) e "stop", per indicare la situazione in cui il funzionamento della macchina si arresta. Il modo di operare di una generica macchina di Turing è molto semplice: il dispositivo di lettura e scrittura legge il simbolo che si trova nella casella posta sotto di esso e lo invia al dispositivo meccanico che, in funzione dello stato interno in cui si trova in quel momento, del simbolo letto e delle proprie leggi di funzionamento, cambia il proprio stato interno, scrive un nuovo simbolo sul nastro al posto di quello letto e sposta il nastro in uno dei tre modi permessi: una casella a sinistra, una casella a destra o per niente. E notevole il fatto che una struttura così astratta e, nel contempo, elementare sia in grado di riprodurre qualunque tipo di procedimento meccanico di calcolo. In generale un calcolo ha termine quando sul nastro l'apparato di lettura e scrittura scrive il simbolo "stop". Il risultato più notevole della teoria delle macchine di Turing consiste nella dimostrazione dell'esistenza di problemi insolubili per qualunque macchina di Turing, per i quali, cioè, qualunque macchina del genere, comunque progettata, non può garantire che il procedimento di calcolo che porta alla soluzione si arresti in qualche momento facendo comparire il simbolo "stop". In altri termini, è possibile che, in corrispondenza ad uno di questi problemi, la macchina operi per un tempo infinito senza mai fermarsi. Tra questi problemi insolubili vi è quello cosiddetto della "fermata" (halting problem). Esso consiste nel trovare un algoritmo che consenta di sapere a priori, per qualunque macchina di Turing e qualsiasi configurazione iniziale di simboli sul nastro, se e quando la macchina si arresterà producendo il simbolo "stop". L'insolubilità di questo problema equivale a dire che il comportamento di una macchina di Turing, che resta comunque un dispositivo meccanico, è imprevedibile a priori in termini di procedimenti meccanici di decisione. Una conseguenza immediata di questo fatto è che, se la rappresentazione dichiarativa della conoscenza rende la mente equivalente ad una macchina di Turing, allora non esiste un procedimento meccanico che consenta di prevedere a priori tutti i possibili processi mentali. In altri termini, il comportamento della mente rimane imprevedibile anche se è analogo a quello di un programma per computer. Ciò implica anche, come ulteriore conseguenza, che la mente è incapace di osservare completamente se stessa e che, quindi, deve esistere una parte dei processi mentali inaccessibile alla spiegazione cosciente (la si potrebbe chiamare "parte inconscia"). Queste argomentazioni sono tutte basate sul presupposto che i processi mentali abbiano accesso ad un serbatoio di informazioni di capacità virtualmente illimitata, proprio come il nastro della macchina di Turing. Profondamente differenti appaiono invece le rappresentazioni della conoscenza di tipo procedurale, che considerano la mente alla stregua di un insieme di unità cognitive interconnesse, ciascuna delle quali è in grado di attivarsi in presenza di opportuni ingressi. Essi sono sostanzialmente equivalenti a delle reti neurali. La conoscenza è immagazzinata nel senso che consente di dar luogo a ben precisi tipi di associazioni tra input ed output. Questi ultimi non vanno interpretati necessariamente in senso fisico diretto, in contatto con l'esterno, ma possono essere di natura interna alle reti stesse, grazie alla presenza di unità (le cosiddette "unità nascoste") che non hanno connessioni dirette né con l'ingresso né con l'uscita del sistema. Per un certo numero di anni gli studiosi hanno sostenuto l'esistenza di una incompatibilità tra i due tipi di rappresentazione della conoscenza, quella dichiarativa e quella procedurale. In particolare nel momento della nascita del Cognitivismo e dei primi concreti successi dell'Intelligenza Artificiale, in corrispondenza agli anni Sessanta, la tesi secondo cui l'unica rappresentazione possibile della conoscenza è quella di tipo dichiarativo è stata posta a fondamento della Psicologia dei Processi Cognitivi e della stessa Intelligenza Artificiale. Su questa tesi si basa un approccio allo studio dei processi mentali, noto come “approccio computazionale simbolico", teorizzato principalmente da Fodor e Pylyshyn. Questo approccio considera tali processi sostanzialmente equivalenti a computazioni agenti su simboli secondo opportune regole di calcolo. La mente sarebbe dunque nient'altro che una particolare macchina di Turing e, in quanto tale, le sue proprietà potrebbero essere trasferite in un calcolatore governato da programmi di opportuna complessità. Le macchine potrebbero quindi essere in grado di pensare e di esibire comportamenti "intelligenti", pur di trovare le regole di calcolo che governano le elaborazioni simboliche effettuate dai processi mentali nell'uomo (quest'ultimo sarebbe il compito della Psicologia). Questa asserzione è propria dei sostenitori della cosiddetta "Intelligenza Artificiale Forte". Un frame contiene una serie di caselle, da riempire con opportune informazioni, che individuano un particolare oggetto o una particolare situazione. Queste informazioni possono anche consistere in descrizioni di procedure da implementare se sono soddisfatte opportune condizioni. Ad esempio il frame "automobile" può essere caratterizzato dalle caselle "marca", "tipo", "colore", adatte a contenere informazioni di tipo dichiarativo, e da altre caselle contenenti informazioni relative a procedure, come la casella "se manca la benzina...". Invece uno script consiste in una sequenza stereotipata di azioni da compiere quando ci si trova in una certa situazione. Ad esempio lo script "negozio" è composto da una sequenza del tipo: entrare, scegliere la merce desiderata, andare alla cassa, pagarla, prendere lo scontrino, uscire. Queste forme di rappresentazione sono state utilizzate nella realizzazione di programmi per computer molto ambiziosi quali quelli capaci di pianificare una sequenza di azioni per raggiungere uno scopo e quelli in grado di far funzionare i cosiddetti "sistemi esperti" (Rolston, 1991). Questi ultimi sono costituiti da una base di conoscenza, immagazzinata nella memoria del computer, contenente una serie di informazioni su fatti e regole relativi ad un certo dominio, e da un programma di deduzione automatica che, a partire dalla base di conoscenza, trae opportune conclusioni, valutazioni o diagnosi relative al dominio in questione, proprio come farebbe un esperto umano che fosse uno specialista del settore e venisse opportunamente interrogato. I sistemi esperti costituiscono la realizzazione più interessante effettuata nell'ambito del paradigma dell'Intelligenza Artificiale Forte: ne sono stati costruiti per la diagnosi medica di malattie, per la prospezione mineraria, per la individuazione dei guasti in apparecchiature, per la soluzione di complessi problemi matematici. In questi ultimi anni le ditte produttrici di sistemi esperti si sono orientate verso la realizzazione di "shell", cioè di sistemi esperti composti dal solo programma di deduzione automatica, lasciando all'utente la possibilità di inserire a suo piacimento la base di dati relativa al dominio da lui scelto. I risultati ottenuti nell'ambito dell'Intelligenza Artificiale hanno riacceso l'interesse degli psicologi per quella forma di rappresentazione della conoscenza che è costituita dagli "schemi". Originariamente il concetto di schema è stato proposto da Bartlett nel 1932 per descrivere il modo con cui i soggetti integravano, nel raccontarla dopo un certo tempo, le informazioni che avevano memorizzate relativamente ad una storia loro presentata con le conoscenze generali di cui già disponevano. La nozione di schema non viene, però, definita da Bartlett in modo sufficientemente preciso. Invece i concetti di frame e di script rappresentano dei modi di definire gli schemi che, anche se troppo ristretti, sono comunque assai circostanziati. Questo tipo di approccio è stato ripreso in un lavoro di Rumelhart e Ortony del 1977, nel quale gli autori propongono una definizione generale di schema, che cerca di catturare le caratteristiche di tutte le possibili rappresentazioni della conoscenza (Rumelhart e Ortony, 1977). Secondo loro uno schema è una generica struttura cognitiva caratterizzata da: a) caselle o variabili b) possibilità di inclusione in altri schemi, in modo gerarchico c) diversi livelli di astrazione delle informazioni che possono riempire le sue caselle. Gli schemi possono essere modificati, così come se ne possono creare di nuovi, a differenti livelli. Si hanno così schemi altamente astratti, come quelli usati nella ricerca scientifica o nella comprensione e produzione di testi letterari o filosofici, e schemi più concreti, come quelli che dirigono la guida di un'automobile nel traffico cittadino. Essi sono interconnessi in strutture gerarchiche assai complesse, con vari tipi di inclusione. Se si ipotizza che tutta la conoscenza sia rappresentata tramite schemi, ciò ha delle precise conseguenze per ciò che riguarda i processi di immagazzinamento e di richiamo di informazioni. Nel 1983 Alba e Hasher hanno fatto notare che, se si suppone che la memoria sia organizzata tramite schemi, l'elaborazione delle informazioni presentate al soggetto deve consistere di quattro fasi (Alba e Hasher, 1983): 1) la selezione, nella quale gli schemi determinano quale informazione prendere in considerazione; 2) l'astrazione, nella quale si estrae il significato astratto dell'informazione selezionata; 3) l'interpretazione, nella quale il significato dell'informazione viene interpretato alla luce delle altre informazioni contenute nello schema; 4) l'integrazione, nella quale l'informazione viene a far parte degli schemi preesistenti e quindi viene elaborata in modo da essere compatibile con essi; in questa fase si possono verificare modifiche degli schemi o creazioni di nuovi schemi. Le modalità con cui in queste fasi avviene l'elaborazione delle informazioni sono state studiate in una serie di esperimenti, alcuni dei quali basati sul paradigma della memoria di riconoscimento, mentre altri appartenevano alla categoria del richiamo basato su indizi. Molti di essi sono stati condotti, in effetti, ben prima che la teoria degli schemi venisse formulata in modo così preciso. Tra quelli basati sul paradigma della memoria di riconoscimento viene spesso citato un esperimento di Sachs del 1967, nel quale i soggetti ascoltavano una storia, all'interno della quale, in un punto prestabilito e variabile a seconda della scelta dello sperimentatore, compariva una determinata frase (Sachs, 1967). Al termine della storia veniva presentata ai soggetti una frase test e si chiedeva loro se era uguale o no a quella che avevano sentito nella storia. In alcuni casi questa seconda frase era identica a quella presente nella storia, in altri aveva lo stesso significato ma conteneva parole differenti o disposte in modo differente, in altri ancora aveva addirittura un significato diverso. I risultati hanno mostrato che i soggetti ricordavano meglio la frase contenuta nella storia, nella esatta forma in cui era stata presentata, solo quando quest'ultima era posta verso la fine della storia. Se ciò non si verificava, i soggetti ricordavano bene il suo significato, ma non l'esatta disposizione dei termini che la costituivano. Ciò conferma la realtà psicologica della fase di astrazione nella quale molto spesso si dimentica la forma esatta dell'informazione selezionata, memorizzandone solo il significato. Gli esperimenti di richiamo basato su indizi, invece, sono stati volti a mostrare l'esistenza di una inferenza ricostruttiva da parte dei soggetti nel processo di richiamo di informazioni, inferenza guidata dal tipo di informazioni fornite dallo sperimentatore. I più noti tra questi esperimenti sono quelli di Brewer e Treyens del 1981 e quelli di Loftus e Palmer del 1974 (Brewer e Treyens, 1981; Loftus e Palmer, 1974; vedi anche Loftus, 1979). Essi evidenziano l'esistenza effettiva di processi di integrazione delle informazioni in uno schema preesistente, che conduce, nel ricordo di oggetti o eventi, a riferire informazioni non contenute nei pattern di stimolazione effettivamente presentati. Da un punto di vista concettuale la teoria degli schemi offre la possibilità di un superamento della contrapposizione tra rappresentazioni dichiarative e rappresentazioni procedurali della conoscenza. A questo proposito occorre ricordare che negli anni Ottanta sono apparse serie confutazioni alla tesi dell'Intelligenza Artificiale Forte, la più celebre delle quali è quella di Searle del 1980, basata sul cosiddetto "argomento della stanza cinese" (cfr. Searle, 1980; 1984; 1990). Egli mostra, in sostanza, che la pura manipolazione di simboli, attuata attraverso procedure di carattere meccanico, non è in grado di produrre la comprensione del significato dei simboli stessi, che è invece la caratteristica fondamentale dei processi reali di pensiero. Ne consegue che una macchina, in quanto sistema di computazione di simboli, non è per questo capace né di pensare, né di esibire comportamenti "intelligenti". A sostegno della sua argomentazione Searle propone l'esempio di un individuo, che non conosce e non comprende la lingua cinese, chiuso in una stanza ed in grado di comunicare con l'esterno solo ricevendo o inviando tavolette sulle quali sono impressi dei simboli. Nella stanza egli ha inoltre a disposizione un magazzino di altre tavolette contenenti simboli ed un manuale, scritto nella sua lingua, nel quale si specifica esattamente, quando riceve dall'esterno una tavoletta con sopra impresso un particolare simbolo, quali altre tavolette con simboli deve andare a cercare nel magazzino per inviarle all'esterno. Nel caso in cui i simboli scritti sulle tavolette siano ideogrammi della lingua cinese e le regole scritte nel manuale siano fatte in modo che le tavolette da inviare all'esterno contengano altri ideogrammi che rappresentano, in lingua cinese, la risposta a quelli presentati in ingresso, un cinese autentico sarebbe convinto, inviando e ricevendo tavolette, che l'uomo chiuso nella stanza sia un perfetto conoscitore della lingua cinese. Invece egli non lo è e seguita a non esserlo, nonostante le opinioni di chi osserva la cosa dall'esterno, in quanto il processo di manipolazione di simboli non coincide affatto con la comprensione effettiva del loro significato. Le difficoltà incontrate dai sostenitori dell'Intelligenza Artificiale Forte hanno coinciso con una progressiva affermazione dell'approccio connessionista basato sull'impiego di reti neurali. Nel 1986 Rumelhart, Smolensky, McClelland e Hinton, in un articolo comparso nella celebre antologia PDP ("Parallel Distributed Processing"), la "Bibbia" dei connessionisti, hanno dimostrato come la nozione di schema sia in effetti traducibile completamente nel linguaggio delle reti neurali (cfr. McClelland e Rumelhart, 1986, voi. 2). Ne consegue che la distinzione tra rappresentazioni dichiarative e rappresentazioni procedurali va vista come qualcosa di più sfumato; il grosso problema della ricerca del futuro è quello di stabilire in quali condizioni e come le rappresentazioni puramente procedurali danno origine a rappresentazioni puramente dichiarative. In altri termini, il problema da risolvere è quello di spiegare l' "emergenza" dei simboli a partire da una realtà di procedure non simboliche. 29-APPRENDIMENTO DI CONCETTI E ESPERIMENTI Ciò che accomuna tutti i processi, che la Psicologia segmenta e studia in modo specifico, è il fatto che in essi viene utilizzata una entità, che fin dall'antichità si è preferito chiamare "conoscenza". Essa, in un certo senso, è la merce di scambio, o la moneta, che viene impiegata in tutte le interazioni tra gli esseri umani (e non solo umani) ed il resto del mondo. E grazie all'acquisizione di conoscenza che cambia il nostro stato "interno". E grazie alla conoscenza posseduta che noi possiamo agire per modificare lo stato "esterno" del mondo. Tutti i processi che interessano la nostra vita, dai più semplici ai più complessi, possono essere descritti in termini di scambi o trasformazioni di conoscenza. Da ciò che abbiamo detto traspare l'importanza che lo studio della conoscenza assume per la Psicologia, in particolare per quel ramo costituito dalla Psicologia dei Processi Cognitivi, il cui scopo principale è lo studio dei processi di percezione, attenzione, memorizzazione, apprendimento, pensiero. Oggi quest'ultima disciplina si configura in modo autonomo, con un proprio oggetto, ovvero i processi sopra elencati, un proprio metodo, basato sull'impiego di modelli dei fenomeni studiati e sull'esecuzione di precisi esperimenti di laboratorio, e un consistente campo di applicazioni, che vanno dalla valutazione della performance di interfacce uomo-macchina alla progettazione di attività educative. Si tratta di un ambito di studi che diventa sempre più complesso, sia per l'interazione di diverse discipline, dalla Psicologia alla Neurofisiologia, dall'Intelligenza Artificiale alla Matematica, dalla Filosofia alla Fisica, che per la crescente mole di lavoro sperimentale nei domini più disparati. La più importante, forse, di tutte le rappresentazioni interne della conoscenza è quella basata sui concetti. Non è facile definire esattamente che cosa si intende con la parola "concetto", in quanto una definizione del genere diventa, di per sé, una particolare teoria della formazione e dell'utilizzo dei concetti. In questo contesto il termine "concetto" verrà utilizzato come sinonimo di "categoria", ovvero modo per raggruppare insieme più oggetti o eventi. L'utilizzo dei concetti è fondamentale per l'attività cognitiva in quanto, da un lato, consente di considerare come equivalenti entità diverse e, dall'altro, elimina la necessità di manipolare le entità concrete, limitando i processi cognitivi alla elaborazione di entità più astratte quali sono, per l'appunto, i concetti. È proprio questa circostanza che consente di complicare, virtualmente all'infinito, la gerarchia di strutture simboliche costruibili dalla nostra mente, senza che questo implichi dei costi sul piano fisico. D'altro canto l'impiego dei concetti consente, allo stesso tempo, di fare sensibili economie nell'ambito dei processi mentali, dato che ci possiamo limitare ad applicarli ai concetti, anziché a tutti i singoli esemplari che ne fanno parte. Per quanto riguarda le teorie sui concetti possiamo distinguere tra teorie olistiche e teorie basate sulle caratteristiche (o tratti). Le prime considerano ogni concetto alla stregua di un tutto non ulteriormente analizzabile, che deriva in parte da una base innata. Uno studio a sostegno di questo punto di vista è, ad esempio, quello pubblicato nel 1980 da Fodor, Garrett, Walker e Parkes, nel quale vengono misurati i tempi di reazione dei soggetti quando devono esprimere giudizi su frasi contenenti termini normalmente definiti tramite opportuni attributi. I risultati mostrano che i tempi di reazione sono indipendenti dal numero di attributi necessario per definire i concetti espressi dai termini presenti nelle frasi. Fodor ed i suoi collaboratori ne traggono la conclusione che le elaborazioni mentali dei concetti sono indifferenti alla complessità delle loro definizioni, le quali dunque non intervengono affatto nel determinarne le modalità di utilizzo. Nonostante i suggerimenti che provengono dai dati di questi esperimenti, le teorie basate sulle caratteristiche costituiscono la stragrande maggioranza di quelle effettivamente impiegate dagli psicologi nello studio dei processi che riguardano la struttura concettuale. Normalmente si distinguono tre classi di tali teorie: le teorie cosiddette classiche, le teorie basate sui tratti differenziali e quelle basate sui prototipi. Le teorie classiche postulano che ogni concetto sia definito da un insieme finito di caratteristiche, ciascuna delle quali è necessario che sia posseduta dagli esemplari del concetto stesso. E questo il modo con cui sono definiti i concetti in Matematica e nella Logica formale. Si tratta di una rappresentazione assai vantaggiosa sul piano sperimentale, in quanto consente di studiare i processi di acquisizione e di utilizzo dei concetti in modi facilmente manipolabili dallo sperimentatore. Il paradigma sperimentale più usato prevede l'uso di concetti artificiali, che possono essere specificati esattamente facendo riferimento ad un opportuno numero di caratteristiche fisiche oggettive individuabili senza ambiguità. Di solito queste ultime sono forma, dimensioni o colori di figure geometriche (item), disegnate su apposite carte o presentate sugli schermi dei computer. In questi casi il concetto viene definito tramite un insieme costituito da un numero opportuno di questi item, tutti e solo quelli caratterizzati dalle proprietà che definiscono il concetto stesso. Per quanto riguarda le modalità di presentazione degli item ai soggetti, ne esistono sostanzialmente due tipi (Moates e Schumacher, 1983): 1) quella usata nel paradigma di ricezione, in cui lo sperimentatore presenta al soggetto un item alla volta, chiedendogli di giudicare se si tratta o no di un esempio corretto del concetto e, dopo che il soggetto ha fornito la risposta, lo informa se essa è stata corretta oppure no; 2) quella usata nel paradigma di selezione, in cui viene presentato simultaneamente al soggetto l'insieme di tutti gli item, di cui uno solo, generalmente, costituisce l'esempio corretto del concetto; il soggetto può scegliere qualunque item e chiedere se esso è o no un esempio corretto del concetto; il processo continua finché il soggetto non è in grado di enunciare chiaramente le caratteristiche che definiscono il concetto. Per quanto riguarda i modi con cui il concetto è definito, si può distinguere tra esperimenti di filtraggio, in cui il concetto è definito da una sola caratteristica, tra quelle possibili, ed il compito del soggetto è quello di individuare quelle irrilevanti, ed esperimenti di condensazione, in cui un concetto è definito da più caratteristiche. Uno dei problemi più importanti affrontati dalle teorie classiche è quello dell'individuazione delle regole che vengono più spesso usate nel selezionare le proprietà che definiscono i concetti. Diversamente da quanto accade nelle ricerche sulla memoria semantica, in questo ambito non è possibile "fotografare" la struttura, costituita da queste regole, che, già esistente nella nostra mente, consente la memorizzazione e l'utilizzo dei concetti. Tutte le informazioni relative ai ruoli giocati dalle diverse regole possono essere ottenute solo tramite uno studio diretto dei processi di apprendimento di nuovi concetti, eseguito servendosi dei paradigmi sperimentali precedentemente citati. A questo proposito sono state condotte ricerche prevalentemente sull'impiego di alcuni tipi particolari di regole: affermativa, congiuntiva, disgiuntiva, condizionale e bicondizionale. Una regola affermativa corrisponde al caso in cui un concetto è definito da una sola proprietà, mentre tutte le altre sono irrilevanti: ad esempio, in un insieme di figure geometriche piane di tipo poligonale, il concetto di "pentagono" ha come esemplari tutte le figure che hanno cinque lati, indipendentemente da ogni altra caratteristica. Una regola congiuntiva, invece, implica la presenza contemporanea di due proprietà: il concetto "triangolo rosso" ha come esemplari tutte le figure che hanno simultaneamente la proprietà di avere tre lati e quella di essere rosse. In maniera complementare agisce la regola disgiuntiva, che implica la presenza dell'una o dell'altra proprietà, senza escludere la possibilità che valgano tutte e due contemporaneamente: il concetto "quadrato oppure verde" ha come esemplari tutte le figure che sono quadrati, tutte quelle che sono verdi, senza escludere quelle che sono contemporaneamente quadrati e verdi. Più complessa è la regola condizionale: il concetto "se pentagono allora verde" ha come esemplari tutti i pentagoni verdi, tutte le figure verdi che non sono pentagoni e tutte le figure che non sono né pentagoni né verdi. In modo analogo si definisce la regola bicondizionale: il concetto "triangolo se e solo se blu" ha come esemplari tutti i triangoli blu e tutte le figure che non sono né triangoli né blu. Una serie di interessanti esperimenti, tra cui vanno citati quelli di Hunt e Hovland del 1960, quelli di Neisser e Weene del 1962, quelli di Bourne e dei suoi collaboratori, condotti a partire dal 1965, ha mostrato che, nei compiti di apprendimento, queste regole vengono apprese con difficoltà crescente, nel senso che i concetti più facili da apprendere sono quelli basati sulla regola affermativa; seguono poi, in ordine, quella congiuntiva, quella disgiuntiva, quella condizionale e quella bicondizionale (Hunt e Hovland, 1960; Neisser e Weene, 1962; Haygood e Bourne, 1965; Bourne, 1966; cfr. anche Bourne, Dominovsky e Loftus, 1979). Inoltre vari esperimenti di Bourne, condotti a partire dal 1970, hanno mostrato come la difficoltà di apprendimento di queste regole decresca con la pratica, cioè con l'aumento del numero di volte in cui la regola viene utilizzata dallo stesso soggetto (cfr. Bourne, 1970). Una delle cause di questa differenza iniziale nella difficoltà di uso delle regole può risiedere nella diversa complessità dei processi cognitivi adoperati per utilizzarle. In un esperimento del 1971 abbastanza noto Trabasso, Rollins e Shaughnessy hanno utilizzato tre regole: quella congiuntiva, quella disgiuntiva e quella della disgiunzione esclusiva (Trabasso, Rollins e Shaughnessy, 1971). Quest'ultima corrisponde alla congiunzione "oppure" in senso esclusivo, cioè all'"aut...aut...": il concetto "o triangoli o rossi" ha come esemplari tutte le figure che sono triangoli ma non sono rosse e tutte le figure che sono rosse ma non sono triangoli. La differenza di complessità nelle operazioni mentali necessarie per adoperare le diverse regole può essere evidenziata ricorrendo ad un compito di verifica, nel quale i soggetti conoscono in anticipo sia le proprietà che definiscono il concetto che la regola che le connette e devono soltanto decidere se un dato pattern è o no un esemplare del concetto. Il tempo di reazione del soggetto in questo processo di decisione può essere ipotizzato come direttamente proporzionale alla difficoltà di implementazione della regola cosicché, se le regole che richiedono più operazioni mentali corrispondono a maggiori tempi di reazione, resta provato che la difficoltà di utilizzo dipende dal numero di operazioni richieste. A questo proposito si può osservare che le regole di congiunzione e di disgiunzione richiedono, al massimo, due tipi di verifica ma che, in alcuni casi, ne può bastare solo una. Supponiamo, infatti, di avere il concetto "triangolo e rosso" (congiunzione). Se la figura che si presenta è un triangolo (prima verifica), dobbiamo passare ad una seconda verifica per vedere se è rossa, ma, se non è un triangolo, automaticamente sappiamo, con una sola verifica, che non è un esemplare della categoria. Una circostanza analoga vale per la disgiunzione: se il concetto da verificare è "quadrato oppure verde", quando si presenta un quadrato basta solo la prima verifica per decidere che si tratta di un esemplare del concetto, mentre una seconda verifica si rende necessaria solo se ci troviamo di fronte ad una figura che non è un quadrato. Diversamente vanno le cose, invece, per la disgiunzione esclusiva, che richiede sempre due verifiche successive: se il concetto è "o triangolo o rosso", occorre sempre una prima verifica per controllare se la figura è un triangolo o no ed una seconda verifica per controllare se è rossa. Nell'esperimento di Trabasso, Rollins e Shaughnessy le due proprietà erano rappresentate in due parti distinte della stessa diapositiva, che conteneva un triangolo a sinistra ed un cerchio a destra. La proprietà associata al triangolo era la grandezza (triangolo grande o piccolo), mentre quella associata al cerchio era il colore (arancione o verde). Il soggetto veniva informato preventivamente delle proprietà e della regola che definivano il concetto (come, ad esempio, "piccolo e arancione") e poi, in corrispondenza ad ogni diapositiva, doveva decidere con la maggior rapidità possibile se si trattava di un esemplare o no del concetto proposto. I risultati mostrarono che il tempo medio di reazione dei soggetti era pressoché identico nel caso della congiunzione e della disgiunzione, mentre era significativamente maggiore nel caso della disgiunzione esclusiva. In base ai ragionamenti fatti in precedenza questo conferma che la maggiore difficoltà nell'uso di una regola è connessa al numero medio di operazioni mentali che essa implica. Un'altra questione assai importante, legata a questo tipo di esperimenti sull'apprendimento dei concetti, è il modo con cui i soggetti giungono effettivamente ad impadronirsi del concetto che si vuol far loro apprendere. A questo proposito molti autori ipotizzano che i soggetti si servano di un processo che comporta la formulazione di ipotesi e la loro successiva verifica. Va ricordato che, a tale riguardo, nel 1966 Levine ha escogitato una tecnica che, in situazioni sperimentali come quelle precedentemente descritte, consente di determinare senza ambiguità se i soggetti usano delle ipotesi e quali (Levine, 1966). Il metodo di Levine prevede innanzitutto la presentazione al soggetto di un pattern, seguito dalla classificazione da lui effettuata (egli deve dire se il pattern è o no un esemplare del concetto che deve apprendere) e dalla successiva risposta di feedback fornita dallo sperimentatore, nella quale egli informa il soggetto se la sua classificazione è stata giusta o sbagliata. Dopo questa prima prova con feedback seguono altre presentazioni senza feedback, in cui il compito del soggetto è quello di classificare ciascuno dei pattern utilizzando l'ipotesi, giusta o sbagliata che sia, da lui fatta in corrispondenza alla prova con feedback. I pattern presentati senza feedback sono predisposti, come numero e proprietà possedute, in modo tale che dalle classificazioni fornite dal soggetto nei loro confronti sia possibile ricavare senza ambiguità quale era l'ipotesi da lui fatta. Al termine di questa serie senza feedback si ha una nuova presentazione con feedback, seguita da un'altra serie senza feedback e così via. In questa maniera si può controllare direttamente in che modo si evolvono le ipotesi formulate dal soggetto man mano che aumenta il numero delle presentazioni. Usando questa tecnica Levine ha messo in evidenza come i soggetti usino il metodo di verifica delle ipotesi in modo sistematico, con una strategia che, il più delle volte, consiste nel mantenere l'ipotesi che ha ricevuto un feedback positivo e nel cambiare quella che ha ricevuto un feedback negativo. In altri termini, se in una prima prova con feedback quest'ultimo è stato positivo, nella seconda prova con feedback il soggetto tenderà ad usare la stessa ipotesi usata nella prima prova. Se invece il feedback nella prima prova è stato negativo, nella seconda verrà generalmente usata un'ipotesi diversa da quella usata nella prima. Questo, naturalmente, solleva il problema del modo con cui un soggetto passa da un'ipotesi all'altra. A tale proposito fin dal 1956 Bruner, Goodnow e Austin hanno messo in luce come i soggetti impieghino ben precise strategie, una delle quali è la cosidetta "messa a fuoco conservativa", nella quale essi impiegano il primo esemplare associato ad un feedback positivo come elemento focale e cambiano successivamente una alla volta le proprietà che lo caratterizzano (vedi la traduzione italiana: Bruner, Goodnow e Austin, 1969). Questa strategia viene adoperata, come è evidente, solo nel caso di regole affermative o congiuntive. Un'altra strategia utilizzata è quella basata sull'azzardo, nella quale vengono prese in considerazione simultaneamente più proprietà. Essa, nei casi fortunati, può condurre ad una rapida eliminazione dalle ipotesi delle proprietà irrilevanti. In altri casi si osserva la cosiddetta strategia dell'"esame successivo" (successive scanning), nella quale si verifica la rilevanza di singole proprietà, esaminate una per volta. I risultati ottenuti in queste ricerche hanno senso solo nell'ambito di una teoria classica dei concetti, che riesce a descrivere unicamente esperimenti di laboratorio in cui si manipolano concetti semplici come quelli mostrati negli esempi precedenti. Ben diversamente vanno le cose se ci riferiamo ad altri tipi di concetti, come quelli che utilizziamo normalmente e di cui si occupano le ricerche ripetere immediatamente un messaggio che veniva loro presentato man mano che lo udivano, con la cosiddetta tecnica dello "shadowing". Nel messaggio erano deliberatamente inserite parole scorrette, che i soggetti tendevano apronunciare "ricostruite" in forma corretta. I risultati hanno mostrato che queste "ricostruzioni" avvenivano, nella stragrande maggioranza, esclusivamente in presenza del contesto semantico appropriato. Ciò indica che, contrariamente a quanto postulato dal modello di Forster, l'elaborazione semantica avverrebbe contemporaneamente a quella sintattica fin dall'inizio della presentazione delle singole parole. L'apparente contraddizione esistente tra i risultati di questi esperimenti e quelli di Forster si può spiegare ammettendo che le varie modalità di elaborazione della frase non siano rigide, ma variabili a seconda del tipo di compito e della strutturazione del contenuto della memoria a lungo termine del soggetto. Questo rimanda al ruolo giocato nella comprensione del linguaggio dagli schemi gerarchici di organizzazione delle informazioni che utilizziamo quando interagiamo con il mondo esterno. Ciò viene particolarmente enfatizzato nel modello costruito nel 1978 da Kintsch e van Dijk per descrivere il processo di comprensione e memorizzazione di un testo. Tale questione è strettamente connessa a quella relativa al fatto se la struttura concettuale degli esseri umani sia universale e innata o se sia mutevole e derivata dall'esperienza, in particolare quella linguistica. Come abbiamo già detto, Chomsky ha presentato argomentazioni a favore della prima tesi. Sostenitori della seconda sono stati, invece, i linguisti Whorf e Sapir. Indipendentemente dalle ragioni del primo o del secondo approccio, l'atteggiamento più conveniente è quello di considerare memoria e linguaggio alla stregua di sottosistemi reciprocamente interagenti di un unico sistema che entrambi li comprende ,di cui enfatizziamo di volta in volta i singoli aspetti a seconda del paradigma sperimentale adoperato. 31-LE TEORIE SULLA SOLUZIONE DEI PROBLEMI Uno dei processi fondamentali che interviene nell'utilizzo della conoscenza e nella produzione di nuova conoscenza è il ragionamento. A partire dai pensatori dell'antica Grecia la nostra cultura occidentale lo considera addirittura come il processo al quale attribuire la maggiore importanza in tali attività. Tradizionalmente si distinguono tre forme di ragionamento: la deduzione, l' induzione e l'abduzione. La deduzione consiste nel ricavare conclusioni partendo da premesse date, l'induzione nel verificare le ipotesi in base ai dati ottenuti (grazie ad osservazioni suggerite dall'ipotesi stessa) e l'abduzione nel generare l'ipotesi migliore compatibile con i dati esistenti. Un altro sistema potente per produrre conoscenze di fronte a situazioni nuove è il ricorso all'analogia. Le analogie non garantiscono conclusioni certe, eppure sono uno degli strumenti del pensiero che utilizziamo di più, e spesso conducono a soluzioni creative ai problemi. Il ragionamento analogico implica l'utilizzo di una conoscenza specifica di un certo dominio come “sorgente” e la trasferiamo a un dominio diverso. Nel corso dei secoli il processo di deduzione è stato formalizzato in modo rigoroso tramite la Logica, che, a partire dalla metà dell'Ottocento, si è trasformata, grazie all'opera di studiosi come Boole e De Morgan, in Logica Matematica. Questa disciplina ha avuto notevoli sviluppi, tanto da diventare un importante settore della scienza, che pretende persino di fornire un fondamento a tutta la Matematica. Nel contempo essa ha provocato una scissione tra lo studio degli aspetti meccanico-formali e quello degli aspetti reali dei processi di deduzione, lasciando quest'ultimo agli psicologi. Questa rigida suddivisione è stata una delle cause che ha favorito il formarsi di barriere artificiali tra Matematica e Psicologia, che solo gli sviluppi recenti del Cognitivismo contribuiscono lentamente a superare Ma in che modo la conoscenza viene impiegata per conseguire dei fini particolari, ovvero per risolvere dei problemi. Su questo argomento sono state condotte numerose ricerche, fin dai primordi della storia della Psicologia. Di solito si suddividono le teorie formulate in merito in due categorie: quella delle teorie cognitive e quella delle teorie stimolo-risposta. Le prime attribuiscono un ruolo fondamentale, nel processo di soluzione di un problema, alle strutture cognitive del soggetto, ovvero al modo con cui egli si rappresenta il problema, mentre le seconde focalizzano la loro attenzione esclusivamente sui comportamenti che conducono alla soluzione e sul modo con cui essi sono influenzati dagli stimoli ricevuti. La teoria cognitiva per eccellenza è costituita dalla Psicologia della Gestalt e i concetti che essa ha formulato derivano inizialmente dalle osservazioni effettuate, durante il corso della Prima Guerra Mondiale, dal gestaltista W. Kòhler sul comportamento delle scimmie antropoidi (quasi esclusivamente scimpanzè) nell'isola di Tenerife, nelle Canarie. Come è noto, fin dal 1913 Kòhler dirigeva su quell'isola una stazione di ricerca sulle scimmie antropoidi dell'Accademia Prussiana delle Scienze. Allo scoppio della Prima Guerra Mondiale, sospettato di essere una spia tedesca, fu costretto a rimanere a Tenerife, da cui tornò in Germania solo nel 1920. Durante tutto quel periodo ebbe modo di compiere una lunga serie di studi sulle scimmie antropoidi, successivamente raccolti in un libro, tradotto in inglese nel 1924, che rese il suo autore immediatamente famoso in tutto il mondo (vedi la traduzione italiana: Kòhler, 1971). Il concetto fondamentale introdotto da Kòhler è quello di "Insight" (in tedesco "Einsicht"), che indica un processo di rapido conseguimento della soluzione, consistente nella percezione delle corrette relazioni tra gli elementi del problema. Secondo Kòhler un problema è una "Gestalt", cioè una "Forma", né più né meno che come le Forme che osserviamo nel campo visivo. Esso consiste di un certo numero di elementi, connessi tra di loro da certe relazioni. Il problema consiste nel fatto che questa struttura inizialmente non costituisce una Forma "buona", ma una Forma "disturbante", in cui certe relazioni sono incongruenti. La soluzione si ottiene solo quando si riesce a percepire una Forma "buona", che si fonda su nuove relazioni tra gli elementi del problema. Questa rapida ristrutturazione, che spesso consiste in un vero e proprio processo percettivo (una nuova "visione" della situazione) è l' "Insight" e la nuova Forma è la soluzione stessa del problema. Il punto di vista di Kòhler rappresentava, all'epoca, una grossa novità, in quanto si opponeva decisamente a quanto sostenevano le teorie stimolo-risposta, che vedevano il processo di soluzione di un problema come basato su una successione di prove ed errori, in cui il ruolo fondamentale era giocato dall'esperienza passata. Alla formazione graduale delle corrette associazioni tra situazione-stimolo e comportamenti di soluzione, in seguito ai successivi rinforzi ottenuti (come inizialmente sostenuto da Thorndike), Kòhler opponeva le sue osservazioni di scimmie che, dopo aver condotto per lungo tempo esperienze con gli elementi della situazione problemica senza ottenere alcun progresso verso la soluzione, improvvisamente "comprendevano" la corretta relazione tra questi elementi e, di colpo, risolvevano il problema senza alcuno sforzo. Egli evidenziava, insomma, l'esistenza in queste ristrutturazioni di qualcosa che era di più e diverso dalla somma degli elementi che costituivano il problema. Nonostante la giustezza delle osservazioni di Kòhler, va tenuta presente anche quella delle osservazioni effettuate da Thorndike e, dopo di lui, dagli psicologi comportamentisti. Il fatto è che le situazioni in cui erano state condotte le varie osservazioni erano profondamente diverse. Infatti i comportamentisti avevano preso in considerazione casi in cui il soggetto aveva di fronte una situazione poco strutturata, generalmente per lui incomprensibile, nella quale disponeva di pochissime informazioni, mentre le scimmie di Kòhler si trovavano in una situazione ben strutturata, composta di elementi familiari e ben padroneggiabili. In quel periodo storico, comunque, i due approcci, quello basato sull'"Insight" di Kòhler, e quello basato sui procedimenti per prove ed errori dei sostenitori delle teorie stimolo-risposta, vennero visti come antitetici e i fautori di ognuna delle due tesi spesero molto tempo e molte energie per confutare le argomentazioni dell'altra. Nell'ambito delle teorie cognitive va ricordata, dopo quella di Kòhler, l'opera di Wertheimer, in parte pubblicata postuma nel 1945. A partire dai primi studi sul ragionamento sillogistico, risalenti al 1920, egli riprese il concetto di "ristrutturazione" della situazione problemica, introducendo la distinzione tra "pensiero produttivo", nel quale tale ristrutturazione ha luogo (ad esempio sotto forma di "Insight"), e "pensiero riproduttivo", che non fa altro che perpetuare, riprodurre la vecchia struttura della situazione problemica. Wertheimer ebbe il merito di applicare la teoria, che originariamente Kòhler aveva proposto solo per le scimmie antropoidi, a tutti i processi di pensiero umani, non solo a quelli connessi alla soluzione dei problemi ma anche a quelli che entrano in gioco nella creazione di nuove teorie scientifiche. Molto interessanti e significativi sono gli esempi che egli ha portato a sostegno delle sue tesi, dalla soluzione di semplici problemi di geometria fino ad interviste dirette con Einstein, volte ad esplicitare i processi di pensiero che avevano portato il celebre fisico alla formulazione della Teoria della Relatività (cfr. la traduzione italiana: Wertheimer, 1965). Uno dei grossi problemi lasciati insoluti dalle teorie cognitive è quello del motivo per cui i processi di ristrutturazione molte volte non si verificano, nonostante la presupposta tendenza spontanea verso una "buona Forma". Una possibile soluzione è stata proposta da K. Duncker che, basandosi sui risultati di una serie di studi condotti negli anni Trenta, si era reso conto che il concetto di "Insight", così come formulato da Kòhler e Wertheimer, era assolutamente inadatto a descrivere i processi di soluzione di problemi complessi. Secondo Duncker (vedi la traduzione italiana: Duncker, 1969) tali problemi vanno visti come una sequenza di fasi, ciascuna delle quali rappresenta un passo in avanti nei confronti della soluzione. Il superamento di ogni fase equivale alla soluzione di un particolare sotto-problema, resa possibile dal verificarsi di "Insight parziali", che non rappresentano ristrutturazioni dell'intera situazione problemica, ma solo di un suo particolare aspetto. Inoltre Duncker, sulla scorta anche di osservazioni compiute in quegli stessi anni da Maier e Luchins, individua nella "fissità funzionale" la causa che impedisce il verificarsi delle ristrutturazioni necessarie per giungere a percepire la "buona Forma" della situazione problemica. La fissità funzionale nasce dall'irrigidimento delle strutture cognitive del soggetto che, grazie ad esperienze precedenti, non sono capaci di attribuire ad un elemento della situazione problemica un nuovo ruolo funzionale che permetterebbe la ristrutturazione. Così, ad esempio, come evidenziato da un esperimento di Maier, quando abbiamo nella situazione problemica un martello, riusciamo a vederlo solo come strumento utile per piantare chiodi e resta molto difficile attribuirgli altri ruoli, come quello di fungere da massa da appendere ad una corda per realizzare un pendolo in grado di oscillare con sufficiente regolarità. Le teorie proposte dagli psicologi Gestaltisti, pur fornendo notevoli spunti di ricerca e di riflessione, non si possono però considerare come veri e propri modelli dei processi di pensiero che consentono di giungere alla soluzione dei problemi. Questa critica, d'altra parte, si applica anche alle teorie stimolo-risposta che, anche nella loro più complessa formulazione, dovuta ad Hull nel 1940, non riuscivano ad andare al di là della specificazione delle caratteristiche generali che avrebbe dovuto possedere una eventuale teoria delle possibili associazioni tra stimoli ricevuti e comportamenti di soluzione. Di fatto, tale teoria non venne mai costruita e non poteva esserlo, dato che non teneva in alcun conto i processi cognitivi del soggetto. La situazione migliorò solo dopo la nascita dell'Intelligenza Artificiale. Questa disciplina, di per sé, ha adottato, fin dalla sua nascita, una impostazione di stampo associazionistico. Tuttavia, grazie al fatto che essa è costretta a prendere in considerazione solo situazioni i cui elementi siano definiti senza ambiguità e grazie al fatto che essa è in grado di utilizzare una rappresentazione "interna" della conoscenza posseduta dal soggetto (sotto forma di dati e di regole), le associazioni di cui essa si occupa hanno un significato profondamente diverso da quelle ammissibili nel vecchio paradigma stimolo-risposta. Nell'Intelligenza Artificiale si ha a che fare con associazioni tra stimoli, strutture "cognitive" e risposte, che sembrano costituire un quadro adatto per rappresentare i processi di ristrutturazione ipotizzati dai gestaltisti. In questa disciplina la situazione del problema viene descritta ricorrendo ai cosiddetti "stati problemici", che descrivono, ad ogni momento del processo di soluzione, gli elementi noti del problema e le loro relazioni. La formulazione iniziale del problema corrisponde ad uno stato problemico iniziale, mentre la sua soluzione corrisponde allo stato problemico desiderato, ovvero allo stato-meta (goal). Il processo stesso di soluzione può così essere visto alla stregua di un cammino che porta dallo stato problemico iniziale allo stato-meta, lungo un percorso che si snoda nello spazio problemico, ovvero nell'insieme di tutti gli stati problemici possibili. Uno dei compiti dell'Intelligenza Artificiale è quello di costruire programmi per computer in grado di evidenziare cammini ottimali tra stato iniziale e stato-meta, usufruendo di opportune informazioni, codificate sia sotto forma di dati che, soprattutto, sotto forma di regole per l'elaborazione della conoscenza. Le ricerche condotte in proposito, iniziate nel 1957 con i lavori di Newell, Shaw e Simon, hanno il merito di aver messo in luce come tra queste regole assumano una particolare importanza le regole euristiche, ossia quelle regole che, non derivanti da rigide conseguenze logiche di ipotesi generali, sono fondate sull'esperienza acquisita nel risolvere apposite classi di problemi e consentono di stabilire le modalità con cui è più conveniente elaborare l'informazione posseduta. Si può dire che gran parte degli studi e delle simulazioni condotte nell'ambito dell'Intelligenza Artificiale siano state rivolte a determinare il ruolo e l'efficacia delle varie regole euristiche nel risolvere i problemi. Tra le realizzazioni più interessanti in questo ambito va citato il General Problem Solver (GPS), sempre di Newell, Shaw e Simon, un programma costruito con l'ambizione di fornire uno strumento in grado di risolvere qualunque tipo di problema, indipendentemente dal suo contesto. L'ipotesi sottostante era che esistessero regole euristiche di portata generale, in grado di orientare in modo efficace qualunque processo di pensiero, in modo indipendente dal dominio cui venivano applicate. Gli sviluppi successivi dell'Intelligenza Artificiale hanno notevolmente ridimensionato questa pretesa mostrando come, quando si vogliono realizzare dei programmi solutori di problemi in ambiti sufficientemente complessi (come sono, ad esempio, i Sistemi Esperti o i programmi in grado di giocare a scacchi), si renda necessario l'uso di regole, a volte complicate, specifiche del dominio in cui il programma stesso deve operare (vedi, per una rassegna, Newell e Simon, 1972; Rich, 1986; Dorner, 1988; Pessa 1992). A partire dagli anni Ottanta nuova luce su questi argomenti è stata gettata dall'impostazione connessionista. Nel 1988 Gallant ha mostrato come un Perceptrone multistrato possa essere addestrato, con una regola di apprendimento del tipo "Error back-propagation", in modo da fornire prestazioni identiche a quelle di un sistema esperto (Gallant, 1988). Nello stesso anno Touretzky e Hinton (1988) hanno presentato il primo esempio concreto di rete neurale in grado di simulare il comportamento di un sistema di produzione di simboli, come quelli normalmente adoperati dai teorici dell'Intelligenza Artificiale tradizionale per progettare programmi per computer in grado di risolvere problemi. In questo momento sono in corso numerose ricerche, sia teoriche che sperimentali, sia nell'ambito dei programmi per computer che in quello dei soggetti umani, per individuare il ruolo dei "suggerimenti" nei processi di soluzione dei problemi. Questo aspetto, già ampiamente studiato a suo tempo da Dunckers, Maier e Luchins, è tornato al centro dell'interesse quando si è intravista la possibilità di migliorare le prestazioni dei modelli connessionistici, ovvero delle reti neurali artificiali, sottoponendoli ad opportuni "suggerimenti" derivanti dalle conoscenze di natura simbolica sul dominio cui appartengono i problemi che si intendono risolvere. Si stanno così compiendo dei passi in avanti verso l'integrazione dei due modi, apparentemente antitetici, di elaborazione della conoscenza e verso una visione unitaria più approfondita dei processi di soluzione, visti come aspetti dei più generali processi di pensiero (cfr. Estes, 1988; Piramuthu e Ravagan, 1992). 32-LA TEORIA DEI PROTOTIPI NELL'AMBITO DEI PROCESSI DI RICONOSCIMENTO PERCETTIVO Con il termine Psicologia della Percezione si indica una serie di processi che intervengono sui pattern di stimolazione e producono come risultato qualche forma di cambiamento dello stato "interno" del sistema percipiente. A questo proposito esistono varie teorie, talvolta contrastanti, che hanno dato origine a numerosi esperimenti. Tale schema è basato su due differenti caratteristiche delle teorie: il ruolo che esse attribuiscono alle caratteristiche dello stimolo e quello che esse attribuiscono alla scomponibilità dei processi percettivi in stadi separati. Per quello che riguarda le caratteristiche dello stimolo distingueremo, secondo una terminologia introdotta da Rock (1983), tra teorie basate sullo stimolo e teorie costruttiviste. Le prime postulano che la sola specificazione degli attributi dello stimolo sia sufficiente a specificare le caratteristiche di ciò che viene percepito, ovvero del risultato del processo di percezione. Le seconde, invece, postulano l'esistenza di processi attivi di costruzione "interna" da parte dell'organismo, che intervengono direttamente sulle caratteristiche dei pattern di stimolazione. Relativamente al ruolo attribuito alla scomponibilità, preferiamo distinguere tra teorie a stadi, nelle quali i processi percettivi sono composti di stadi separati, ognuno caratterizzato in modo indipendente, e teorie olistiche, nelle quali questa scomponibilità è negata in linea di principio. A loro volta le teorie basate sullo stimolo verranno suddivise in teorie basate sulle caratteristiche elementari e teorie basate su caratteristiche complesse. Le prime suppongono che le caratteristiche di ciò che si percepisce dipendano unicamente da caratteristiche costitutive elementari, atomistiche, dello stimolo, come il numero e la disposizione delle parti elementari che lo compongono (si pensi ai singoli pixels che formano un'immagine televisiva). Le seconde fanno dipendere le caratteristiche del percetto da combinazioni complesse di caratteristiche elementari, quali ad esempio quelle che contraddistinguono la probabilità che opportuni gruppi di pixels situati in posizioni differenti facciano parte di un particolare pattern visivo. Invece le teorie costruttive possono essere ripartite in teorie che postulano una integrazione spontanea e teorie cognitive. Le prime suppongono che i processi di costruzione "interna" siano basati esclusivamente sulla interazione spontanea tra le rappresentazioni primitive degli stimoli, mentre le seconde fanno intervenire processi di inferenza a carattere più spiccatamente cognitivo, dipendenti dal sistema di conoscenze posseduto dal soggetto. Pag.199 intro+209 33-DISCUTERE GLI ARGOMENTI A FAVORE DELL'ESISTENZA DELLA MBT 34-PARADIGMA PERCEZIONE VISIVA NEGLI STUDI ATTENTIVI Con il termine Psicologia della Percezione si indica una serie di processi che intervengono sui pattern di stimolazione e producono come risultato qualche forma di cambiamento dello stato "interno" del sistema percipiente. A questo proposito esistono varie teorie, talvolta contrastanti, che hanno dato origine a numerosi esperimenti. Tali modelli non sono in grado di spiegare i dati sperimentali relativi alla percezione se non si tiene conto del ruolo giocato dai processi attentivi (Bagnara, 1984). Le prime teorie relative a questi processi sono state formulate nell'ambito dell'indirizzo di pensiero che vede l'uomo alla stregua di un elaboratore di informazione. Inizialmente le modalità di questa elaborazione sono state descritte ricorrendo alla cosiddetta teoria del canale unico a capacità limitata, proposta in modo organico da Welford nel 1959. Essa sostiene che, per ogni soggetto, l'informazione in ingresso può entrare in un solo canale di comunicazione con una capacità limitata di far passare una data quantità di informazione in un dato tempo (Welford, 1959). Questa teoria era basata sui risultati di esperimenti che sembravano mostrare come i soggetti non riuscissero a svolgere due attività contemporaneamente. A partire dal 1957 Broadbent ha avanzato l'idea che il flusso delle informazioni in entrata sia regolato da un "filtro", identificabile con i processi attentivi, che è in grado di selezionare l'informazione in arrivo, bloccando alcune informazioni e lasciandone passare altre (Broadbent, 1958). Le informazioni bloccate verrebbero depositate in un magazzino sensoriale prima di decadere completamente, mentre quelle trasmesse verrebbero inviate alla memoria a lungo termine. Secondo la teoria di Broadbent il filtro attentivo è localizzato ad un livello periferico e precede qualsiasi elaborazione degli stimoli. Inoltre esso opererebbe esclusivamente in base alle caratteristiche fisiche dello stimolo. La teoria del filtro di Broadbent è stata successivamente sostituita dalla cosiddetta "teoria del filtro attenuato", proposta dallo stesso Broadbent (1971) e da Anne Treisman (1969). In questa teoria il filtro unico viene sostituito da un sistema di analisi successive sugli stimoli in ingresso, nessuna delle quali, però, dà luogo al blocco delle informazioni per le quali il filtro stesso non è sintonizzato. Tutto ciò che ogni "filtro parziale" può fare è di enfatizzare il messaggio, se le caratteristiche di quest'ultimo corrispondono a quelle in corrispondenza alle quali il filtro „ emette una valutazione positiva, e di attenuarlo se ciò non si verifica. Tutti i messaggi, dunque, superano il filtro, ma vengono caricati di un'enfasi differente. A valle del filtro essi, poi, entrano in contatto con le rappresentazioni interne degli eventi e il riconoscimento del messaggio come corrispondente ad un particolare evento avviene solo se esso riesce ad attivare la rappresentazione interna corrispondente. Questa attivazione dipende sia dall'enfasi associata al messaggio che dalla soglia di attivazione della rappresentazione. Infatti le rappresentazioni vengono attivate solo se l'enfasi riesce a far superare la soglia. E evidente che messaggi attenuati attiveranno una rappresentazione solo se la sua soglia è piuttosto bassa, mentre messaggi molto enfatizzati attiveranno una rappresentazione anche se la sua soglia è elevata. In questa teoria il livello di soglia viene fatto dipendere dal tipo di risposta che viene richiesta al soggetto. È da notare che questa versione più complessa della teoria del filtro è stata proposta per spiegare i risultati di esperimenti sull'ascolto dicotico (in cui, cioè,vengono inviati contemporaneamente ad un soggetto due messaggi diversi, uno per ciascuno orecchio) in cui i soggetti dovevano ripetere (tecnica dello "shadowing") ciò che ascoltavano su un orecchio indicato dallo sperimentatore, man mano che il messaggio veniva trasmesso. Si era osservato, a questo proposito, che i soggetti prestavano attenzione anche al messaggio che giungeva sull'orecchio non indicato dallo sperimentatore, ma in modo diversificato a seconda del livello di somiglianza con il messaggio proveniente all'orecchio cui dovevano prestare attenzione. Più precisamente, se la differenza tra i due messaggi era esclusivamente di natura fisica, il secondo messaggio (quello proveniente all'orecchio non selezionato) veniva trascurato a favore del primo, mentre, se le caratteristiche fisiche erano identiche, l'interferenza tra i due processi attentivi (nell'uno e nell'altro orecchio) dipendeva dal contesto, dalle proprietà delle parole, dalle regole grammaticali e sintattiche, dal significato. A partire dal 1980 la teoria del filtro dei processi attentivi è stata sostituita, per quanto riguarda essenzialmente i processi di percezione visiva, dalla cosiddetta "Feature Integration Theory", proposta dalla Treisman e dai suoi collaboratori (cfr. Treisman e Gelade, 1980; Treisman, 1988). Secondo questa teoria l'input visivo viene elaborato in due stadi successivi. Nel primo una serie di processi che agiscono in parallelo e in modo preattentivo danno luogo alla produzione di mappe spaziali del campo visivo, ognuna contenente la codifica (e il posizionamento) di una particolare caratteristica elementare dello stimolo (una "feature"). Così ad esempio, una mappa può contenere l'indicazione di tutti i punti in cui vi è il colore rosso, un'altra di quelli in cui vi è una linea inclinata di 45° e via dicendo. A questo livello non vi è, però, alcuna informazione relativa alla presenza concomitante di due o più caratteristiche. In altri termini, non vi è alcun modo per codificare che esiste una linea rossa inclinata di 45°. Su queste mappe agisce il secondo stadio di elaborazione che, focalizzandosi su particolari regioni del campo visivo (qui entra in gioco l'attenzione), combina le informazioni delle singole mappe in modo da produrre la percezione di oggetti completi. Il processo di disamina attentiva delle varie regioni è di natura seriale e l'ampiezza della zona di campo visivo presa in considerazione viene a dipendere dai requisiti del processo di riconoscimento attuato. In particolare, se esso consiste nella ricerca di un oggetto le cui caratteristiche non differiscono molto da quelle degli oggetti circostanti, l'ampiezza della zona esplorata attentivamente ad ogni passo sarà piuttosto piccola, mentre, se queste caratteristiche sono abbastanza salienti, l'ampiezza in questione sarà maggiore. Il modello della Feature Integration Theory rende conto di un gran numero di dati sperimentali. E stato, però, oggetto di molte critiche. Ad esempio, alcuni esperimenti, come quelli condotti da Virzi ed Egeth nel 1984, hanno mostrato che, nella percezione di oggetti, si possono verificare non solo integrazioni di caratteristiche visive, ma anche di codifiche di natura semantica, ovvero concettuale (Virzi e Egeth, 1984). Altri esperimenti, come quelli condotti nel 1989 da Duncan e Humphreys, hanno evidenziato come i processi di analisi attentiva non siano sempre di natura seriale, ma talvolta avvengano in parallelo (Duncan e Humphreys, 1989). Inoltre, ciò che sembra essere importante ai fini del riconoscimento non è tanto l'esistenza di diversi tipi di caratteristiche degli stimoli, quanto le relazioni di somiglianza tra gli stimoli stessi. Nel 1990 Navon ha criticato la Feature Integration Theory sostenendo che il processo di integrazione basato sull'attenzione non è affatto necessario per spiegare i dati sperimentali ottenuti nei compiti di ricerca visiva di oggetti caratterizzati da una opportuna combinazione di attributi. Secondo Navon l'attenzione visiva servirebbe principalmente a verificare se un particolare stimolo possiede o no una data combinazione di questi attributi, senza alcuna necessità di processi integrativi e nemmeno di mappe spaziali come quelle postulate dalla Treisman (cfr. Navon, 1990). Numerose ricerche sono state dedicate anche alle basi fisiologiche dei processi attentivi. In particolare si è messo in evidenza come l'attivazione di una particolare formazione nervosa del cervello, il sistema reticolare, dia luogo alla comparsa nell'organismo di uno stato di allerta (o "arousal") che, a livello neuronale, interessa l'intera corteccia cerebrale. Nel 1963 Sokolov ha proposto una teoria neurofisiologica dei processi attentivi, secondo la quale gli stimoli esterni vengono inviati contemporaneamente sia alla corteccia che al sistema reticolare (Sokolov, 1963). Se i pattern di stimolazione corrispondono a modelli già immagazzinati in precedenza nella corteccia, quest'ultima invia un segnale inibitore che blocca il sistema reticolare e impedisce i processi attentivi. Se invece i pattern di stimolazione appaiono nuovi rispetto ai modelli preesistenti, non viene inviato alcun segnale inibitorio, il sistema reticolare si attiva e a sua volta attiva la corteccia stessa, dando luogo a processi attentivi e di analisi dell'ambiente esterno. Contemporaneamente nella corteccia si ha la formazione di un nuovo modello che costituisce la rappresentazione dello stimolo che ha provocato l'innesco dello stato di arousal. Nel 1973 Kahneman ha proposto di considerare la quantità di eccitazione che proviene alla corteccia dal sistema reticolare come una misura dell'intensità (o della capacità) dell'attenzione (Kahneman, 1973). Egli ha perciò suggerito che la capacità attentiva debba essere considerata limitata: infatti ogni processo attentivo richiede un certo sforzo. Teorie come quelle di Sokolov e di Kahneman mettono in luce l'importanza dei processi cognitivi che si verificano nella corteccia al fine di determinare l'evoluzione dei processi attentivi. Sembra dunque plausibile che questi ultimi debbano essere inquadrati nell'ambito di un modello più complesso della Feature Integration Theory, che tenga conto anche di codifiche di tipo strutturale e globale dei pattern di stimolazione. 39-L'AI E PRINCIPALI REALIZZAZIONI Ciò che accomuna tutti i processi, che la Psicologia segmenta e studia in modo specifico, è il fatto che in essi viene utilizzata una entità, che fin dall'antichità si è preferito chiamare "conoscenza". Essa, in un certo senso, è la merce di scambio, o la moneta, che viene impiegata in tutte le interazioni tra gli esseri umani (e non solo umani) ed il resto del mondo. E grazie all'acquisizione di conoscenza che cambia il nostro stato "interno". E grazie alla conoscenza posseduta che noi possiamo agire per modificare lo stato "esterno" del mondo. Tutti i processi che interessano la nostra vita, dai più semplici ai più complessi, possono essere descritti in termini di scambi o trasformazioni di conoscenza. Da ciò che abbiamo detto traspare l'importanza che lo studio della conoscenza assume per la Psicologia, in particolare per quel ramo costituito dalla Psicologia dei Processi Cognitivi, il cui scopo principale è lo studio dei processi di percezione, attenzione, memorizzazione, apprendimento, pensiero. Oggi quest'ultima disciplina si configura in modo autonomo, con un proprio oggetto, ovvero i processi sopra elencati, un proprio metodo, basato sull'impiego di modelli dei fenomeni studiati e sull'esecuzione di precisi esperimenti di laboratorio, e un consistente campo di applicazioni, che vanno dalla valutazione della performance di interfacce uomo-macchina alla progettazione di attività educative. Si tratta di un ambito di studi che diventa sempre più complesso, sia per l'interazione di diverse discipline, dalla Psicologia alla Neurofisiologia, dall'Intelligenza Artificiale alla Matematica, dalla Filosofia alla Fisica, che per la crescente mole di lavoro sperimentale nei domini più disparati. Per orientarsi in questo ambito occorre disporre di una rappresentazione schematica delle varie problematiche relative alla conoscenza. Da un punto di vista generale esse si possono sintetizzare tramite alcune domande fondamentali, ovvero: 1) cos'è la conoscenza? 2) come si misura la conoscenza? 3) quali trasformazioni può subire? 4)come avvengono l'acquisizione, la cessione e l'utilizzo della conoscenza? Le risposte fornite a queste domande caratterizzano i differenti modelli generali proposti nell'ambito della Psicologia dei Processi Cognitivi, i quali, a loro volta, hanno ispirato modelli specifici dei processi particolari in cui intervengono scambi o trasformazioni di conoscenza. Negli anni intorno alla seconda guerra mondiale si assiste ad una serie di sviluppi scientifici che consentono di poter disporre di nuovi strumenti, utili per poter costruire una Psicologia che superi la crisi del comportamentismo. Intendiamo riferirci, in particolare, alla nascita della Cibernetica e della Teoria dell'Informazione. La prima nasce nel 1944 ad opera di Nobert Wiener e viene diffusa dal libro "Cybernetics" dello stesso Wiener, pubblicato nel 1947 (vedi la traduzione italiana ampliata: Wiener, 1968). La seconda viene fondata da Claude Shannon e Warren Weaver nel 1949 (cfr. Shannon e Weaver, 1949; vedi anche la traduzione italiana del loro libro nel 1971). La comparsa di queste nuove discipline è concomitante allo sviluppo del calcolatore elettronico digitale, inventato e realizzato nel 1944 da Johannes Von Neumann. Per quanto riguarda la Cibernetica, essa si presenta inizialmente come una teoria generale dei processi di retroazione, o di feedback, ovvero di quei processi in cui lo stato dell'uscita del sistema viene riportato in ingresso al sistema stesso per controllarne la performance. Un esempio tipico è un termostato in cui la differenza tra la temperatura effettivamente raggiunta grazie all'azione del dispositivo e la temperatura desiderata viene utilizzata come ingresso al termostato stesso per determinare le sue modalità di intervento. Un caso analogo è quello di un sistema di guida automatico di un missile, che agisce sui motori in base alla differenza tra la direzione effettiva di volo e quella voluta. La Cibernetica studia processi come questi in un contesto molto generale, che include sia sistemi artificiali, come quelli citati, che sistemi naturali, come gli animali e l'uomo. Essa mette in evidenza come lungo un anello di feedback circoli non solo energia fisica, ma anche qualcosa di meno tangibile, i cui effetti, però, sono lo stesso osservabili, che può essere chiamato "controllo" (cfr. Pessa, 1974). L'introduzione di rappresentazioni di eventi fisici, basate sull'impiego di grandezze non direttamente osservabili e attribuibili unicamente allo stato "interno" dei sistemi coinvolti in questi eventi, viene effettuata in modo ancora più sistematico dalla Teoria dell'Informazione. Essa prende in esame la situazione standard in cui si verifica un processo di comunicazione, dove intervengono un emettitore di segnali, un canale di comunicazione e un ricevitore. Il processo di emissione è un processo fisico, in cui viene liberata dell'energia, così come sono processi fisici la trasmissione del segnale lungo il canale, in cui si ha il passaggio dell'energia, e la sua ricezione, in cui l'energia viene assorbita. Eppure, secondo la Teoria dell'Informazione, questa descrizione fisica non è sufficiente per descrivere ciò che effettivamente accade in un processo di comunicazione. È necessario introdurre un qualcosa, che si può denominare l '"aspettativa" del ricevitore relativamente ai possibili segnali che gli possono arrivare. Questa aspettativa viene rappresentata in modo formalizzato tramite uno schema di probabilità, tipico di ogni ricevitore, che gli consente di assegnare ad ognuno dei possibili messaggi una probabilità a priori che esso si presenti in ingresso. L'informazione trasportata da un particolare messaggio consiste nella "sorpresa" che si verifica quando il messaggio si presenta effettivamente in ingresso. Tale "sorpresa" viene misurata a partire dal valore della probabilità a priori assegnata dal ricevitore al messaggio stesso. Così, ad esempio, se un messaggio ha una probabilità a priori di presentarsi pari all'80%, quando effettivamente si presenta la "sorpresa" provocata può essere il 20%. In pratica la "sorpresa", ovvero essere addestrato, con una regola di apprendimento del tipo "Error back-propagation", in modo da fornire prestazioni identiche a quelle di un sistema esperto (Gallant, 1988). Nello stesso anno Touretzky e Hinton (1988) hanno presentato il primo esempio concreto di rete neurale in grado di simulare il comportamento di un sistema di produzione di simboli, come quelli normalmente adoperati dai teorici dell'Intelligenza Artificiale tradizionale per progettare programmi per computer in grado di risolvere problemi. In questo momento sono in corso numerose ricerche, sia teoriche che sperimentali, sia nell'ambito dei programmi per computer che in quello dei soggetti umani, per individuare il ruolo dei "suggerimenti" nei processi di soluzione dei problemi. Questo aspetto, già ampiamente studiato a suo tempo da Dunckers, Maier e Luchins, è tornato al centro dell'interesse quando si è intravista la possibilità di migliorare le prestazioni dei modelli connessionistici, ovvero delle reti neurali artificiali, sottoponendoli ad opportuni "suggerimenti" derivanti dalle conoscenze di natura simbolica sul dominio cui appartengono i problemi che si intendono risolvere. Si stanno così compiendo dei passi in avanti verso l'integrazione dei due modi, apparentemente antitetici, di elaborazione della conoscenza e verso una visione unitaria più approfondita dei processi di soluzione, visti come aspetti dei più generali processi di pensiero. 40-BISOGNI E PULSIONI ALLA BASE DELLA MOTIVAZIONI Il nostro comportamento non è casuale, ma motivato da una serie di cause ed è orientato alla realizzazione di determinati scopi, nonché alla soddisfazione di specifici bisogni. Il concetto di motivazione è originariamente stato introdotto per descrivere, in modo qualitativo e impreciso, le CAUSE che producono il COMPORTAMENTO, secondo un’ottica meccanicistica identica a quella della Fisica. Nonostante queste origini, i numerosi studi finora compiuti hanno condotto ad una definizione generale più realistica del concetto di MOTIVAZIONE, intesa come una CARATTERISTICA DELLO STATO INTERNO DEL SOGGETTO CHE SERVE AD ATTIVARE IL COMPORTAMENTO E A FORNIRGLI UNA OPPORTUNA DIREZIONE, NONCHÉ A MANTENERLA (Kleinginna & Kleinginna, 1981; Franken, 1994). Le ricerche hanno messo in luce anche che i fattori che attivano il comportamento sono in generale diversi da quelli che ne mantengono la direzione. Occorre dunque distinguere tra : BISOGNI, la cui soddisfazione può fungere da causa che innesca il comportamento e SCOPI, il cui raggiungimento spiega il mantenimento della direzionalità del comportamento Anche se apparentemente INUTILE, la distinzione tra bisogni e scopi diventa necessaria nel caso in cui i soggetti (umani o animali) si trovino in un ambiente COMPLESSO e RAPIDAMENTE VARIABILE Infatti in tale situazione diventa impossibile stabilire a priori quanto un dato comportamento ci avvicini o ci allontani dal soddisfacimento di determinati bisogni. Diventa dunque essenziale adottare STRATEGIE basate sull’assegnazione di VALORI a determinate situazioni ambientali, in modo tale che il conseguimento di condizioni corrispondenti ai valori più elevati finisce con il diventare uno SCOPO. A loro volta si possono creare GERARCHIE DI SCOPI, in modo da far fronte alla complessità delle richieste ambientali. Da questa prospettiva, la motivazione (dal latino motus=”movimento”), può anche essere intesa come una spinta a svolgere una certa attività e si può definire come un processo di attivazione dell'organismo finalizzato alla realizzazione di un dato scopo in relazione alle condizioni ambientali. Tale processo implica l'avvio, la direzione, l'intensità, la durata e la cessazione di una condotta da parte del soggetto. La motivazione prevede la presenza di livelli di complessità assai diversi fra loro, i quali dipendono dagli scopi cui sono associati. I riflessi rappresentano il sistema più semplice di risposta dell'organismo come reazione a stimoli esterni o interni. Sono meccanismi innati, automatici e involontari. Lo scopo è quello di ripristinare un equilibrio tra organismo e ambiente, momentaneamente alterato. Gli istinti, a un livello superiore, costituiscono sequenze congenite, fisse e stereotipate di comportamenti specie-specifici su base genetica in relazione a date sollecitazioni ambientali. All'inizio del Novecento, McDougall (1908) tentò di descrivere una “mappa degli istinti”. Intorno agli anni Venti, furono contati oltre 14,000 istinti. In questo modo lo stesso concetto di istinto diventava privo di significato poiché emergeva la precarietà del suo costrutto teorico, nonché la sua aleatorietà. Verso gli anni Cinquanta, la nozione di istinto fu ripresa con un'altra accezione dall'etologia, che si propose di studiare il comportamento degli animali nel loro habitat. Più che di istinto, si parla allora di predisposizioni istintive, intese come condotte specie-specifiche, regolate da uno schema fisso di azione. Famose sono le ricerche di Lorenz (1949) sul concetto di imprinting, inteso come la predisposizione istintiva del neonato (nelle prime ricerche era il piccolo dell'oca) a seguire subito dopo la nascita, qualsiasi oggetto in movimento che emetta un richiamo definito. Il concetto di istinto è stato oggetto di critiche in quanto deterministico e incapace di rendere ragione della varietà motivazionale degli umani. Negli anni Cinquanta furono elaborati in psicologia i concetti di bisogno e di pulsione. Il primo indica una condizione fisiologica di carenza e necessità (fame, sete, sesso ecc.). Il secondo esprime uno stato di disagio e di tensione interna che l'individuo tende a eliminare o, quanto meno, a ridurre, qualora i bisogni non siano soddisfatti. Le pulsioni sono fattori interni all'organismo e vanno distinte dagli incentivi, declinati successivamente come rinforzi., poiché possiedono la proprietà della ricompensa, in quanto capaci di soddisfare un certo bisogno. Di solito distinguiamo tra bisogni primari e secondari. I primi sono indipendenti dall'apprendimento e si fondano su processi fisiologici. I secondi sono appresi e si basano sull'appartenenza a una determinata cultura. Le motivazioni connesse con i bisogni fisiologici sono state chiamate motivazioni primarie, mentre le motivazioni che fanno prevalentemente riferimento ai processi di apprendimento e di influenzamento sociale sono dette motivazioni secondarie. Tale distinzione non va intesa in modo dicotomico, poiché le prime sono in buona parte influenzata dall'esperienza personale e, per diversi aspetti, sono regolate da processi mentali. Le connessioni tra motivazioni primarie e secondarie lascia spazio allo sviluppo di nuove forme di motivazione. È in gioco il processo dell'autonomia funzionale dei bisogni, analizzato da Allport (1937). Dall'esercizio di certe attività connesse al soddisfacimento di motivazioni primarie possono derivare nuove motivazioni secondarie, che con il tempo assumono una propria autonomia e diventano particolarmente rilevanti per alcuni individui (esempio: attività del pescare per procacciarsi cibo). La teoria di Maslow è la più celebre delle teorie basate sui bisogni. Essa postula una gerarchia di bisogni, ai più bassi livelli della quale si trovano i bisogni dovuti alla mancanza, mentre nei livelli più elevati vengono collocati i bisogni di crescita. Un bisogno non viene preso in considerazione se non viene prima soddisfatto un bisogno di livello inferiore. La rappresentazione grafica di questa gerarchia viene spesso effettuata sotto forma di una piramide, la cosiddetta PIRAMIDE DI MASLOW. Alla base della piramide ci sono i bisogni fisiologici, salendo troviamo il bisogno di sicurezza, appartenenza, stima e in cima quello di autorealizzazione. La piramide è così strutturata: la motivazione si sviluppa in sequenza secondo una scala gerarchica di livelli predefiniti di bisogni, la soddisfazione dei bisogni di ordine superiore non viene ricercata finché quelli primari non vengono soddisfatti, un bisogno cessa di essere motivante una volta soddisfatto, i bisogni di autorealizzazione comprendono anche quelli di conoscenza ed estetici (al livello inferiore) e quello di trascendenza (al massimo livello). Secondo Maslow, i bisogni dei primi gradini della piramide sono bisogni di carenza, in quanto cessano soltanto al loro appagamento, per contro, i bisogni dei gradini successini sono bisogni di crescita, che continuano a svilupparsi mano a mano che sono soddisfatti. La molteplicità e la diversità delle motivazioni sottese all'agire umano pongono in evidenza il fatto che nessuna condotta può essere considerata come il risultato diretto ed esclusivo di un'unica spinta motivazionale, bensì da una combinazione di motivazioni diverse. La comprensione di questi processi è stata oggetto di diversi punti di vista teorici. La teoria biologica è stata introdotta dopo la scoperta dei centri e dei meccanismi biologici sottesi alle motivazioni (soprattutto primarie), che ha indotto a ritenere che tali centri e processi fossero in grado di spiegare in modo esauriente la loro genesi e il loro svolgimento e che fossero al servizio dell'omeostasi, concepita come l'esigenza di conservare in modo stabile nel tempo i livelli di equilibrio adatti per il funzionamento dell'organismo. In realtà, gli aspetti biologici rappresentano condizioni necessarie ma non sufficienti, poiché solo i valori omeostatici non permettono alcuna possibilità di sviluppo e di cambiamento. Il comportamentismo invece propose un modello esplicativo dei bisogni degli individui basato sull'interazione fra pulsione e abitudine. La pulsione, che nasce da una condizione di carenza per la comparsa di un bisogno, fornisce la spinta propulsiva e determina una condizione di attivazione nell'organismo. Quest'ultima serve a mantenere un livello ottimale di stimolazione per rispondere in modo efficiente agli stimoli. L'elaborazione delle pulsioni avviene per apprendimento, grazie all'associazione, secondo i principi del condizionamento classico e operante. L'associazione ripetuta fra pulsione e risposta crea nell'individuo un'abitudine. Lo scopo, quindi, di questo approccio è la riduzione delle pulsioni attraverso il soddisfacimento dei bisogni. La prospettiva cognitivista ribalta il punto di vista del comportamentismo sottolineando fin da subito che le motivazioni e i bisogni cambiano in rapporto alla quantità e qualità delle informazioni provenienti dall'ambiente che l'organismo è in grado di elaborare. Nella concezione cognitivista l'attenzione è focalizzata sui processi cognitivi sottesi all'individuazione e alla definizione delle mete da raggiungere, alla valutazione delle probabilità di riuscita o di fallimento, alla modificazione progressiva degli scopi in funzione delle informazioni a disposizione in quel momento, alla valutazione degli esiti della propria condotta, nonché all'assunzione di una prospettiva temporale ancorata al futuro piuttosto che al passato. Secondo i cognitivisti, gli individui tendono a raggiungere il successo e a evitare l'insuccesso (Atkinson, 1974). L'individuo con un'elevata motivazione a evitare il fallimento si orienta verso mete altamente probabili o verso mete il cui perseguimento risulta altamente improbabile. Nell'anticipazione e percezione del successo il livello della motivazione è significativamente influenzato dalle difficoltà percepite del compito. Parimenti, la dimensione temporale assume un ruolo importante nell'attribuire valore a un traguardo. Condotte che in passato sono state associate a esperienze di successo (o insuccesso) diventano elementi fondamentali per la definizione delle mete del presente e del futuro rispetto alle proprie aspettative. Nella sua teoria dei bisogni McClelland (1985) ha individuato tre grandi costellazioni di motivazioni secondarie che caratterizzano la nostra esistenza: il bisogno di affiliazione, il bisogno di successo e il bisogno di potere. Il bisogno di affiliazione consiste nel ricercare la presenza degli altri per la gratificazione intrinseca che deriva dalla loro compagnia e dalla sensazione di fare parte di un gruppo. Gli individui ricercano legami profondi di intimità e di amicizia e, per mantenere tali legami, sono disposti ad assumere posizioni stabili di accondiscendenza e acquiescenza. Nel gruppo sono inclini a occupare una posizione gregaria di dipendenza. Una delle radici della condotta affiliativa è da attribuire alla relazione di attaccamento che il bambino piccolo sviluppa con la figura di accudimento. Secondo la teoria di attaccamento, elaborata inizialmente da Bowlby, la relazione di attaccamento è definita da: a) la ricerca della vicinanza alla figura preferita (sia fisica che fisiologica); b) la funzione di “base sicura” svolta dalla figura preferita; c) la protesta per la separazione. La relazione di attaccamento non è quindi creata solo per l'appagamento delle esigenze fisiologiche del bambino. Le condotte di sicurezza (o insicurezza) nei legami con gli altri favoriscono l'elaborazione di modelli operativi interni. Questi consistono in un sistema organizzato di rappresentazioni mentali che riguardano le credenze e le aspettative del bambino nei confronti delle risposte fornite dalla figura di attaccamento, in modo da prevedere, anticipandola, la relazione con essa. Tali modelli operativi interni sono relativamente stabili e possono essere valutati attraverso l'Adult Attachment Interview. In effetti, si dimostrano efficaci nella scelta del partner, nella costruzione del legame di coppia e nella sua qualità. Il bisogno di successo consiste nella motivazione a fare le cose al meglio per un intrinseco bisogno di affermazione e di eccellenza. Chi ha un elevato bisogno di successo tende a d assegnarsi scopi impegnativi, ma realistici ha una buona conoscenza delle proprie risorse e dei propri limiti; nello stesso tempo, ha l'esigenza di ottenere il massimo e di ottimizzare le potenzialità a sua disposizione. Una delle radici più importanti del bisogno di successo è data dall'estensione delle aspettative che le figure parentali nutrono nei confronti del figlio. Quando tali aspettative sono elevati e realistiche, vi è una buona probabilità che il figlio sviluppi un elevato bisogno di successo. Quando invece le aspettative sono troppo alte o eccessivamente basse è probabile che il bambino cresca con un modesto bisogno di successo. Il livello diella motivazione del successo appare, quindi, strettamente associato al modello famigliare di educazione. Il bisogno di potere consiste nell'esigenza di esercitare la propria influenza e il proprio controllo sulla condotta di altre persone. Chi ha un forte bisogno di potere cerca di occupare posizioni di comando e di concentrare l'attenzione altrui su di sé. Tale bisogno nascerebbe da uno stato di disagio e di insicurezza interiore che si placa soltanto attraverso la strumentalizzazione degli altri, al fine di dimostrare pubblicamente la propria capacità di dominio sociale. Il potere non è un'entità assoluta, a sé stante, ma va concepito come una relazione tra A e B. il potere può essere definito come una relazione asimmetrica, riguardante ambiti specifici, nella quale A, in virtù delle risorse che si presume disponga, appare in grado di indirizzare e di modificare in modo intenzionale la condotta di B verso la realizzazione dei propri obiettivi. Tuttavia, pur essendo asimmetrica è caratterizzata dalla bidirezionalità. Su questa base, la relazione di potere è caratterizzata da una forma intrinseca di instabilità, poiché oggetto di continua contrattazione, negoziazione e influenzamento reciproco. 43-DESCRIVERE I PRINCIPI FONDAMENTALI DELL'APPROCCIO SUBSIMBOLICO E CONNESSIONISMO Il problema della conoscenza è stato affrontato fin dai tempi degli antichi Greci. Attraverso la conoscenza possiamo far fronte in modo più efficace ai problemi posti dall'ambiente con cui interagiamo. La storia, assai complicata, delle riflessioni sul problema della conoscenza è caratterizzata da due fenomeni rilevanti: il primo, che si verifica a partire dal Seicento, consiste nel fatto che la conoscenza facendosi “scienza”, è in grado di produrre effetti pratici sull'ambiente in modo sistematico, mentre il secondo, che ha luogo in corrispondenza degli anni Settanta del XX secolo, consiste nel tentativo di creare una nuova scienza che abbia come proprio oggetto la conoscenza medesima. È la scienza cognitiva. Il primo problema che si incontra è quello di definire che cosa sia la conoscenza. Infatti questo termine si può utilizzare in modo differente: a) per indicare l'immagazzinamento di informazioni; b) per indicare la capacità di risolvere problemi; c) per indicare il modo con cui sono internamente organizzate le informazioni che possediamo. Esistono approcci differenti alla definizione e allo studio della conoscenza. Questi approcci si possono ripartire in due categorie fondamentali, che qui verranno chiamate “impostazione platonica” e “impostazione aristotelica”. L'impostazione platonica parte dal presupposto che, dietro l'apparente mutevolezza e caducità della realtà che osserviamo fenomenicamente, esista un'altra realtà, di natura immutabile, che costituisce la realtà “vera”. L'intelletto umano è in grado di accedere a quest'ultima tramite il possesso della “conoscenza”, ovvero di una rappresentazione della realtà “vera” che ne conservi le caratteristiche essenziali. La conoscenza perfetta è espressa in termini di Logica e Matematica. In questa impostazione il mondo della conoscenza è dunque visto come nettamente separato da quello dei fenomeni osservabili tramite l'esperienza sensibile. Ogni approccio allo studio dei fenomeni della conoscenza che rientri in questa impostazione dovrà affrontare il problema di definire quale relazione esiste tra questi due mondi. Secondo l'impostazione aristotelica, al contrario, la realtà “vera” è quella che noi osserviamo fenomenicamente. Naturalmente esistono anche qui dei principi generali, che possono essere benissimo di natura Logica o Matematica, che regolano la mutevolezza dei fenomeni e il loro andamento. Solo che questi principi di natura formale non esistono indipendentemente dai fenomeni stessi. Gli aspetti formali non sono un prodotto della nostra attività mentale, ma riflettono la natura stessa della realtà osservata. La conoscenza, quindi, consiste nella capacità di estrarre dall'osservazione dei fenomeni i principi fondamentali che li regolano. Il problema principale, quindi, di ogni approccio che rientri nell'ambito di questa impostazione è quello di chiarire in che modo avvenga questa “estrazione”. La Scienza Cognitiva è nata sotto l'egida dell'approccio platonico e si può parlare di una scienza generale della conoscenza se si accetta che l'essenza della conoscenza consista nei simboli e nelle regole di manipolazione di simboli, indipendentemente dal significato dei simboli stessi. È questa circostanza che rende possibile pensare a una comunicazione tra studiosi di diverse discipline – psicologi, logici, informatici, filosofi – in quanto tutti quanti, indipendentemente dal loro particolare oggetto di studio, a un livello più astratto parlano la stessa lingua e si occupano degli stessi processi. Da questo punto di vista, la Psicologia Cognitiva è stata emblematica e, insieme all'Intelligenza Artificiale, ha cercato di presentarsi come disciplina trainante all'interno della Scienza Cognitiva. Tuttavia questo tipo di approccio ha ben presto incontrato grosse difficoltà. La prima, tuttora rimasta insuperata, è stata quella relativa alla costruzione di programmi in grado di tradurre automaticamente un testo da una lingua all'altra. Il problema qui è stato originato dal fatto che il processo di traduzione riguarda essenzialmente gli aspetti semantici, non riuscendo a cogliere anche il contesto in cui si utilizzano i termini. Difficoltà analoghe sono state incontrate quando si è cercato di costruire programmi in grado di fungere da solutori generali di qualunque tipo di problema. Ben presto ci si è accorti che non esiste né un algoritmo generale, né un insieme di strategie-tipo per risolvere tutti i problemi possibili. Tutto questo significa che anche le procedure di soluzione sono dipendenti dal contesto e la loro messa in atto dipende dal verificarsi di una serie di condizioni concrete, osservabili. Questa circostanza è apparsa così importante che gli stessi sostenitori dell'approccio simbolico sono stati costretti, nel corso degli anni Settanta, a introdurre una fondamentale distinzione tra due tipi di conoscenza: quella dichiarativa e quella procedurale. La prima è la conoscenza così come la intendono coloro che aderiscono all'impostazione platonica, cioè la conoscenza esplicitabile unicamente tramite simboli e regole di manipolazione di simboli, la conoscenza del “cos'è”. La conoscenza procedurale, invece, è la conoscenza del “come si fa”. Non è sempre esprimibile facilmente in termini simbolici, ma l'importante è che, in presenza di opportune condizioni, essa inneschi azioni in grado di produrre effetti. Inoltre, diversamente dalla conoscenza dichiarativa, questo tipo di conoscenza è sempre diretta a uno scopo. Proprio per questa ragione un sistema della gestione della conoscenza che voglia essere in grado di risolvere con un minimo di efficienza i problemi posti dall'ambiente, deve incorporare entrambe le conoscenze. Questo è avvenuto, per esempio, in uno dei più interessanti modelli del funzionamento cognitivo sviluppati negli ultimi anni: il modello ACT di Anderson. Si può affermare che, in un certo senso, con l'introduzione della conoscenza procedurale l'impostazione aristotelica è tornata a riaffacciarsi sulla scena dello studio dei processi cognitivi. Le procedure, infatti, intese come sequenze di azioni dirette a uno scopo, pur essendo governate da regole a volte esprimibili simbolicamente, non “vivono” in un mondo di strutture simboliche statiche: in un certo qual modo le regole sono inseparabili dagli effetti che le azioni producono. Dal momento che l'utilizzo della conoscenza procedurale dipende strettamente dal contesto, la Scienza Cognitiva viene a trovarsi di fronte al terribile compito di individuare le regole generali, sottostanti sia alle procedure stesse che al loro impiego, a partire da una miriade di casi particolari, profondamente diversi gli uni dagli altri. A questo riguardo, sono possibili due alternative: o si concentra l'attenzione sulla particolare relazione tra cesti contesti e certe procedure, o si cerca di scoprire relazioni generali valide per classi il più possibile ampie di contesti e procedure. La prima alternativa è la più facile da seguire ed è stata adottata da molti ricercatori, in particolare nell'ambito della Scienza Cognitiva. La seconda alternativa, invece ha cercato di generalizzare, di astrarre, di scoprire leggi valide, non per questo o per quel particolare sistema, ma per classi il più ampie possibili. La strada della generalizzazione, anche se difficile da percorrere, è l'unica che ha finora consentito di pervenire alle acquisizioni che giustificano l'attuale interesse di tanti ricercatori per la Scienza Cognitiva. In un certo senso l'approccio subsimbolico si può considerare come inserito nell'ambito dell'impostazione aristotelica. La sua attenzione è più rivolta a descrivere come questi processi funzionano che non a rappresentare le architetture cognitive tramite le relazioni tra i vari moduli che la costituiscono. La formulazione più organica dell'approccio subsimbolico è dovuta a Smolensky, che ne discute nella celebre antologia PDP del 1986. il presupposto fondamentale dell'approccio subsimbolico è che i processi cognitivi sono da considerarsi come fenomeni macroscopici, emergenti alla stregua di processi collettivi dell'azione cooperativa di un gran numero di costituenti microscopici della conoscenza stessa. A differenza dei sintomi utilizzati dall'approccio computazionale simbolico, i costituenti microscopici della conoscenza non sono dotati di per sé di significato. Essi possono essere visti alla stregua di microcaratteristiche, indispensabili per definire un pattern o un concetto, ma nessuna delle quali, da sola, può bastare per caratterizzare una data situazione. In definitiva i processi cognitivi, secondo l'approccio subsimbolico, vanno considerati come coincidenti con particolari configurazioni di microcaratteristiche, ciascuna delle quali rappresenta un oggetto che giustamente si può denotare come subsimbolico. Il modo più efficiente per descrivere una tale situazione è quello di far ricorso alle cosiddetta reti neurali., introdotte nel 1943 da McCulloch e Pitts Con questo nome di designano dei sistemi, di natura molto generale, costituiti da unità o da interconnessioni tra le unità. Ogni unità è caratterizzata da un opportuno grado di attivazione, dipendente a sua volta dai segnali ricevuti in ingresso dall'unità stessa tramite un'opportuna legge o funzione di attivazione. Ben presto, però, ci si è accorti che esse, come modelli del sistema nervoso, erano largamente inadeguate. Per questa ragione è prevalsa col tempo un'interpretazione “cognitiva” delle reti neurali. I processi cognitivi andrebbero allora identificati con le configurazioni di attivazione di opportune reti neurali. L'approccio subsimbolico ha diversi vantaggi e difetti. Per quanto riguarda i primi possiamo elencare: 1) è adatto a creare un ponte che connetta processi psichici e processi biologici; 2) la facilità di implementazione, legata al fatto che le unità delle reti neurali sono associati a leggi di attivazione piuttosto semplici; al contrario, i programmi di manipolazione simbolica sono spesso assai complessi e difficili da analizzare; 3) la possibilità di un funzionamento in parallelo delle unità delle reti neurali; 4) la stabilità di comportamento di questo tipo di modelli rispetto a disturbi, errori, rumore e scelte scorrette; 5) la capacità di rappresentare stimolazioni o conoscenze incerte, incomplete o non definite rigorosamente; 6) la possibilità di rappresentare e sperimentare gli effetti di lesioni sull'andamento dei processi cognitivi. Tra gli svantaggi dell'approccio subsimbolico i più rilevanti sono: 1) l'incapacità di render conto di proprietà fondamentali dei sistemi di elaborazione simbolica, quali l'iteratività, la ricorsività, l'ereditarietà, la strutturazione gerarchica; 2) l'incapacità di costruire modelli di reti neurali in grado di apprendere, unicamente a partire dalle esperienze effettuate; 3) l'inesistenza di regole di “codifica” naturale di un pattern in termini di distribuzione delle attivazioni tra le unità di una rete neurale=opportuno elenco di microcaratteristiche; 4) l'incapacità di render conto del significato di un'informazione servendosi unicamente della sua rappresentazione in termini di attivazione di unità neurali; 5) l'incapacità di estrarre un'informazione immagazzinata in una rete neurale senza far ricorso a un opportuno pattern di richiamo presentato in ingresso. Gli svantaggi e i punti di forza sia dell'approccio computazionale simbolico che dell'approccio subsimbolico, mostrano la necessità di far uso di paradigmi ibridi, che sfruttino al meglio i vantaggi di entrambi gli approcci minimizzando gli svantaggi. Con il termine Connessionismo si indica un approccio allo studio dei processi cognitivi di tipo subsimbolico, basato sull'utilizzo di reti neurali. Esso non si discosta molto dal Cognitivismo tradizionale, da cui differisce unicamente per la forma di rappresentazione adottata per descrivere gli stati mentali: pattern di attività di reti neurali anziché sequenze simboliche. La storia del Connessionismo ha inizio del 1943 con il celebre lavoro di McCulloch e Pitts in cui vengono poste le basi della teoria delle “reti nervose formali”, intese come modelli astratti del funzionamento della corteccia cerebrale. Nel 1949 Hebb, con il suo modello, indica quali sono gli elementi fondamentali della struttura dei modelli connessionistici che considereranno le efficacie sinaptiche alla stregua di variabili fondamentali per descrivere le rappresentazioni cognitive. Nel 1956 Rochester e altri effettuano la prima simulazione del comportamento di una rete neurale e trovano le condizioni che garantiscono la formazione di assemblee cellulari nel modo previsto da Hebb. Nel 1958 Rosenblatt introduce il Perceptrone, il primo modello di rete neurale in grado di apprendere dall'esperienza. Nel 1969, però, Minsky e Papert dimostrano che il Perceptrone è, in linea di principio, incapace di risolvere problemi di classificazione anche molto semplici, cioè non è sempre in grado di apprendere ad associare ai singoli ingressi le uscite corrette secondo certi schemi prefissati in anticipo. Questa circostanza provoca, in concomitanza con i successi dell'AI tradizione, un crollo dei finanziamenti delle ricerche sulle reti neurali e un calo di interesse nei loro confronti. Nel 1982 Hopfield dimostra che un particolare modello di rete neurale è in grado di funzionare come una memoria associativa, in cui l'informazione richiamata dalla memoria dipende esclusivamente dalla sua somiglianza con il pattern di richiamo presentato. Inoltre, fa vedere, insieme ad altri fisici, che le reti neurali non sono altro che modelli del comportamento di speciali sistemi, i vetri di spin. Nello stesso anno Fedelman e Ballard introducono il termine Connessionismo per indicare un approccio subsimbolico allo studio dei processi cognitivi basato sullo studio delle reti neurali. In seguito al crescente interesse, il Connessionismo si sviluppa rapidamente e trionfa a partire dal 1985, quando viene introdotta la regola dell'apprendimento, detta “error-backpropagation”, per il Perceptrone multistrato, che sembra essere in grado di ovviare alle critiche mosse da Minsky e Papert al vecchio Perceptrone. Effettivamente viene dimostrato che è, in linea di principio, capace di apprendere dall'esperienza qualunque tipo di relazione ingresso-uscita si desideri. Intanto, nel 1986 McClelland e Rumelhart pubblicano la “Bibbia” del Connessionismo e si innesca uno sviluppo che in pochi anni si è fatto vertiginoso. Oggi il Connessionismo costituisce uno dei capitoli fondamentali della Scienza Cognitiva. 45-I PRINCIPI FONDAMENTALI DELL'APPROCCIO COMPUTAZIONALE SIMBOLICO Il problema della conoscenza è stato affrontato fin dai tempi degli antichi Greci. Attraverso la conoscenza possiamo far fronte in modo più efficace ai problemi posti dall'ambiente con cui interagiamo. La storia, assai complicata, delle riflessioni sul problema della conoscenza è caratterizzata da due fenomeni rilevanti: il primo, che si verifica a partire dal Seicento, consiste nel fatto che la conoscenza facendosi “scienza”, è in grado di produrre effetti pratici sull'ambiente in modo sistematico, mentre il secondo, che ha luogo in corrispondenza degli anni Settanta del XX secolo, consiste nel tentativo di creare una nuova scienza che abbia come proprio oggetto la conoscenza medesima. È la scienza cognitiva. Il primo problema che si incontra è quello di definire che cosa sia la conoscenza. Infatti questo termine si può utilizzare in modo differente: a) per indicare l'immagazzinamento di informazioni; b) per indicare la capacità di risolvere problemi; c) per indicare il modo con cui sono internamente organizzate le informazioni che possediamo. Esistono approcci differenti alla definizione e allo studio della conoscenza. Questi approcci si possono ripartire in due categorie fondamentali, che qui verranno chiamate “impostazione platonica” e “impostazione aristotelica”. L'impostazione platonica parte dal presupposto che, dietro l'apparente mutevolezza e caducità della realtà che osserviamo fenomenicamente, esista un'altra realtà, di natura immutabile, che costituisce la realtà “vera”. L'intelletto umano è in grado di accedere a quest'ultima tramite il possesso della “conoscenza”, ovvero di una rappresentazione della realtà “vera” che ne conservi le caratteristiche essenziali. La conoscenza perfetta è espressa in termini di Logica e Matematica. In questa impostazione il mondo della conoscenza è dunque visto come nettamente separato da quello dei fenomeni osservabili tramite l'esperienza sensibile. Ogni approccio allo studio dei fenomeni della conoscenza che rientri in questa impostazione dovrà affrontare il problema di definire quale relazione esiste tra questi due mondi. all'ambiente. La difficoltà nello studio delle emozioni sta nel fatto che esse coinvolgono diversi livelli (multidimensionalità): fisiologico, cognitivo, psicologico, situazionale (sociale, relazionale), inoltre non vi è pieno accordo nel definire cosa sono le emozioni; nemmeno nel definite una teoria unica delle emozioni, la situazione, poi, si complica se pensiamo che esistono differenze nel provare ed esprimere emozioni La maggior par degli autori è d'accordo nell’associare alle emozioni degli schemi abbastanza complessi e più o meno stereotipati di comportamento. Questi schemi sono caratterizzati per il vissuto soggettivo e per il livello di attivazione del sistema neurovegetativo (fisiologico). L’aspetto forse più importante delle risposte emotive è quello fisiologico: molte emozioni sono associate a cambiamenti fisiologici. L'attività del mesencefalo nell'attivazione e nella modulazione delle emozioni è ormai un'evidenza robusta. Anzitutto, l'ipotalamo che svolge la funzione di governo del sistema autonomo (simpatico e parasimpatico), è la sede della regolazione centrale dell'ambiente interno dell'organismo. Per quanto riguarda le emozioni l'eccitazione dell'ipotalamo posteriore e mediale genera in modo prevalente risposte simpatiche ad alta attivazione dell'organismo (collera, paura), mentre la stimolazione dell'ipotalamo anteriore e laterale produce risposte parasimpatiche a bassa attivazione (tristezza, depressione). Cannon ipotizzò che le due sezioni, simpatica e parasimpatica, svolgano funzioni diverse nei processi di regolazione del comportamento emozionale e dell'omeostasi: il sistema nervoso simpatico provoca un aumento dell'attività efferente diretta al cuore e ad altri visceri, ai vasi periferici, alle ghiandole sudoripare e ai muscoli piloerettori ed oculari, al contrario, il sistema parasimpatico assicura il mantenimento della frequenza cardiaca di base, della respirazione e del metabolismo ecc., in condizioni normali L'aumento della gittata cardiaca, le variazioni della temperatura corporea, della concentrazione ematica del glucosio, la costrizione della pupilla ecc. permettono di rispondere rapidamente a condizioni esterne che potrebbero arrecare danno all'organismo, per cui, in una situazione di fuga il mio organismo deve immediatamente essere attivato ed attivo per poter reagire adeguatamente (sistema simpatico). Parimenti, una volta “scampato” un pericolo, devo ristabilire le condizioni fisiologiche di partenza (sistema parasimpatico). Inoltre nel cervello emotivo è fondamentale l'amigdala, è ritenuta il “computer dell'emotività”, poiché composta da diversi nuclei: è un sistema di connessione e di raccordo fra tutte le informazioni sensoriali provenienti dall'ambiente i(nterno e esterno) e i vari sistemi di risposta emotiva. La corteccia prefrontale ventromediale (VMCPF) è invece deputata alla rilevazione del significato di stimoli emotivi complessi. La regione prefrontale destra agisce in modo tempestivo e forte a situazioni spiacevoli, mentre quella sinistra risponde in modo più graduale agli eventi piacevoli. I cambiamenti che coinvolgono l’organismo quando si provano emozioni sono: l'aumento del battito cardiaco, aumento della frequenza del respiro, tensioni muscolari, tremori, aumento della pressione sanguigna, dilatazione delle pupille, sudorazione, risposta psicogalvanica (conduttanza cutanea), dolori e/o tensioni allo stomaco, bocca secca, cambiamento della temperatura (anche solo in alcune zone). Questi cambiamenti avvengono soprattutto per l’aumento del livello di un ormone: l’epinefrina (adrenalina) e sono mediati dal sistema nervoso autonomo (involontario). La teoria periferica di William James (1884) sostiene che noi “non tremiamo perché abbiamo paura, ma abbiamo paura perché tremiamo; non piangiamo perché siamo tristi, ma siamo tristi perché piangiamo”. Secondo tale teoria, i cambiamenti neurofisiologici verrebbero per primi; questo produrrebbe cambiamenti viscerali che vengono avvertiti; queste modifiche sono alla base delle emozioni (to feel); si passa dall’evento percepito all’evento sentito. Nonostante la posizione di James sia risultata piuttosto imprecisa nella formulazione dei processi neurofisiologici, e Cannon ha criticato questa impostazione, perchè la sconnessione fra gli organi periferici e il sistema nervoso centrale non elimina le emozioni, l'intuizione centrale della sua teoria rimane tuttora valida Evidenze empiriche a sostegno della teoria periferica sono fornite dall'ipotesi del feedback facciale, secondo la quale le espressioni facciali forniscono informazioni propriocettive, motorie, cutanee e vascolari che influenzano il processo emotivo. Versione forte: le espressioni facciali sono sufficienti a generare un’esperienza emotiva (Ekman, 1983), versione debole: il feedback aumenta l’intensità emotiva Alcuni soggetti venivano istruiti a contrarre i muscoli facciali implicati in una determinata emozione, per esempio, invitandoli a tenere una matita fra i denti (posizione simile a un sorriso) oppure semplicemente fra le labbra. È stato osservato un maggior divertimento in risposta a cartoni animati nel primo caso che non nel secondo, a parità di altre condizioni. Nel 1927 il fisiologo Cannon criticò tale teoria affermando chei cambiamenti corporei associati agli stati emotivi hanno luogo troppo lentamente per poter causare delle emozioni. Inoltre, gli stessi cambiamenti fisiologici possono aver luogo in altre situazioni senza produrre emozioni (es. sforzo fisico, febbre, freddo). Per finire, le reazioni emotive sono presenti anche quando gli organi viscerali sono stati chirurgicamente isolati dal SNC. Ad alcuni gatti venivano resecate alcune connessioni del midollo spinale (separazione fra visceri e SNC), in modo che le viscere non avessero più nessuna connessione con il cervello, ma l’animale si comportava ancora come se provasse delle emozioni (Cannon et al., 1927). Di fronte a cani aggressivi, continuavano a sibilare, graffiare, mostrare i denti, ritrarre le orecchie. Certe sostanze (adrenalina) producono modificazioni viscerali identiche a quelle degli stati di attivazione emotiva intensa, ma non generano un’autentica esperienza emotiva. Maranon (1924) iniettò ad un gruppo di volontari dell’adrenalina. Nella maggior parte dei soggetti, l’adrenalina provocò modificazioni fisiologiche - ad esempio un aumento del battito cardiaco e una dilatazione delle pupille. Alla richiesta di scrivere quello che sentirono, il 71% dei volontari riferì sintomi fisici, ma nessuna emozione. Secondo Cannon, uno stimolo (emozionante e non) produce attivazione centrale e il sistema risponde con una “reazione generalizzata di allarme” detta arousal. Questa reazione comparirebbe anche in presenza di fonte di calore, di attività fisica ecc. Sono quindi aspecifiche (e non specifiche di una emozione). Le intuizioni di Cannon sono confermate da evidenze neuro-anatomiche (circuito di Papez, sistema limbico, ipotalamo e amigdala). La teoria periferica di James e quella centrale di Cannon, pur essendo fra loro contrapposte, si sono dimostrate entrambe vere (poiché hanno saputo cogliere aspetti specifici della vita emotiva), ma entrambe sono parziali (poiché non sono riusciti a cogliere e a dominare la complessità delle emozioni). Nel 1962, Schachter e Singer formulano una teoria che è rimasta il modello interpretativo dominante dell’emozione, definita cognitivo-attivazionale, sostenendo che “ci emozioniamo perché pensiamo”. L’emozione è la risultante dell’interazione di due componenti distinte: una di natura fisiologica e diffusa dell’organismo (emozionalmente non specifica: arousal); l’altra di natura psicologica, con la percezione di questo stato di attivazione e la sua spiegazione in funzione di un evento emotivo. Questi due fattori non bastano, però, a generare un’esperienza emotiva. Occorre un’attribuzione causale (causa-effetto) che stabilisca una connessione fra queste due componenti, in modo da attribuire la propria attivazione corporea a un evento emotigeno pertinente per poterla “etichettare” Metafora del juke-box: un cambiamento della risposta fisiologica – inserire una moneta – mette in moto un processo, ma il motivo suonato – l’emozione – dipende dal tasto premuto. Emozione = arousal + processo percettivo + processo cognitivo di attribuzione causale Un'esperimento proposto da Schachter e Singer (1962) a sostegno di tale teoria fu il seguente: ai dei soggetti venne iniettata l’epinefrina (adrenalina), che produce per 20 min. reazioni simpatiche del sistema autonomo (aumento pressione e ritmo cardiaco, ecc.). Alcuni soggetti vennero informati degli effetti della somministrazione; altri vennero mal informati (dicendo che non vi sarebbe stato nessun effetto oppure che avrebbero avuto prurito, mal di testa ecc.); altri non vennero informati. Furono successivamente invitati a compilare un questionario che conteneva domande offensive e somministrarlo ad un complice. Dopo l’iniezione ogni soggetto veniva fatto accomodare in un’altra stanza accompagnato dal complice, dove, durante la somministrazione, questi simulava il comportamento aggressivo o euforico. Condizione di euforia: il complice rideva e scherzava, giocava con hula-hoop e invitava i soggetti a partecipare. Condizione di rabbia/aggressività: il complice e i soggetti erano seduti l’uno accanto all’altro e dovevano completare un questionario. Mentre compilavano il questionario, il complice si mostrava sempre più irritato, fino ad arrivare a strapparloe a precipitarsi fuori dalla stanza. I risultati mostrarono che i soggetti informati non raccolsero le provocazioni né gli inviti del complice, interpretando le reazioni fisiologiche come effetti del farmaco. I soggetti non-informati parteciparono ai giochi e reagirono alle provocazioni: mostrando in un caso emozioni di gioia e nell’altro di rabbia, interpretando le reazioni fisiologiche come dipendenti dal contesto emozionale. I soggetti mal-informati si comportarono come quelli informati. Questi dati risultano comunque di difficili replicazione. Le teorie cognitive (dell'appraisal), sorgono attorno agli anni Sessanta, sostenendo che le emozioni siano suscitate da un'attività di conoscenza (cognition) e di valutazione (appraisal) della situazione in riferimento ai propri significati, interessi, scopi. Grazie a tale attività, forniamo una risposta alle seguenti domande: a) rilevanza; b) implicazioni; c) coping; d) significatività normativa (rispetto a standard culturali). L'interesse è il cuore delle emozioni, poiché è ciò che attribuisce un significato affettivo agli eventi. Possiamo distinguere gli interessi profondi da quelli superficiali. I primi riguardano gli scopi, le aspettative e i desideri generali condivisi dalla maggioranza delle persone; i secondi concernono gli scopi e i desideri di una singola persona o di singoli gruppi. Gli interessi hanno una struttura motivazionale robusta. In generale, individui e culture differiscono profondamente fra loro per la natura e la forza degli interessi. Secondo la psicologia ingenua, le emozioni si oppongono alla razionalità e sono considerate “passioni”, simili a condotte istintive che sorgono e si svolgono in modo involontario. Le emozioni capitano nella nostra vita e non possiamo scegliere quali emozioni avere, o quando. Rispetto a questa prospettiva, le teorie dell'appraisal pongono in evidenza come le emozioni siano profondamente intrecciate con i processi cognitivi, poiché la loro attivazione implica l'elaborazione cognitiva della situazione. Le emozioni non appaiono in modo casuale e imprevisto, bensì sono l'esito di un'attività di conoscenza e di valutazione della situazione in riferimento alle sue conseguenze per l'individuo, alle sue aspettative, nonché agli standard sociali e culturali. Le emozioni, suscitate da una valutazione cognitiva della situazione, implicano una sconnessione e una mediazione fra antecedente e condotta emotiva e hanno una stretta connessione con l'importanza degli scopi e interessi dell'individuo. In particolare, le emozioni sorgono in risposta alla struttura di significato di una data circostanza. Sono attivate non dallo stimolo in sé e per sé, bensì dai significati e valori che un individuo attribuisce a questo stimolo. Situazioni che soddisfino i suoi scopi e desideri suscitano emozioni positive; situazioni valutate come dannose o minacciose conducono a emozioni negative; situazioni inattese generano sorpresa e stupore (Lazarus, 1991). Va sottolineato che ogni risposta emozionale agli eventi è mediata da processi cognitivi (pensiero, aspettative, convinzioni personali, ecc.). Due persone possono rispondere in maniera differente alla stessa situazione (paura di volare). Una persona può rispondere emotivamente a situazioni oggettivamente neutre (paura dei ragni). Quindi le risposte emotive sono notevolmente flessibili = significato situazionale. Secondo Lazarus (1966) un soggetto può valutare una situazione emotivamente come “fredda”, o considerare l’impatto sul proprio benessere: un insuccesso provoca ansia solo se giudicato una minaccia al proprio benessere. Distinguendo tre tipologie L’appraisal primario consiste nella valutazione immediata della rilevanza (positiva, negativa o neutra) di una situazione per il proprio benessere L’appraisal secondario consiste nel valutare quali siano le strategie più efficaci per fronteggiare la situazione (coping). Il re-appraisal consiste nella valutazione del cambiamento in relazione all’ambiente, in funzione dell’appraisal primario e di quello secondario Tale approccio riconosce che l’attività cognitiva e l’esperienza emozionale siano espressioni di un processo circolare e continuo. Essa si può attivare anche ai livelli iniziali del processo, mantenersi o cambiare (rivalutazione) durante I valori, le credenze, le mete, le esperienze dell’individuo intervengono attivamente in ogni incontro emozionale fra soggetto e situazione (emotional encounter) ponendo vincoli e definendo lo scenario situazionale (Lazarus, 1984) Le teorie dell'appraisal consentono di comprendere la grande flessibilità e versatilità delle emozioni. Frijda (1986) pone invece l'accento sul processo sequenziale delle emozioni: Codifica: cioè l’attribuzione delle cause e delle conseguenze Appraisal primario: valutazione della rilevanza dello stimolo rispetto a bisogni e desideri Appraisal secondario: valutazione di comportamenti ed azioni disponibili (coping) per reagire alla situazione Priorità: come affrontare l’evento Disposizione all’azione: selezione programma motorio adeguato sulla base delle fasi 1, 2, 3, 4 (emozione) Attivazione viscero-somatica: attivazione neurofisiologica Esecuzione azione: esecuzione di un programma cognitivo-comportamentale preso da un “repertorio individuale” La maggior parte degli studiosi è in accordo nel sostenere che le risposte emozionali elicitino molteplici componenti; Scherer (1984) descrive a questo proposito cinque componenti: a) cognitiva, che permette di valutare l’informazione; b) neurofisiologica, come attivazione del sistema nervoso centrale e del sistema nervoso autonomo; c) motivazionale, che individua i bisogni, i piani e gli scopi sottesi al vissuto emozionale; d) espressivo-motoria, che delinea le modalità comunicative, verbali e non verbali, delle emozioni; e) soggettiva, relativa alla riflessione e al monitoraggio dell’esperienza emotiva. 51-TEORIE DELL'INTELLIGENZA Quando si parla di intelligenza tutti capiscono di che cosa si tratta, anche se poi entrano subito in contrasto se sono richiesti di dare una definizione precisa. Soprattutto le discordanze affiorano quando si cerca di definire i confini e le origini. L'origine dell'intelligenza può essere attribuita all'ereditarietà oppure all'ambiente culturale. Come avviene in molti altri concetti, vi è un nucleo centrale di caratteristiche che tutti attribuiscono all'intelligenza (per esempio la capacità di ragonamento, la soluzione di problemi), mentre i margini sono più o meno sfocati con caratteristiche che appartengono a elementi isolati o, meglio riconosciuti da alcuni, come le capacità emozionali e pratiche, le abilità corporee; le differenze di definizione nascono anche dal fatto che il problema è stato affrontato di volta in volta da scienze diverse. Nella prima metà del secolo scorso i metodi psicometrici per la valutazione dell'intelligenza sono stati usati ampiamente soprattutto negli Stati Uniti, estendendosi poi all'Europa. La sofisticazione crescnete dei metodi di analisi statistica hanno portato a dubbi e revisioni sostanziali anche tra i sostenitori del modello pragmatico, secondo i quali l'intelligenza sarebbe ciò che misurano i test d'intelligenza: in altri termini noi non potremmo conoscerla o definirla nella sua essenza, ma solo rilevarne delle manifestazioni in certi contesti. Anche questa concezione limitativa, che permetteva però molte applicazioni pratiche, ha subito moltissime critiche e revisioni sia dall'interno sia dall'esterno. Dopo gli anni Sessanta con la diffusione del cognitivismo, dell'informatica e dei metodi computazionali che mirano a studiare i processi mentali piuttosto che i risultati, la psicologia ha lasciato l'uso dei test alle applicazioni pratiche mentre la ricerca si è orientata sull'analisi molto fine delle componenti cognitive durante lo svolgimento di compiti in cui si possono controllare le variabili,, facendo inferenze sui processi che si svolgono nella mente. Infine il confronto con le scoperte della biologia, della genetica e delle neuroscienze, che negli ultimi trant'anni hanno avuto uno sviluppo impressionante, comincia a far intravedere le basi delle varie forme di intelligenza e ha permesso di osservare (almeno in parte) il loro funzionamento. Analogamente ad altri problemi della scienza, quello dell'intelligenza viene trattato ormai da studiosi di varie discipline che forniscono conferme di aspetti studiati dagli psicologi a volte in modo prevalente o parziale e troppo presto allargati a modelli di spiegazione o teorie generali: così le scoperte sulle reti neurali, sulla plasticità cerebrale, sui meccanismi molecolari e cellulari che sottostanno all'apprendimento, alla memoria, al linguaggio permettono di chiarire meglio come funzionano i processi cognitivi negli animali, nell'uomo e nelle macchine mostrando i nessi tra struttura e funzione. Le scoperte della genetica danno un contributo insostituibile alla controversia tra eredità e ambiente: la riproduzione degli individui più adatti ad affrontare i cambiamenti dell'ambiente e del clima avrebbe favorito la specializzazione delle aree cerebrali su cui si fondano la molteplicità dei tipi di intelligenza e l'uso del linguaggio. Per avere un'idea della complessità dei problemi relativi alla natura e alla valutazione dell'intelligenza in campo psicologico e del modo con cui sono stati affrontati, può essere utile riportare la classificazione presentata da Sternberg nel suo libro Metaphors of Mind (1990), in cui cerca di mostrare che tutti i modelli hanno alcuni elementi positivi e alcune lacune. Un primo punto in comune è la visione dell'intelligenza come adattamento all'ambiente, il focus sui processi di base (attenzione, percezione, capacità di apprendimento) e sui processi superiori (ragionamento, problem-solving, decisione); un altro è la tendenza degli ultimi anni a valorizzare il ruolo della cultura come complesso di conoscenze e di valori che influenzano il nostro modo di fare esperienza del mondo e di metterci in relazione con gli altri e come uso di strategie metacgnitive per controllare l'esecuzione dei compiti. Secondo Sternberg queste tendenze sono dovute soprattutto alla diffusione delle teorie cognitiviste e dei metodi computazionali, per cui l'accento si è spostato sui comportamenti che regolano i processi di pensiero più che sui risultati. La fonte di molte delle domande che gli studiosi si pongono è costruita da un modello o da una metafora che guida la teoria o la ricerca. Una comprensione delle metafore più o meno esplicite che hanno generato le varie teorie dell'intelligenza permette anche di intravedere una certa unità e coerenza in questo campo che a prima vista sembra così eterogeneo. Sternberg distingue sei metafore: 6) la metafora geografica è rappresentata dalle descrizioni fattoriali che forniscono varie mappe, più o meno articolate, dell'intelligenza; 7) la metafora computazionale vede la mente come un computer e le operazioni intellettuali come processi d'elaborazione delle informazioni (in oratica invece di ricercare le unità strutturali di base, come nei modelli fattoriali, si analizzano i processi di codifica, conservazione e trasformazione degli input fisici e sensoriali); 8) la metafora biologica cerca di spiegare l'intelligenza in base al funzionamento del cervello, indicando le aree in cui si localizzano i diversi processi e utilizzando vari indici elettrofisiologici; 9) la metafora epistemologica ricerca la genesi della struttura cognitiva; 10) la metafora antropologica e 6) sociologica centrano l'attenzione sulle varie forme e sugli effetti che condizionano l'esperienza nel favorire od ostacolare lo sviluppo. A queste sei metafore, Sternberg aggiunge, un po' artificiosamente, la metafora sistemica, che mette l'accento sull'interazione dei vari sistemi o tipi d'intelligenza: questa posizione (che è anche la sua oltre che di Gardner) riassume tutte le altre e sembra per ora la più completa, perchè considera l'individuo in relazione al suo mondo interno ed esterno, ma rischia anche di diventare troppo larga e confusa, includendo nell'intelligenza tutti gli aspetti delle emozioni e delle motivazioni. Il principio generale su cui si basa l'analisi fattoriale è semplice, e si può applicare tanto a dati biologici quanto a dati psicologici. Il valore numerico che indica la relazione tra due test si chiama coefficiente di correlazione (r) e permette di apprezzare quantitativamente il legame tra le misure considerate, ma naturalmente non ci dice nulla sulla natura di questo legame. I fattori sono dunque entità matematiche a valore esplicativo, a cui solo in un secondo tempo si attribuisce un significato psicologico. Nel caso dell'intelligenza si parte dalle misurazioni empiriche con test su un largo numero di soggetti e, in base alle correlazioni trovate, si procede a calcolare la composizione fattoriale e infine si cerca di interpretare i fattori attribuendo loro un significato. Le prime ricerche hanno messo in luce tre tipi di fattori: uno generale, che si trova in misura maggiore o minore in tutti i test, altri di gruppo, che sono presenti in alcuni test affini per contenuto (linguaggio, ragionamento...), altri ancora specifici, che sono presenti solo in un test (ortografico). La scuola inglese preferisce spiegare i risultati delle prove con un fattore generale di intelligenza: il fattore G di Spearman. La scuola americana ha abbandonato il tentativo di rintracciare un fattore generale sviluppando metodi per l'analisi fattoriale multipla e sostenendo l'ipotesi delle abilità mentali primarie (Thurstone, 1938). I modelli più recenti, come quelli di Guilford e Cattel, cercano di superare il livello puramente descrittivo e cercano di raggiungere quello esplicativo: Guilford (1956) descrive una struttura dell'intelligenza in base alla combinazione di tre dimensioni (operazioni, contenuti e prodotti), ma le abilità che ne risultano e le prove per misurarle sono troppe (120!); Cattell (1982) presenta il modello dell'intelligenza fluida e cristallizzata, distinguendo l'abilità potenziale, derivata dalla caratteristiche genetiche, dalla sua realizzazione ottenuta attraverso l'interazione con l'ambiente. Una critica mossa agli approcci fattoriali riguarda la modalità di indagine, infatti per comprendere il funzionamento della mente di un individuo, non ci basta esaminarne i prodotti ultimi (soluzioni di problemi scolastici o risposte ai test), ma dovremo esaminare la genesi delle strutture intellettuali e l'influenza su di esse dei fattori affettivi e ambientali. Il contributo di Piaget alla psicologia e in particolare allo studio dell'intelligenza è enorme: dal punto di vista del metodo perchè introduce l'osservazione del caso individuale secondo un modello interpretativo che permette di dare una spiegazione dei cambiamenti qualitativi del pensiero del bambino, osservato in ambiente naturale, ma in situazioni quasi sperimentali; dal punto di vista dei risultati perchè ci ha descritto con precisione gli stadi con cui compaiono e si sviluppano le operazioni generali di pensiero. Lo sviluppo dell'intelligenza del bambino nel bambino è visto dunque come un processo costruttivo epigenetico che parte dal livello biologico e arriva a quello logico. Per Piaget l'intelligenza è un caso particolare dell'adattamento biologico, di cui però trascende le limitazioni imposte della struttura: infatti vi sono delle funzioni del pensiero costanti (invarianti funzionali) che si manifestano in strutture diverse e rientrano nel quadro delle funzioni più generali, l'organizzazione e l'adattamento. Quest'ultimo risulta da un equilibrio tra organismo e ambiente ottenuto attraverso processi di assimilazione e accomodamento. Il concetto chiave è lo schema, che comprende una classe di azioni o una sequenza di comportamento, partendo dai semplici riflessi del neonato, sviluppandosi poi in schemi psicomotori e in operazioni sempre più complesse che arrivano fino alle operazioni logico-concrete e poi a quelle formali. L'attività del pensiero nasce dal bisogno di funzionamento degli schemi innati che si modificano nel contatto con l'esperienza. Le operazioni mentali, anche le più astratte, si sviluppano dalle operazioni concrete. La teoria piagetiana si può definire quindi come una teoria costruttivista, che descrive la nascita dell'intelligenza come un'interazione continua fra i processi interni e i fattori esogeni ambientali: la molla dell'apprendimento non è il rinforzo esterno, ma un meccanismo di equilibrazione continua che modifica gli schemi innati. Un eccessivo peso attribuito all'ambiente negli anni Sessanta, ha portato ha sottolineare l'importanza delle componenti genetiche dell'intelligenza. L'approfondimento del problema da parte dei genetisti, degli psicologi e dei neurobiologi ha portato oggi a metodi più rigorosi e a risultati largamente condivisi. Tra queste ricerche è doveroso ricordare per l'importanza e per la vastità dei dati raccolti il Colorado Adoption Project, diretto da Plomin che lo iniziò nel 1975: si proponeva di i figli biologici di 250 famiglie naturali e quelli adottati da altre 250 famiglie, confrontando anche i rispettivi fratelli, sorelle e genitori. Alcuni risultati si posso considerare acquisiti: le differenze individuali si mantengono non solo durante l'infanzia, ma fino all'età adulta e sono causati da un'interazione di fattori genetici e fattori ambientali. I fattori genetici non devono essere intesi come caratteri immutabili perchè sono suscettibili all'azione di fattori ambientali pre-, peri- e postnatali.; inoltre essi non sono fissi e determinati dalla nascita, ma si riferiscono a un programma che interagisce con l'ambiente e si sviluppa con l'età. Per ambiente si deve intendere, secondo Plomin, tutto ciò che non è genetico, ma può includere anche fattori biologici (come l'anossia alla nascita) oltre a fattori culturali e sociali. I risultati del Colorado Adopted Project hanno permesso di formulare alcune ipotesi sull'influenza natura-cultura: – il peso dell'ereditarietà e dell'ambiente varia con l'età, e le differenti abilità hanno spesso periodi critici diversi, in cui l'influenza dell'ambiente è determinante; – l'influenza dell'ambiente è massima nella specie umana, che ha un lungo periodo di sviluppo e richiede molte cure parentali; – l'ambiente non agisce più solo come ostacolo o limite della potenzialità ereditaria, ma anche in modo interattivo, modificando e arricchendo gli schemi delle risposte innate; – l'adattamento ha una doppia direzione, perchè anche il soggetto tende a modificare e scegliere il suo ambiente. Gli studi più recenti della personalità parlano non più di tratti ereditari, ma di programmi filogenetici che si attivano nelle situazioni ambientali più o meno favorevoli. Vygotsky fu il primo a formulare una teoria dello sviluppo delle funzioni mentali superiori basate sulle influenze culturali che si esprimono soprattutto nella mediazione linguistica esercitata dall'adulto. L'inizio della psicologia storico-culturale, che cerca di spiegare lo sviluppo psicologico individuale partendo dalle dimensioni storico-culturali del contesto, attuale e passato, e osservando i rapporti della filogenesi umana con l'evoluzione della specie. Ciò che differenzia l'uomo dagli animali è la capacità di creare sistemi di segnalazione artificiale e di modificarne la natura: il linguaggio è un grandioso esempio di segnalazione. Rispetto ad altri autori che hanno sottolineato l'importanza dei fattori sociali nello sviluppo dell'intelligenza, Vygotsky è quello con la posizione più radicale: infatti per lui lo sviluppo stesso dipende dall'apprendimento e dall'educazione, e il passaggio dalle funzioni più elementari ai processi psichici superiori avviene attraverso la mediazione culturale. Dal punto di vista teorico l'apporto più organico a questi sviluppi è stato dato da Bruner, il quale si può considerare con Vygotsky, il fondatore della psicologia culturale. Egli afferma con forza l'importanza della cultura nell'orientare lo sviluppo individuale attraverso l'acquisizione di significati in un certo contesto storico-culturale e attraverso la comunicazione sociale in determinate situazioni. Bruner fu uno dei primi a osservare che il bambino quando ancora non parla, possiede già molti modi di comunicare con la madre e gli altri, di esprimere le sue intenzioni, i suoi bisogni, i suoi stati emotivi, e mostra una straordinaria competenza sociale nell'influenzare gli altri. Nello stesso tempo il bambino mostra una grande capacità di apprendere attraverso l'imitazione del modello adulto: ma il processo non è un'imitazione passiva, bensì l'espressione di una dinamica interattiva, bidirezionale. Vi è quindi una costruzione condivisa della rappresentazione del mondo fisico e delle regole sociali, che viene ordinate e conservata dalle strutture narrative (frames) con cui gli adulti aiutano i bambini a ricordare le sue esperienza, a dar loro un significato, inserirlo in un contesto culturale. Il pensiero narrativo organizza gli elementi episodici in prototipi, in copioni (scripts) caratteristici di certe situazioni, che hanno valore universale in quanto risultano da una serie di azioni, sentimenti, intenzioni comuni che permettono al bambino di prevedere certi esiti e regolare il suo comportamento. Uno spostamento verso modelli che consentono di comprendere e valutare meglio i processi d'intelligenza, si ha con Sternberg e Gardner, i quali propongono dei modelli molto complessi, che tengono conto delle interazioni tra sistemi cognitivi, affettivi e culturali basandosi su una serie di esperienze di tipo cognitivista, ma anche sui risultati delle produzioni intellettuali, sull'osservazione approfondita e a volte longitudinale dei casi singoli, e infine sui risultati precedenti delle ricerche psicometriche sulla valutazione Analogamente anche alcuni risultati ottenuti con il paradigma dell'accuratezza mostrano un'analoga dicotomia: in certi casi il numero di risposte corrette cresce lentamente al crescere del valore della SOA, mentre in altri la percentuale raggiunge pressoché immediatamente i valori massimi anche con valori della SOA molto piccoli. Negli anni Settanta e Ottanta questi risultati furono interpretati come indicanti l'esistenza di due tipi di ricerca attentiva: seriale (cioè un item alla volta) e parallela (cioè tutti gli item contemporaneamente). Infatti nel caso di una ricerca seriale il tempo di reazione dovrebbe aumentare all'aumentare del numero di item. Nel caso di una ricerca parallela, invece, il tempo di reazione non dipenderebbe dal numero degli item e men che meno dal valore della SOA. Chi più di ogni altro ha favorito questo tipo di interpretazione è stata la Treisman che, nel corso degli anni Settanta, ha avanzato, per spiegare questi dati, una fondamentale ipotesi: una ricerca attentiva di tipo parallelo si verificherebbe in tutti i casi in cui i target sono definiti da un'unica caratteristica elementare (come ad esempio il colore), mentre in tutti gli altri casi (come, ad esempio, quando il target è costituito dalla congiunzione di più caratteristiche) si verificherebbe una ricerca attentiva di tipo seriale. Su questa ipotesi la Treisman ha poi fondato la sua Feauture Integration Theory, che spiega come il sistema percettivo integri le stimolazione elementari in modo da percepire singoli oggetti nei compiti di ricerca attentiva. Secondo la Feauture Integration Theory, il sistema attentivo sarebbe dotato di una serie di rilevatori di caratteristiche elementari di base nei pattern di stimolazione. Questi rilevatori che formano il sistema pre-attentivo, si attiverebbero simultaneamente e in parallelo in corrispondenza della presentazione dei pattern, costruendo una mappa specifica per ciascun rilevatore, nella quale sono contrassegnate le locazioni spaziali, entro il pattern di stimolazione, in cui è presente la caratteristica elementare cui il rilevatore stesso è sensibile. Così nel caso di target contraddistinti da una sola caratteristica elementare, il processo di ricerca terminerebbe già in questa prima fase e avrebbe quindi solo una natura di tipo parallelo. Nel caso invece di target definiti da congiunzioni di più caratteristiche elementari, entrerebbe in gioco un processo di integrazione delle caratteristiche, basato su un confronto delle diverse mappe prodotte dai diversi rilevatori e su una ricerca di tipo seriale per trovare in quali locazioni spaziali siano contemporaneamente presenti tutte le caratteristiche che definiscono il pattern. Tale teoria solleva più problemi di quanti in realtà non ne risolva, tuttavia ha generato un grande interesse negli ultimi vent'anni di un elevato numero di ricerche sui processi attentivi. 53-PRINCIPI FONDAMENTALI METODO SPERIMENTALE Normalmente il metodo scientifico parte da un opportuno insieme di osservazioni compiute sui fenomeni, dalle quali, spesso con l’aiuto della statistica induttiva, si cerca di ricavare delle regolarita’ di tipo generale. Queste ultime sono la base su cui proporre ipotesi, modelli o teorie. In questa prima fase si usa un procedimento logico chiamato induzione, che, a partire da un certo numero di fatti particolari, cerca di ricavare delle leggi di carattere generale. Tale procedimento non e’ mai una garanzia assoluta di attendibilita’, anche se si serve dei metodi della statistica. per questo motivo la formulazione di ipotesi, modelli o teorie rimane sempre un atto di libera scelta da parte del ricercatore, che se ne deve assumere la responsabilita’. In alcuni casi particolari lo sperimentatore puo’ mettere alla prova le ipotesi e i modelli che ha formulato, ricorrendo ad un altro procedimento logico chiamato abduzione. Esso consente di stabilire quale, tra vari modelli o ipotesi formulate, e’ il piu’ adatto a spiegare certi fatti osservati. In tempi recenti la statistica ha sviluppato vari metodi che consentono di implementare direttamente questo tipo di procedimento (abduzione). come le tecniche di analisi multivariata, Le equazioni strutturali, le reti neurali,…queste servono a fornire al ricercatore ulteriori argomenti a favore delle libere scelte teoriche che egli ha effettuato. quindi, le scelte effettuate dal ricercatore possono essere di molti tipi: in alcuni casi egli formula delle semplici ipotesi relative all’esistenza di una relazione qualitativa tra alcune grandezze misurate o valutate nelle sue osservazioni (es. le persone depresse sono anche ansiose). In altri casi egli formula delle ipotesi su precise relazioni quantitative tra grandezze misurate (es. l’ansia causa la depressione), in altri casi ancora egli costruisce un modello che spiega una particolare categoria di osservazioni compiute in certe condizioni specifiche, ricorrendo a relazioni quantitative non solo tra le grandezze misurate, ma anche tra altre grandezze, che lui non e’ in grado di osservare, ma di cui suppone l’esistenza. tali grandezze nel modello sono delle costruzioni concettuali del tutto gratuite, prodotte dal ricercatore per spiegare i fatti osservati. esse si chiamano costrutti ipotetici. Infine, nei casi piu’ complessi il ricercatore costruisce una teoria, basata su principi generali di carattere quasi filosofico, dalla quale, spesso con procedimenti matematici assai sofisticati, e’ possibile ricavare, specificando ulteriori condizioni, dei modelli particolari. una teoria e’ uno strumento concettuale molto potente, perche’ permette di spiegare tramite pochi principi generali un grande numero di osservazioni compiute in condizioni molto differenti. Tuttavia e’ molto difficile da gestire perche’ richiede strumenti matematici assai complessi. Non tutte le scelte precedenti sono sempre possibili, specie nel dominio della psicologia scientifica. mentre nel caso della fisica si e’ sempre arrivati alla costruzione di teorie, Spesso in psicologia si e’ costretti a limitarsi a ipotesi di carattere qualitativo sulle relazioni tra grandezze. Tuttavia, in alcuni domini, come la memoria, l’attenzione, la percezione, la soluzione di problemi, l’apprendimento, si e’ gia’ pervenuti alla costruzione di modelli. Il passo successivo del metodo scientifico richiede un procedimento logico chiamato deduzione, che, da ipotesi o leggi di carattere generale, consente di ricavare conseguenze particolari, osservabili sperimentalmente. L’osservazione sperimentale si basa sull’uso del metodo sperimentale, che richiede: L’individuazione di una grandezza manipolabile dallo sperimentatore, la cosiddetta variabile indipendente, l’individuazione di una grandezza da monitorare o misurare, la cosiddetta variabile dipendente, le variabili indipendenti vanno controllate per capire quali sono i reali effetti sulla variabile dipendente. Per far questo, il luogo migliore per effettuare esperimenti e’ il laboratorio, in cui le condizioni sono differenti da quelle della vita quotidiana, dove possono intervenire influenze di vario genere. In riferimento all’esempio precedente, la variabile indipendente e’ l’azione del farmaco. mentre quella dipendente e’ l’umore. L’esperimento deve essere costruito in maniera tale che possa essere ripetuto da me o da altri ricercatori. Il fatto che l’osservazione, effettuata tramite il metodo sperimentale, confermi le aspettative della teoria, non implica affatto che la teoria sia da considerarsi provata. occorre procedere sempre a nuove osservazioni e a nuove verifiche della teoria. In effetti, una teoria non può mai essere provata in base alle sole verifiche sperimentali, può, invece, essere falsificata: un solo esperimento che non confermi le previsioni teoriche e’ sufficiente per farlo. Lo scopo degli esperimenti, quindi, non e’ tanto quello di verificare le teorie, quanto di falsificarle. Nel caso in cui un esperimento falsifichi una teoria, si possono seguire diverse strategie, anche contemporaneamente, dato che non si escludono a vicenda. procedere a nuove osservazioni modificare le ipotesi teoriche controllare se il procedimento di deduzione delle conseguenze sperimentali dalle ipotesi fatte era effettivamente corretto. L'utilizzo del metodo sperimentale in psicologia e’ stato fortemente criticato da una corrente di pensiero, nota come approccio ecologico. Il suo principale rappresentante e’ lo psicologo statunitense (di origini tedesche) Ulric Neisser. Tale corrente, nata negli anni ottanta, afferma che il metodo sperimentale non fornisce alcuna informazione utile per capire i comportamenti degli esseri umani nelle situazioni della vita quotidiana. Infatti l’ambiente del laboratorio differisce talmente da quello della vita quotidiana da rendere inattendibili i risultati ottenuti negli esperimenti di laboratorio. In particolare questi ultimi eliminano un gran numero di variabili che nella vita quotidiana, invece, hanno una grande influenza diventa assai difficile conciliare l’approccio ecologico con le esigenze della psicologia scientifica. Tuttavia questa conciliazione diventa necessaria se si vogliono affrontare scientificamente particolari campi di studio, come la memoria autobiografica, la testimonianza giudiziaria, l’utilizzo dei concetti, l’apprendimento scolastico, le interazioni uomo-computer. Come si raccolgono i dati sperimentali: - osservazione. cioe’ guardare quello che succede e prenderne nota. - osservazione quasi-sperimentale. cioe’ guardare quello che succede manipolando le variabili indipendenti che e’ possibile manipolare. - esperimento. dove posso manipolare a mio piacimento tutte le variabili sperimentali, in quanto sono io a creare le condizioni. - il test. cioe’ l’uso di una serie di domande standardizzate. - il colloquio. consiste in una serie di domande che lo sperimentatore fa per accertare fatti e condizioni quasi sempre oscure al soggetto. - l’indagine. consiste nella somministrazione di un questionario per studiare opinioni, atteggiamenti, stereotipi, ecc. 56-MODELLO DI HEBB E CROLLO DEL COMPORTAMENTISMO La storia della Scienza Cognitiva affonda le sue radici nella concezione meccanicistica. Nell'ambito di questa concezione, lo studio di ogni sistema viene effettuato considerandolo alla stregua di una macchina. In altri termini, note le parti e le loro interazioni, il sistema studiato è perfettamente compreso dal punto di vista sia della sua architettura che delle sue possibili dinamiche. La concezione meccanicistica ha consentito, quindi, la nascita della base ideologica di una psicologia che si riducesse unicamente a uno studio del comportamento osservabile. Una posizione del genere è stata fatta propria dal Behaviorismo che, fondato da Watson nel 1913, ha cercato in tutti i modi di costruire una scienza del comportamento esteriore che imitasse in tutto e per tutto la Meccanica Classica. Questa imitazione, per altro, non è riuscita per tutta una serie di ragioni, la principale delle quali è che, mentre le situazioni di cui si occupa la Meccanica Classica sono tramite un piccolo numero di variabili fondamentali, le situazioni, anche le più semplici, che si incontrano nello studio del comportamento osservabile, richiederebbero, per una descrizione completa, un numero di variabili talmente grande da rendere impossibile l'osservazione e la misura di tutte quante. Bisogna, però, riconoscere al Comportamentismo l'indubbio vantaggio di aver introdotto una metodologia sperimentale rigorosa e raffinate tecniche statistiche di analisi dei dati, ma nel contempo ha dato luogo a generazioni di psicologi che hanno passato la loro vita solo ad accumulare una massa di informazioni, che nessuno ha mai collocato in un quadro teorico unitario. Tuttavia il contributo teorico dei Behavioristi non deve essere considerato nullo o trascurabile: lo studio approfondito dell'apprendimento come correlazione temporale tra stimolo e risposta. Per quanto riguarda il livello di analisi, si distingue tra teorie macroscopiche e teorie microscopiche. Le prime prendono in considerazione situazioni stimolo e situazioni di risposta a livello globale, cioè al livello della nostra comune capacità di osservazione, mentre le seconde suppongono che ogni situazione osservata sia a sua volta composta da elementi microscopici, di per se non facilmente osservabili, che costituiscono però, i veri oggetti di cui si deve occupare la teoria. I due approcci conducono a costrutti teorici assai differenti, anche nella spiegazione dello stesso fenomeno. Una seconda fonte di differenze sta nella natura delle associazioni alla base dell'apprendimento. Più precisamente, conviene distinguere tra teorie che postulano associazioni dirette tra stimoli e risposte e teorie che postulano associ indirette (o mediate). Infine, possono differire tra loro per ciò che riguarda la causa della modifica delle associazioni. Alcuni invocano l'esistenza di un rinforzo (positivo o negativo), altri aggiungono meccanismi di decadimento spontaneo delle associazioni stesse o di interferenza tra associazioni diverse, altri ancora parlano solo di contiguità temporale tra stimoli e risposte. Gli sviluppi scientifico-tecnologici innescati dalla seconda guerra mondiale, hanno avuto profonde ripercussioni anche nel campo della Psicologia. In particolare, hanno provocato il crollo della concezione Behavioristica, sostituita da una nuova concezione chiamata Cognitivismo o Human Information Processing Approach. Quando si parla di crollo del Behaviorismo, ci si riferisce ovviamente a un Behaviorismo estremista, che riduce ogni spiegazione del comportamento unicamente ad associazioni dirette tra stimoli e risposte osservabili. I contributi della Cibernetica e della Teoria dell'Informazione hanno introdotto un approccio completamente nuovo, in cui era possibile finalmente costruire modelli espliciti dell'influenza dei fattori “interni” sul comportamento osservabile. Il primo di questi modelli fu formulato dallo psicologo canadese Hebb nel 1949. Quest'ultimo era un behaviorista convinto, il cui scopo era quello di mostrare come le associazioni tra stimoli e risposte fossero mediate da tutta una serie di processi neurofisiologici interni, in linea di principio osservabili al pari degli stimoli e delle risposte. Hebb fu condotto a formulare un modello in cui le caratteristiche delle associazioni stimolo-risposta venivano a dipendere essenzialmente da quelle delle interconnesioni neuronali. Il concetto fondamentale del modello di Hebb è quello di assemblea cellulare, ovvero di un insieme di neuroni che hanno collegamenti reciproci di tipo privilegiato. Altro concetto chiave è l'efficacia sinaptica ovvero la probabilità che l'attivazione del neurone emettitore A provochi, dopo un tempo pari a quello necessario affinchè il suo segnale di uscita percorra la connessione (ritardo sinaptico), l'attivazione del neurone ricevitore B. Quando si parla di connessioni proìivilegiate si deve quindi intendere che si parla di connessioni con elevata efficacia sinaptica: eccitando un neurone appartenente a una data assemblea cellulare, si ha un'elevata probabilità che esso attivi altri neuroni della stessa assemblea. Naturalmente, occorre spiegare in che modo si formino i collegamenti privilegiati che caratterizzano una data assemblea cellulare. A questo scopo, Hebb propone la sua legge della facilitazione sinaptica , secondo la quale, ogni qualvolta l'attivazione del neurone emettitore A è immediatamente seguita, dopo un ritardo sinaptico, dall'attivazione del neurone ricevitore B, l'efficacia sinaptica della connessione che da A va verso B aumenta. Il fenomeno della facilitazione sinaptica consente la formazione di collegamenti privilegiati non solo tra singoli neuroni ma anche tra intere assemblee e tra assemblee di assemblee. Va osservato che il modello effettivamente costruito da Hebb non risponde affatto alle intenzioni originarie del suo costruttore. Infatti finisce per essere un modello ipotetico e talmente astratto da essere difficile da verificare sperimentalmente. I neuroni reali sono di tanti tipo differenti e svolgono funzioni differenti, mentre i neuroni hebbiani sono tutti simili tra loro. Va comunque ricordato che una delle ipotesi fondamentali di Hebb, quella della facilitazione sinaptica, ha ricevuto, in un certo modo, delle conferme sperimentali. Negli anni Settanta le ricerche di Bliiss Lømo e altri hanno evidenziato l'esistenza del fenomeno di potenziamento a lungo termine nella formazione ippocampale dei ratti. Il fenomeno del potenziamento, consiste nel fatto che, dopo aver aumentato per breve tempo la frequenza di stimolazione dei neuroni emettitori, i neuroni ricevitori tendevano ad avere un'eccitazione media superiore, a parità di segnale ricevuto, rispetto al periodo precedente l'aumento della frequenza di stimolazione. In altri termini, i neuroni recettori tendevano a diventare più sensibili all'ingresso dopo brevi periodi di forte stimolazione. Tuttavia tale effetto tendeva a diminuire man mano che il tempo trascorreva. La cosa interessante è che, però, tale decremento non giungeva mai a ridurre la sensibilità dei neuroni recettori agli stessi livelli precedenti la fase di aumento della frequenza di stimolazione. Questa sensibilità rimaneva sempre più elevata: in questo consiste il potenziamento a lungo termine. Il modello di Hebb ha avuto un considerevole successo perchè è riuscito a spiegare e a coordinare tra loro una vasta classe di fenomeni. In secondo luogo perchè ha indicato come costruire modelli generali dei processi interni che fossero sufficientemente generali da poter prevedere caratteristiche di processi cognitivi, senza per questo perdere completamente di vista gli aspetti neurofisiologici. Il modello di Hebb ha ispirato praticamente tutti i modelli subsimbolici basati sull'utilizzo di reti neurali. Non ha avuto invece un'influenza diretta immediata sulla costruzione di modelli simbolici dei processi cognitivi.