Scarica Psicologia Generale - Anolli, Legrenzi e più Sintesi del corso in PDF di Psicologia Generale solo su Docsity! 1 PSICOLOGIA GENERALE CAPITOLO 1: ORIGINI E SVILUPPI DELLA PSICOLOGIA SCIENTIFICA 1. PSICOLOGIA INGENUA E PSICOLOGIA SCIENTIFICA 1.1 Presupposti evolutivi della psicologia Sappiamo che è nata prima la biologia e poi la psicologia. Per la nostra specie, la storia che separa questi due mondi è iniziata con l’ominide Sahelanthropustchadensis, detto Toumai, nel deserto del Ciad, circa 7 milioni di anni fa. Fino ad allora, eravamo un gruppo unico di scimpanzé, con cui condividevano lo stesso genoma. Con Sahelanthropustchadensis il inizia la nostra separazione dagli scimpanzé. Dal confronto sistematico fra il nostro genoma e quello degli scimpanzé risulta che siamo diventati umani non per addizione (aggiungendo DNA nel nostro corredo genetico), bensì per sottrazione (eliminando “pezzi” di DNA, precisamente ne sono stati contati 510, rispetto a quello condiviso con gli scimpanzé). Non vi è una data precisa in cui far risalire gli albori della psicologia della nostra specie. Oggi, vi è una notevole concordanza nel ritenere che attorno a circa 100.000 anni fa la nostra specie sia diventata una specie simbolica, in grado di maneggiare simboli, intesi in senso generale come entità che rappresentano mentalmente altre entità. Capacità simboliche e abilità linguistiche, innestate su precedenti competenze di comunicazione non verbale (espressioni facciali, gesti, suoni) consentono agli umani di diventare una specie psicologica, in grado di riflettere sugli eventi in termini mentali. La psicologia ha un percorso remoto e affonda le sue radici nell’evoluzione dell’Homo Sapiens. Molto probabilmente lo sviluppo delle competenze psicologiche subisce un impulso circa 30-40.000 anni fa in virtù di un importante avanzamento tecnologico: manifattura di utensili, sculture, pitture rupestri. Nella stressa epoca, inoltre, arriva in Europa l’uomo di Cro-Magnon che inventò un calendario lunare. Queste sono le premesse per la rivoluzione del Neolitico, avvenuta circa 10.000 anni fa. In questo periodo assistiamo ad un incremento delle capacità psicologiche degli umani. È l’avvento dell’agricoltura, forse la più importante rivoluzione umana di tutti i tempi. Oggi la “cassetta degli attrezzi mentali” elaborati nel corso dell’evoluzione, è impegnata sia dalla psicologia ingenua, sia da quella scientifica. 1.2 Esperienza, psicologia del senso comune e scienze psicologiche Gli empiristi inglesi hanno affermato che ogni forma di conoscenza a nostra disposizione deriva dall’esperienza per il tramite delle sensazioni. Il termine “esperienza”, che deriva dal latino experiri(fare una prova); ha numerose accezioni: occorrenza di un particolare accadimento che ci tocca in prima persona, partecipazione a una serie di eventi come fonte di conoscenza e di apprendimenti, particolare competenza in un certo ambito, totalità delle competenze a propria disposizione. Qui parliamo di esperienza come la totalità delle singole esperienze. È l’enciclopedia delle conoscenze esplicite (formali) e implicite (tacite), accumulate nel corso del tempo, acquisite tramite il coinvolgimento personale nelle azioni (apprendimento individuale) e l’imitazione dei comportamenti altrui (apprendimento sociale e culturale). È la percezione di tutto ciò che accade. Locke aveva posto in evidenza che tutta la nostra conoscenza è fondata sull’esperienza, in quanto font delle informazioni acquisite attraverso le sensazioni. Le conoscenze acquisite tramite l’esperienza hanno un valore pragmatico: sono utili per prendere decisioni e agire in modo efficace in una situazione nei vari ambiti dell’esistenza. Consentono di elaborare teorie per spiegare il comportamento nostro e altrui. Sono teorie ingenue, fondate su conoscenze poco attendibili e valide. L’esperienza è un avvenimento personale, limitato nel tempo e nello spazio, soggetto ad errori e distorsioni. Le teorie ingenue applicata alla spiegazione della condotta umana conducono alla Psicologia del Senso Comune (o psicologia ingenua) . È una forma indispensabile di sapere che ci pone nella condizione di capire e 2 interpretare i comportamenti nostri e altrui grazie al ragionamento pratico. Consente di far fronte alle difficoltà, di intervenire nelle situazioni atipiche, di gestire circostanze complesse. Si estende a tutti gli ambiti dell’esperienza, fornendo una spiegazione. La psicologia fornisce conoscenze deboli e poco attendibili, prive di un fondamento rigoroso. Se facciamo affidamento solo di esse, corriamo un rischio elevato di commettere errori e di andare incontro a distorsioni. La ragione è semplice: le teorie della psicologia ingenua non sono di grado di accertare in modo collaudato le conoscenze che forniscono. La mancanza di controllo conduce a forme suggestive di sapere. Se introduciamo processi di verifica rigorosi, otteniamo conoscenze dotate di maggiore validità e attendibilità, di cui ci possiamo fidare. È la psicologia scientifica fondata sul metodo sperimentale, che offese una garanzia elevata sulla robustezza delle spiegazioni fornite. Come per altri tipi di sapere, anche per la psicologia occorre passare da una conoscenza ingenua a una scientifica. La psicologia scientifica, come ogni altra scienza naturale (fisica, chimica), si fonda sul sapere della psicologia ingenua. Fa scienza e sapere esiste un rapporto di continuità. Come conseguenza, la psicologia scientifica presenza un carattere di contingenza. È una comunità di studiosi che si trova d’accordo nell’impiegare certi modelli e nel fare ricorso a strumenti già presenti nell’esperienza quotidiana. Partita dal sapere psicologico del senso comune, la psicologia scientifica deve ritornare a esso. Occorre che le conoscenze della psicologia scientifica ritornino al livello del senso comune. È l’operazione di divulgazione scientifica che costituisce un vincolo per gli studiosi. La diffusione delle conoscenze scientifiche, non solo promuove la loro partecipazione, ma ha la potenzialità di favorire nuove forme di convivenza sociale. 1.3 PRESUPPOSTI MODERNI PER LA COMPARSA DELLA PSICOLOGIA SCIENTIFICA In età moderna, il termine psicologia (‘anima’+’discorso’= discorso sull’anima), appare in un poemetto di Marulic nel 1520. Però occorre attendere il Settecento, per parlare di psicologia nel senso attualmente inteso. Wolff opero la distinzione tra psicologia razionale e psicologia empirica. La prima, di natura filosofica, basata su riflessioni teoriche, fu messa in discussione da Kant; la seconda, naturalistica, fondata su osservazioni concrete, è stata la radice da cui è sorta la psicologia scientifica contemporanea come scienza naturale. Il contributo filosofico : la filosofia classica e quella moderna hanno fornito un contributo alla psicologia. Il primo trattato di psicologia risale a Arisotele, in cui vengono approfondite la memoria e la percezione. Ippocrate fornisce una prima classificazione della personalità. Erasistrato fu in grado di distinguere fa nervi sensoriali e nervi motori. Nel Medioevo, la riflessione sull’anima procedette in sede filosofica con la Scolastica, ma si arrestò ogni osservazione del fenomeno corporeo, poiché la religione cristiana vietò ogni studio anatomico è fisiologico. Kant, oltre a rifiutarel’accettabilità della psicologia razionale di impostazione cartesiana come componente della metafisica, aveva negato la possibilità di una psicologia empirica (dottrina empirica dell’anima) poiché la matematica non è applicabile ai fenomeni del senso intono e alle loro leggi. Non è concepibile misurare i fenomeni e i processi psichici. Fu individuato un parametro fisico idoneo a valutare il funzionamento mentale: il tempo. Verso la metà dell’Ottocento, von Helmholzfu in grado di misurare il tempo che intercorreva fra la stimolazione e la contrazione del nervo del cervello (la conduzione nervosa di un impulso viaggiava tra i 26,4 e i 27,25 metri al secondo). Donders avanzò critiche nei confronti dei metodi impiegati da Helmohlz, giudicati poco attendibili, e mise a punto il metodo della sottrazione per misurare i tempi di reazione nel loro complesso. Egli individuo tre tipi di tempi di reazione: - tempi a: tempi semplici: situazione in cui a uno stimolo deve seguire una risposta; - tempi b: tempi composti: al soggetto è somministrato uno stimolo in un insieme di due o più stimoli prefissati e gli viene richiesto di fornire risposte differenziare in funzione dello stimolo presentato; - tempi c: tempi composti: al soggetto è somministrato uno stimolo in un insieme di due o più stimoli prefissati ed è invitato a rispondere a uno solo degli stimoli presentati. 5 L’evoluzione degli organismi dipende dalla selezione naturale e dalla costrizione della nicchia. La prima concerna l’ereditarietà genetica, la seconda l’ereditarietà ecologica: l’evoluzione degli organismi è parzialmente determinata da fattori indipendenti dalla selezione naturale. L’evoluzione della specie rimane una traiettoria aperta e in continuo divenire. 3. REAZIONI ALLO STRUTTURALISMO IN EUROPA E NEGLI STATI UNITI 3.1 Dalla psicologia dell’atto alla scuola di Wurzburg Bretano sostiene che la mente è costituita da atti dotati di intenzionalità. L’atto di vedere è rivolto a qualcosa d’altro in modo vincolante e implica una qualche forma di interazione e scambio con l’ambiente. Questa tendenza, chiamata in-esistenza intenzionale, pone in evidenza come i contenuti dell’atto divedere, poiché esiste grazie a esso e dentro di esso. Gli atti mentali sono dotati d’intenzionalità, intesa come direzionalità verso qualcosa d’altro nell’interazione con l’ambiente. Implica l’idea di agente che ha coscienza dei fenomeni esterni e che causa (produce) in modo deliberato qualcosa fuori di lui (azione). Mentre la forza è il fondamento della causalità fisica, l’interazione è l’architrave della causalità psicologica. Gli atti mentali appaiono sempre unitari, mentre solo quelli fisici sono scomponibili. La prospettiva di Brentano trovò un’espressione più compiuta nella scuola di Graz, in cui lavorarono Meinong e von Ehrenfels. Quest’ultimo pose le vasi per la nascita della scuola di Gestalt attraverso lo studio della qualità figurale. Le figure percettive restano invarianti nella loro organizzazione pur al variare degli stimoli che le compongono (trasferibilità della forma). Von Ehrenfels osservò che nella percezione di una figura conta l’organizzazione della configurazione. Percepiamo, assai di più di quanto ci presentano gli stimoli. Tale evidenza condurrà al noto principio: “il tutto è più della somma delle singole parti”. Benussi si occupò a lungo della percezione, con particolare riferimento alle figure reversibili e alle illusioni ottico - geometriche. La loro percezione non solo è l’esito della ricezione e trasformazione di impulsi sensoriali, ma richiede processi sensoriali (indipendenti dallo stimolo), attraverso i quali il soggetto organizza la massa sensoriale. Nello stesso arco di anni Kulpe diede avvio, insieme a Marbe, alla SCUOLA DI WURZBURG. Kurpe riteneva che anche i processi mentali superiori (pensiero e ragionamento) potessero essere studiati in modo rigoroso con metodo simili a quelli con cui venivano studiati i processi sensoriali e percettivi. Facendo ricorso all’introspezione sperimentale sistematica, dichiarò di avere individuato il cosiddetto “pensiero senza immagini”. 3.2 Scuola della Gestalt Gli studi sulla percezione avviati dalla scuola di Graz furono approfonditi in modo sistematico dalla SCUOLA DELLA GESTALT, la più importante scuola di psicologia europea del secolo scorso. Essi si occuparno in modo prevalente dei processi cognitivi, con particolare riferimento alla percezione e al pensiero. Lewin estese i principi della Gestalt anche allo studio della personalità e di numerosi fenomeni sociali. Si fa coincidere l’inizio della scuola di Gestalt con la pubblicazione dei lavori di Wertheimer sul Movimento apparente. Successivamente Wertheimer enunciò le note Leggi della Gestalt, sottese all’organizzazione e unificazione degli stimoli. Il metodo cui la scuola della Gestalt ha fatto ricorso è originale e si distacca sia da quello introspettivo della scuola di Lipsia, sia da quello psicometrico del funzionalismo. È il metodo fenomenologico, che consiste nel definire il campo percettivo in cui il soggetto si trova e nel rilevare ciò che in esso gli appare. Per “campo percettivo” si intende l’insieme dei suoi percetti, ciò che vede, non ciò che sa o pensa di sapere. In tale 6 metodo è prestata attenzione a evitare l’errore dello stimolo: descrivere non ciò che vediamo (percetto) ma ciò che sappiamo (concetto). Accanto alla percezione, l’intelligenza, la soluzione di problemi (problem-solving) e l’apprendimento negli animali furono oggetto di studio da parte di Kohler. Wertheimer approfondì i fenomeni associati al pensiero produttivo in contrapposizione a quelli del pensiero riproduttivo, ponendo in evidenza le condizioni per lo sviluppo di un pensiero creativo. 3.3 Comportamentismo e neocomportamentismo Watson sostenne che la psicologia doveva essere una scienza rigorosa e oggettiva al pari delle altre scienze naturali (fisica, chimica, ecc.). occorreva passare dalla prospettiva mentalismo dell’introspezione allo studio di eventi osservabili da chiunque. Oggetto di studio della psicologia sono le manifestazioni del comportamento (comportamentismo). Il comportamento è inteso come insieme delle risposte muscolari o ghiandolari del’organismo in risposta a un dato stimolo. Lo stimolo è un dato fisico, la risposta è un dato fisiologico. Entrambi sono suscettibili di un’accurata rilevazione da parte di osservatori indipendenti in condizioni controllate. Considerando le associazioni stimolo – risposta (S-R), la psicologia assume il compito di occuparsi di come l’individuo agisca, adottando un orientamento descrittivo piuttosto che interpretativo. L’organismo è considerato alla stregua di una “scatola-nera” (black-box), al cui interno lo psicologo non può entrare. In ingresso (input) a questa scatola nera attivano gli stimoli ambientali S; in modo conseguente l’organismo emette delle risposte R in uscita (output). Lo psicologo comportamentista esamina le associazioni S-R, in particolare come il variare delle risposte (variabile dipendente) dipende dal variare dagli stimoli (variabile indipendente). Watson attribuì particolare importanza ai processi di apprendimento, atti a istituire nuove associazioni S-R in funzione dell’adattamento all’ambiente. Thorndike con l’apprendimento per prove ed errori e, prima ancora, Pavlov con il condizionamento classico. Questa linea di ricerca fu approfondita da Skinner, con il condizionamento operante, a partire dal comportamento operante, apparentemente spontaneo, distinto come tale dal comportamento rispondente, direttamente riferibile a una certa stimolazione. Con il suo rigido metodologico S-R, il comportamentismo iniziale rischiava di avviarsi su una strada sterile o povera. Negli anni successivi, un gruppo di comportamentisti, prendendo ispirazione del neopositivismo e dall’operazionismo, prese in considerazione anche variabili intermedie assieme a quelle S e R. in questa “età di teoria”. Hull introduce il principio della riduzione del bisogno che si esprime come spinta all’azione. La risposta comporta un ripido decremento dell’eccitazione corrispondente a un bisogno. Tolman, oltre ad esaminare il livello molecolare del comportamento, considera anche quello molare, nel suo insieme. Esso appare orientato al raggiungimento di uno scopo, ossia intenzionale, senza implicare la presenza di una mente consapevole. Esempio del topo nel labirinto. Gli anni Cinquanta segnano l’apice del comportamentismo. La causa del crollo sarebbe stato il cognitivismo. 4. COGNITIVISMO E INTELLIGENZA ARTIFICIALE 4.1 Le scienze cognitive A partire dagli anni Settanta, sono sorte le scienza cognitive che si sono prefissate il traguardo di capire di riprodurre una serie di operazioni che indichiamo come percepire, ragionare, calcolare, memorizzare, immaginare o progettare. Sono operazioni che ci consentono di conoscere il mondo in cui viviamo e di farne una mappa (cognitiva) attendibile. 7 Le scienze cognitive sorte negli Stati Uniti nel 1978 si sono sviluppare grazie alla comparsa delle nuove tecnologie digitali (computer) e delle nuove metodiche di neuro immagine. Craik diede avvio alla prospettiva del cognitivismo, proponendo l’immagine dell’uomo come elaboratore di informazioni. Un apporto rilevante alla nascita del cognitivismo venne fornito dall’analisi del processo di feedback applicato al funzionamento della mente umana secondo l’unita TOTE (text-operate-text-exit). Miller pose in evidenza i limiti della capacità di elaborazione delle informazioni. Sperling scoprì la memoria iconica, a brevissimo termine, con tempi di immagazzinamento compresi fra 100 e 500 ms. Newell e Simon affrontarono lo studio dei metodi euristici per la soluzioni di problemi. Oggetto di studio della psicologia cognitivista sono i processi di conoscenza: come gli individui elaborano le informazioni e costruiscono le rappresentazioni mentali utili per interagire con l’ambiente. 4.2. Intelligenza artificiale Il paradigma dell’intelligenza artificiale aveva lo scopo di indagare i processi computazionali della mente considerandolo come corrispondenti a quelli effettuati con i computer. In tali processi rientravano i calcoli, i confronti, le combinazioni logiche, le manipolazioni di simboli, le operazioni di misura, le graduatorie, l’adeguamento a regole prefissate. Hobbes aveva sostenuto che ragionare consiste nel fare calcoli. In questa prospettiva il computer considerato come un simulatore della mente umana. Come prerequisito fondamentale per arrivare a questo traguardo occorreva disporre di un’elaborazione digitale delle informazioni, poiché i processori dei computer sono in grado di elaborare solo in modo binario, con valore dicotomico 0 o 1. Il codice binario, inventato da Bacon e perfezionato da Leibniz, consente di eseguire e calcoli in base a pacchetti di regole e di istituzioni (programmi). È la teoria della computabilità: un insieme finito di elementi semplici può essere impiegato per costituire una varietà illimitata di processi complessi a livello mentale o digitale. Il cuore dell’IA è far fare alle macchine cose che richiederebbero l’intelligenza se fossero fatte dagli uomini. Il prototipo di tali macchine è la macchina di Turing: un dispositivo che consente di compiere numerose operazioni aritmetiche. Questo dispositivo può essere definito come intelligente se è dotato di capacità rappresentazioni. L’IA ritiene che un computer programmato correttamente possa essere dotato di un’intelligenza non distinguibile da quella umana. Esisterebbe uno stretto parallelismo fra mente e computer, secondo cui possiamo comprendere la mente solo se la riduciamo in modo cartesiano a pari meccanicistiche e materiali. L’IA sostiene che un computer possa giungere a simulare alcuni processi cognitivi umani, pur non riuscendo a riprodurli nella loro interezza. Il paradigma dell’IA ha subito molte critiche, ad esempio da Zadeh in riferimento a numerosi processi che risulteranno sfumati e imprecisi, continuamente variabili. 5. MODULARISMO, PSICOLOGIA EVOLUZIONISTICA E CONNESSIONISMO Fodor ha proposto una concezione forte della mente computazionale, governata dal LINGUAGGIO DELLA MENTE. Per Fodor è la combinazione di concetti semplici innati, intesi come entità univoche e chiuse, discrete e fisse, in grado di esprimere verità necessarie, elaborate secondo le regole logiche, attente solo alla forma (proprietà sintattiche), non ai contenuti (proprietà semantiche). Tali regole sono computazionali, sensibili solo alle proprietà formali delle rappresentazioni e “cieche di significato”. Nonostante questa “cecità semantica”, le regole logiche, indifferenti ai contenuti, hanno il pregio di conservare la verità delle premesse, poiché non portano mai da premesse vere a conclusioni false. 10 CAPITOLO 2: METODI DELLA RICERCA IN PSICOLOGIA 1. OGGETTO E METODO DELLA PSICOLOGIA SCIENTIFICA 1.1 Teoria e ingenua e teoria scientifica L’enciclopedia delle conoscenze psicologiche di cui dispone una persona in base alla propria esperienza costituisce la sua PSICOLOGIA INGENUA. È adeguata per vivere in pratica la nostra vita quotidiana, ma non per elaborare conoscenze esplicite, idonee a spiegare in modo attendibile i processi sottesi a un dato comportamenti. Per giungere a tale spiegazione, occorre elaborare una teoria, ovvero un insieme coerente di proposizioni (ipotesi, enunciati, ecc.) fondate su criteri espliciti, verificabili sul piano empirico tramite opportune operazioni, in grado di dare ragione di certe evenienze, delle regolarità osservate, nonché di fare previsioni attendibili sull’evoluzione dell’attuale stato di cose. Quel è differenza fra una teoria ingenua e una teoria scientifica anche nell’ambito psicologico? La differenza risiede nei metodi di controllo delle spiegazioni e nella capacità di impiegare criteri espliciti per acquisire conoscenze e fare previsioni. La psicologia scientifica adotta il metodo sperimentale, ignorato nella psicologia ingenua. Tale metodo è stato messo a punto nel Seicento per lo studio del mondo fisico da Netwon, inseguito da Galileo Galilei. Per Galileo il metodo sperimentale consiste nell0unione delle sensate esperienza con le necessarie dimostrazioni supportate dal contributo della matematica. Il metodo sperimentale consente di giungere a un livello soddisfacente di comprensione e spiegare delle cose mediante una connessione attendibile e valida fra teoria e fatti. Teoria e fatti non sono separati, ma fra loro vi è un rimando continuo che implica un intreccio originario fra oggetto (ciò che osservo) e metodo (il punto di vista e il modo con cui lo osservo). Un oggetto scientifico nasce quando un fenomeno è indagato secondo un certo metodo. 1.2 Percorso standard della ricerca in psicologia Ogni ricerca, per quanto originale possa essere, parte sempre da altre ricerche e si fonda su una piattaforma di conoscenze, competenze e apprendimenti compiuti dai ricercatori precedenti. La domanda di ricerca conduce alla definizione degli obiettivi che il ricercatore intende raggiungere con l’indagine. In un momento successivo, la domanda di ricerca va tradotta in ipotesi di ricerca, ovvero in enunciati provvisori che, sia pura in forma probabilistica, stabiliscono una relazione esplicita e accurata fra più fatti osservati. Le ipotesi di ricerca sono formulate in modo da essere verificate tramite operazioni sperimentali accurate e pertinenti. Le operazioni consistono in azioni documentabili, osservabili da più ricercatori indipendenti, rispettose dei criteri di protocollarità ammessi da una data scienza. Sono criteri specifici, in base ai quali ogni scienza decide sull’accettabilità o meno dei dati acquisiti mediante le operazioni compiute. Per esaminare la validità (o meno) delle ipotesi di ricerca, il ricercatore deve procedere alla loro verifica sperimentale. Non è possibile dimostrare sperimentalmente in modo diretto le ipotesi di ricerca, poiché in ogni operazione di misura commettiamo errori, dati i limiti intrinseci della nostra mente. Non abbiamo la certezza di dimostrare ciò che ipotizziamo. Per superare questo ostacolo gli scienziati hanno fatto ricorso a una via indiretta di verifica delle ipotesi. Essi si sentono autorizzati ad accettarla solo se riesco a dimostrare che le ipotesi opposta (ipotesi nulla) è falsa. La totalità dei risultati in base ai quali ci sentiamo giustificati a rigettare l’ipotesi nulla si chiama regione critica. Nel compiere questa operazione, gli scienziati sanno bene che corrono comunque un rischio di commettere errori per mancanza o eccesso di prudenza. 11 Precisate le ipotesi, occorre verificare la loro accettabilità facendo ricordo ad accurati esperimenti, condotti in condizioni di controllo. Essi sono organizzati e realizzati secondo la grammatica e la sintassi del metodo scientifico, che prevede il rispetto rigoroso di specifici standard. È necessario ottenere la partecipazione di soggetti che rispondano ai requisiti previsti dal ricercatore in riferimento a una serie di variabili (genere, età). Il gruppo dei soggetti sperimentali costituisce la fonte delle informazioni. I numerosi esperimenti è prevista la presenza di un gruppo di controllo per verificare l’entità degli scostamenti fra il comportamento “guidato” dei soggetti sperimentali e quello “naturale” dei soggetti di controllo. I soggetti sono invitati a eseguire una serie di operazioni (compito sperimentale) nel corso dell’esperimento in una condizione artificiale (laboratorio) o naturale (ambiente naturale). La prima garantisce un livello più elevato di controllo rigoroso e fornisce protocolli dotati di una maggiore attendibilità psicometrica, ma la loro applicazione alle condizioni naturali non è esente da rischi e distorsioni. La seconda presenta un valore più alto di validità ecologica nel rispetto del comportamento spontaneo dei soggetti nel loto ambiente di appartenenza, ma vi è il pericolo di affidarsi a protocolli poco attendibili. In laboratorio abbiamo esperimenti guidati; nell’ambiente esperimenti naturali. I soggetti sono in grado di compiere le opportune azioni in riferimento agli stimoli sperimentali loro presentati. La presentazione degli stimoli avviene facendo ricorso a specifici strumenti che consentono sia la loro determinazione sia la loro misurazione al fine di ottenere i protocolli dell’esperimento. Esempio di situazioni sperimentali: Strange Situation per lo studio dell’attaccamento infantile (riferimenti ad “Attaccamenti multipli”, e still-face per l’analisi delle capacità emotive del bambino piccolo. Il ricercatore si serve del controllo di manipolazione che consiste nel verificare la coerenza e la congruenza fra gli obiettivi dell’esperimento, le istruzioni fornite e il comportamento dei soggetti sperimentali. Ogni partecipante produce comportamenti che sono riportati in uno specifico protocollo di ricerca. I dati ottenuti sono sottoposti a : elaborazione statistica descrittiva: consente di rappresentare in modo accurato e sintetico le caratteristiche numeriche dei fenomeni indagati in riferimento alle valibili considerate. elaborazione statistica inferenziale: impiega procedimenti probabilistici per formulare previsioni, stabilire una connessione fra due o più variabili, accertare un eventuale rapporta causa effetto fra la variabile dipendente e quella indipendente. Se i risultati della ricerca appaiono soddisfacenti e innovativi il ricercatore è interessato a documentare la sua ricerca e a comunicarla alla comunità degli studiosi con un’apposita pubblicazione (libro, rivista). 2. RICERCA PSICOLOGICA IN PRATICA 2.1 Spiegazione e principio di causalità Per noi umani spiegare le cose è una necessità. Se non riusciamo a raggiungere in qualche modo una spiegazione più o meno convincente di quanto succede, ci sentiamo persi. incoraggiati da questo vincolo, andiamo alla ricerca delle cause che possono causare accadimenti. Questo vincolo della mente umana (e non solo umana) entra in funzione nella nostra vita quotidiana e compare precocemente nel neonato. È l’illusione del potere esplicativo che promuove forme efficaci di adattamento attivo al nostro habitat. Tale illusione conduce al PRINCIPIO DI CAUSALITÀ (ricercare e capire le relazioni tra causa ed effetto), in grado di rispondere al perché si verificano certe connessioni fra due o più fenomeni. 12 Vi sono due tipi di causalità: fisica e psicologica. Tra di esse esistono profonde differenze. Il fondamento della causalità fisica è la forza, quello della causalità psicologica è l’intenzione. La contiguità temporale è necessaria per entrambe, mentre la contiguità spaziale, vincolante per la forza, non lo è per l’intenzione, che può essere manifestata anche a distanza. Per quest’ultima è indispensabile la presenza di un agente causale che in modo volontario avvii un’azione (concetto di “agentività”). L’esito di questa predisposizione mentale è la tendenza a ricercare e individuare la funzione (reale o presunta) contenuta al funzionamento di ogni entità naturale, oltre che quelle artificiali. Gli umani sono sistemi teleonomici, poiché avvertono l’esigenza di raggiungere uno scopo e di mettere in atto le funzioni indispensabili a tal fine. L’atteggiamento teleologico (finalistico) è dominante nei bambini. 2.2 Il metodo sperimentale 2.2.1 Le variabili Il compito del ricercatore è determinare il rapporto che esiste fra le variabili che osserva (es. genere). Occorre distinguere le: 1. Variabili indipendenti: sono controllate (“manipolate”) dallo scienziato; 2. Variabili dipendenti: variano in dipendenza delle variazioni delle prime. Il cuore del metodo sperimentale consiste nel manipolare una variabile indipendente per verificare l’effetto sulla variabile dipendente. Quando si dice che le variabili indipendenti sono “manipolate” dal ricercatore, si possono intendere due cose diverse. In un caso, può voler dire che egli produce i diversi valori della variabile indipendente; nell’altro caso i valori della variabile indipendente sono già esistenti e il ricercatore si limita a scegliere quali valori considerare. Le variabili estranee si dividono in: 1. Sistematiche (o confondenti): esercitano un’influenza costante e inseminabile sulla variabile dipendente. Pensiamo al fattore tempo, che riguarda le ricerche longitudini e quelle che prevedono misurazioni prima e dopo un certo trattamento. Le principali variabili confondenti di questo campo sono la maturazione e l’apprendimento. La prima comporta variazioni legate a fattori biologici; molte competenze, infatti, si sviluppano con la crescita fisiologica. La seconda si fonda sull’evidenza che tutti noi impariamo in continuazione in funzione della nostra esperienza. 2. Asistematiche: consistono in interferenze casuali imprevedibili. Sono infinite e variano da situazione a situazione: dalle condizioni mentali dei soggetti e del ricercatore alla condizioni atmosferiche. In tutti i casi, le variabili sono standardizzate per renderle univoche, esplicite e costanti. Il ricercatore raggiunge questa condizione tramite la loro operazionalizzazione: fornire una condizione operativa a ogni variabile. 2.2.2. La misurazione Le variabili, presentano valori diversi in termini quantitativi o qualitativi. Occorre la determinazione attraverso opportuni procedimenti di misurazione. Misurare significa mettere in relazione certe proprietà degli eventi con proprietà dei numeri reali e le misure derivate dai protocolli vanno formulate in modo esplicito e occorre che siano esclusive e esaustive. Stevens sostiene ch distinguere quattro livelli disposti fra loro in modo gerarchico. 1. Livello nominale. Una prima proprietà dei numeri reali è la cardinalità: le variabili presentano valori che indicano una differenza fra un evento e un altro. Per le variabili dicotomiche possiamo assegnare il valore 1 o 2. Per le variabili multiple basta estendere la gamma dei numeri da impiegare. In questo 15 validità. I soggetti possono fraintendere le domande, rispondere a caso, essere influenzati dalla desiderabilità sociale, fornire risposte ingannevoli. L’osservazione del comportamento è un metodo di indagine assai antico e testa tuttora valido come fonte inesauribile di informazioni. Concerne azioni manifeste e risposte registrabili. Per evitare un’esplorazione casuale,occorre seguire un piano predefinito di osservazione in base a una griglia codificata in riferimento a vari parametri. L’osservazione in laboratorio ha luogo in un ambiente protetto e controllato sia nei parametri fisici, sia nei comportamenti che il ricercatore intende osservare. Il vantaggio è quello di ottenere protocolli attendibili il limite consiste nella sua modesta validità iconologica. In laboratorio, si fa ricorso sempre più spesso a tecniche sofisticate di videoregistrazione digitale. Un cenno a parte a parte merita l’osservazione microanalitica oggi disponibile. È un’osservazione a grana finissima, persino microscopica. Grazie a programmi digitali assai avanzati, è possibile “osservare” (registrare) con il computer ogni 100 ms variazioni infinitesimali di movimenti. In tal modo è possibile “scoprire” movimenti invisibili a occhio nudo. L’elaborazione di questi protocolli conduce all’individuazione di modelli nascosti di comportamenti. L’osservazione naturalistica si svolge in ambienti naturali, ed è un metodo elettivo con specifiche tipologie di soggetti. Oggi, per la rilevazione del comportamento sono disponibili procedure che consentono di scoprire anche la presenza di modelli di nascosti di comportamento. In ogni interazione, anche della durata di pochi minuti, “succede troppo nello stesso tempo”. Eppure non è casuale, ma presenta modelli temporali che vanno considerati come manifestazione della sua struttura temporale reale. Il tempo, oltre a costituire una dimensione lineare per esaminare la successione degli eventi, consente di rilevare la loro durata, la loro ripetizione nel flusso dell’interazione, così come il ritmo con cui essi si svolgono e si organizzano. Grazie ad avanzate tecniche neuropsicologiche, oggi è possibile indagare con neuro immagini l’attività di specifiche regioni del cervello in associazione a specifiche operazioni mentali. L’oggetto delle neuroscienze cognitive è l’individuazione delle basi nervose dei processi mentali, al fine di indagare la relazione tra “fatti psichici” e “fatti cerebrali”. Il flusso ematico cerebrale regionale varia in funzione del livello di attivazione delle diverse regioni cerebrali: tanto più sono attive, quanto più sangue richiamano, poiché i neuroni che le compongono assumano una quantità maggiore di ossigeno, trasportato dal sangue. La risonanza magnetica funzionale consiste nell’impiego di neuroimmmagini a risonanza magnetica per valutare il livello di attivazione di una data regione cerebrale in concessione con specifiche attività cerebrali. Quanto maggiore è l’attività funzionale di una certa regione cerebrale, tanto maggiore sarà l’afflusso di sangue e tanto più elevato sarà il consumo di ossigeno trasportato dall’emoglobina dei globuli rossi. La fMRI è sostanzialmente una tecnica di localizzazione cerebrale: consente di individuare le regioni cerebrali attivate in corrispondenza di specifiche attività mentali. A livello metodologico la fMRI solleva alcuni interrogativi, essendo una tecnica altamente complessa. Dato che il cervello è sempre attivo, crea inevitabili interferenze nelle neuro immagini grezze, che vanno”trattate” per liminare le attivazioni non rilevanti per gli scopi dell’indagine. Occorre cautela nei confronti dei risultati ottenuti con la fMRI per i limiti. La stimolazione magnetica trans craniale è una tecnica non invasiva in grado di causare la depolarizzazione e l’iperpolarizzazione dei neuroni cerebrali. Elaborata da Barker e collaboratori, impiega l’induzione elettromagnetica per generare deboli correnti elettriche grazie a rapidi cambiamenti del campo magnetico: tale condizione produce un’attività in specifiche aree del cervello causando un disagio minimo e 16 consentendo di studiare il loro funzionamento e le interconnessioni cerebrali. La TMS consente di stabilire se ciascuna di esse ha una funzione causale nello svolgimento di determinate attività mentali. 2.3.2. Attendibilità e validità delle misure Una volta acquisiti i protocolli, occorre procedere alla loro misurazione in base ai livelli. L’obiettivo di questa operazione è disporre di un insieme di dati validi e degni di fiducia, da sottoporre a un’elaborazione statistica. Il ricercatore è interessato a ottenere misure dotate di un alto grado di attendibilità, intersa come possibilità di ottenere gli stessi risultati sia in prove ripetute (stabilità), sia con strumenti equivalente (equivalenza). La stabilità nel tempo è misurata con la tecnica test-retest, ripetendo la rilevazione sugli stessi soggetti a una distanza congrua di tempo. L’equivalenza è valutata tramite l’applicazione di due procedura diverse, ma assai simili fra loro. La validità esprime il livello di pertinenza con cui una prova riesce a misurare ciò che si popone di misurare. Riguarda i test, ma anche le misure self-report, le griglie di osservazione, le procedure sperimentali ecc. La validità può essere verificata sia mediante l’esame dei contenuti impiegati, sia mediante il grado di connessione con altre prove che misurano contenuti equivalenti. Abbiamo varie forme di validità: validità di contenuto, convergente, predittiva, concorrente. 2.4. Elaborazione dei dati Dopo aver raccolto i protocolli, il ricercatore ha il compito di elaborarli. Bisogna disporre i dati grezzi. Il ricercatore fa ricorso alla distribuzione delle frequenze, si registra quanti soggetti di ogni gruppo si distribuiscono nella gamma dei valori di una data variabile. Tale operazione va ripetuta per ogni variabile e per ciascun gruppo. Le distribuzioni delle frequenze possono essere rappresentante mediante grafici. Sulla base della distribuzione delle frequenze il ricercatore può procedere a descrivere in termini statistici i fenomeni osservati (statistica descrittiva), come pure a verificare l’ipotesi sperimentale e a fare le opportune induzioni (statistica inferenziale). 1. La statistica descrittiva fornisce un quadro sintetico dell’insieme dei dati grezzi ottenuti con le misure sia della tendenza centrale sia della variabilità. Le prime sono il centro di gravità dei fenomeni e consistono classicamente nella moda, mediana e media. Le seconde sintetizzano la dispersione dei dati, poiché il valore della prestazione di ogni soggetto, di solito, si discosta dal valore medio del gruppo. 2. La statistica inferenziale consente di verificare se sia possibile fare induzioni dai risultati ottenuti, al fine di convalidare l’ipotesi sperimentale e di fare delle previsioni. Mediante opportuni test statistici, il ricercatore è in grado di decidere se le differenze di un insieme di dati che si discostano dai valori medi registrati siano da attribuire in modo significativo alle variabili considerate oppure al caso. CAPITOLO 3 SENSAZIONE E PERCEZIONE 17 1. SENSAZIONE 1.1. Che cos’è la sensazione L’ambiente fisico in cui viviamo produce una varietà e una moltitudine di stimoli (particolari manifestazioni delle diverse forme di energia, come le radiazioni luminose o le onde sonore) che giungono ai nostri organi di senso. La sensazione può essere definita come l’impressione soggettiva, immediata e semplice che corrisponde a una data intensità dello stimolo fisico. Le sensazioni sono eventi privati e soggetti, le sensazioni possono essere comunicate agli altri e sono comprese. Avviene così un confronto fra le sensazioni proprie e quelle altrui. Nella grande maggioranza dei casi (anche se non in tutti) le sensazioni di un individuo sono simili a quelle di un altro, quando entrambi siano posti di fronte al medesimo stimolo e nelle medesime condizioni. Questa situazione di comunicabilità, comprensibilità e confrontabilità fra le sensazioni di diversi soggetti è dovuta a una relazione sistematica fra lo stimolo fisico e la sensazione medesima. Sono le relazioni psicofisiche, per cui a date configurazioni di stimoli fisici corrispondono determinate sensazioni sul piano psicologico. Esse costituiscono, una sorta di interfaccia fra la realtà esterna (fisica) e la realtà interna (mentale). Grazie ai suoi recettori nervosi, ogni modalità (o sistema) sensoriale è sensibile in modo definito alle manifestazioni e variazioni di una data forma di energia fisica. Qualsiasi stimolo deve raggiungere un livello minimo per suscitare una sensazione. Questo livello, chiamato soglia assoluta, segna il confine tra gli stimoli che vengono recepiti dall’organismo e gli stimoli, non sono avvertiti dall’individuo. La soglia assoluta è il valore di uno stimolo che nel 50% dei casi ha la probabilità di suscitare la sensazione corrispondente. Occorre distinguere fra la soglia assoluta iniziale e la soglia assoluta terminale. La variazione di intensità fra due stimoli della medesima natura deve essere elevata per essere colta dall’organismo. In questo caso parliamo di soglia differenziale, intesa come la differenza appena rilevabile è il valore della differenza appena rilevabile: è il valore della differenza minima fra due stimoli di diversa intensità che è rilevata nel 50% dei casi. 1.2. Misurazione della soglia Il termine psico-fisico significa che con essi si studia la relazione sistematica fra due variabili: da una parte la sensazione (di ordine soggettivo) e dall’altra la stimolazione (di ordine fisico). Metodo dei limiti. In questo procedimento, al soggetto sono presentate ripetutamente diverse serie di stimoli. Alcune partono da valori infraliminari e hanno un ordine ascendente nell’intensità degli stimoli, fino a quando si raggiunge un livello di intensità idoneo per suscitare in lui la sensazione corrispondente. Altre iniziano con stimoli sovraliminari e hanno un ordine discendente. Questo metodo non è esente da errori. Fra di essi, si può menzionare l’errore della direzione della serie (o errore di abitudine); i valori di soglia tendono a essere diversi a seconda che si inizi con una serie ascendente o discendete. Nel primo caso i valori liminari sono inferiori rispetto a quelli ottenuti con le serie discendenti per un fenomeno di inerzia e di abitudine psicologica. Metodo dell’aggiustamento. Si richiede al soggetto di “aggiustare” in modo continuo attraverso una manopola o un cursore il livello di intensità di uno stimolo, finché esso è in grado di suscitare in lui una risposta. Si parte da stimoli infraliminari (o sovra liminari) in modo simile al metodo dei limiti. Metodo degli stimoli costanti. Al fine di ottenere misurazioni più stabili e coerenti, nel metodo degli stimoli viene presentato al soggetto, in ordine casuale e, per diverse volte, un certo numero di stimoli che hanno differenti intensità. 20 attendibilità, di validità e di finezza discriminativa. È l’esito dell’interdipendenza fra le strutture nervose periferiche (organi di senso) e centrali (aree cerebrali) dell’organismo e l’esperienza in grado di influenzare tali strutture. È la convergenza fra l’insieme delle informazioni genetiche e l’apprendimento percettivo. 2.3. Principali teorie Teoria empiristica. Secondo l’interpretazione empiristica della percezione, proposta originariamente da von Helmhotz, le ripetute esperienze con la realtà ambientale e l’ apprendimento che ne consegue forniscono un contributo essenziale alla percezione degli oggetti. Per loro natura i dati sensoriali sono parcellari e danno origine a sensazioni elementari che sono integrate con altre informazioni e sintetizzare nella percezione dell’oggetto grazie ai meccanismi dell’associazione e dell’esperienza. Nell’adulto questi processi di associazione diventano molto rapidi e quasi automatici, poiché agiscono sotto forma di interferenza inconscia. La scuola della Gestalt. Nata in Germania all’inizio del novecento, si oppose in maniera decisa al principio empiristica dell’esperienza passata e sostenne fin da subito che la percezione non è preceduta da sensazioni, ma è un processo primario e immediato. La percezione non è dovuta al concorso di fattori estranei (associazioni), ma è data dall’organizzazione interna delle “forze” che si vengono a creare fra le diverse componenti di uno stimolo. Al pari del campo di forze elettromagnetiche, anche il campo percettivo si organizza attraverso la distribuzione dinamica delle forze generate dai vari aspetti dell’oggetto. Le parti di un campo percettivo costituiscono totalità coerenti e strutturate, come “figure” sullo sfondo, come oggetti reali dotati di proprie caratteristiche. Secondo la scuola della Gestalt va riservata un’importanza secondaria all’esperienza passata, che non influisce direttamente sui processi di organizzazione del campo fenomenico, ma che può influire sul loro funzionamento solo in particolari condizioni. La percezione costituisce, un processo primario che conduce alla segmentazione del campo fenomenico in “unità” distinte con le loro proprietà e relazioni evidenti. Gli psicologi della Gestalt, sostenevano la supremazia dell’organizzazione globale sulle parti. Movimento del New Look. Dopo la seconda guerra mondiale, sorse negli Stati Uniti il movimento del New Look, secondo cui l’organizzazione della percezione, oltre che da fattori intrinseci, dipende anche da altri processi mentali (bisogni, emozioni, aspettative). Bruner verificò che, i bambini di condizioni socioeconomiche disagiate percepivano come più grande la moneta da mezzo dollaro (stimolo dotato di alto valore) rispetto a un disco (neutro) di cartone delle medesime dimensioni. E’ una prospettiva funzionalità, poiché pone in evidenza le funzioni della percezione. Il soggetto, quando percepisce uno stimolo compie un’operazione di categorizzazione a partire da certi indizi, provvede all’identificazione e classificazione dello stimolo medesimo. Teoria iconologica di Gibson. Questa rigetta ogni interpretazione della percezione come se fosse un progressivo “arricchimento” delle informazioni sensoriali attraverso una serie di processi eterogenei (esperienza passata). Egli respinge altresì la tesi secondo cui la percezione è il risultato dell’attività cognitiva del soggetto percepente che “impone” la propria elaborazione e organizzazione alla costellazione degli stimoli. 21 Per Gibson, le informazioni percettive sono già contenute nella stimolazione così come essa si presenta al soggetto. La stimolazione offre un ordine intrinseco, dovuto alle reciproche relazioni fra i vari aspetti degli stimoli stessi. Teoria computazionale di Marr. Secondo Marr il soggetto codifica le immagini in funzione delle continue variazioni di intensità luminosa. L’attività percettiva è distinta in fasi successive: l’abbozzo primario, l’abbozzo a due dimensioni e mezzo e il modello tridimensionale. L’abbozzo primario è formato da linee, punti e barre sulla base degli scatti di luminosità dell’immagine ordinati in maniera gerarchica. Marr ritiene che il sistema visivo funzioni in base al riconoscimento e alla registrazione delle frequenze spaziali e sia dotato di cellule deputate alla rilevazione dei contorni precedendo in maniera ordinale: dalle cellule sensibili alle frequenze spaziali più basse a quelle sensibili alle frequenze più elevate. Marr distingue due sistemi di riferimento: 1. il primo è la posizione del punto di vista occupato dall’osservatore, 2. il secondo è il sistema astratto delle tre coordinate impiegate della geometria euclidea. 3. PRINCIPALI FENOMENI PERCETTIVI DELLA VISIONE 3.1. Organizzazione percettiva La nostra mente organizza l’attività percettiva così da cogliere gli oggetti in modo unitario e coerente. Questa segmentazione del flusso continuo delle stimolazioni consente a tutti noi di orientarci e muoverci correttamente nello spazio, di distinguere in modo appropriata gli oggetti gli uni dagli altri, di procedere agli opportuni confronti fra di essi individuando eguaglianza e differenze , nonché di fare previsioni attendibili sullo svolgimento futuro degli avvenimenti. La percezione visiva è resa possibile sia dalla presenza di energia luminosa, sia dall’informazione ottica proveniente dall’ambiente. La prima segmentazione del flusso delle stimolazioni consiste nell’articolazione figura-sfrondo. E’ un processo universale e costante come ha posto in evidenza Rubin, non c’è figura senza sfondo. La figura ha forma, mentre lo sfondo è amorfo e indifferenziato. Il contorno appartiene alla figura e non allo sfondo. La figura ha un’estensione definita, mentre lo sfondo continua dietro alla figura in maniera indeterminata. La figura appare in risalto rispetto allo sfondo. La figura ha un carattere oggettuale, mentre lo sfondo è meno distinto. Il rapporto figura-sfondo implica un’interdipendenza intrinseca fra stimolo e contesto. Diversi fattori sono alla base dell’articolazione figura-sfondo. Fra di essi: 1. Inclusione e parità di altre condizioni, diventa figura la regione inclusa; 2. Convessità:a parità delle altre condizioni, diventa figura la regione convessa rispetto a quella concava; 3. Area relativa: a parità delle altre condizioni, diventa figura la regione in cui essi sono orientati secondo le direzioni principali dello spazio percettivo. Quando questi fattori non riescono a intervenire, si creano le condizioni per ottenere le cosiddette figure reversibili: figure in cui si ha un’inversione tra la figura e lo sfondo. L’elemento che funge dapprima come figura è percepito in modo spontaneo in un secondo momento come sfondo. Sono configurazioni instabili e ambigue; siano in grado di percepire entrambe le figure. Questa molteplicità di percetti a fronte di un unico e identico stimolo è resa possibile dalla presenza di processi “sensoriali” che assegnano risalto a quanto è percepito come figura. 22 Tale fenomeno pone in evidenza come il sistema visivo sia dinamico, in grado di “calcolare” la soluzione migliore possibile quando due stimolazioni ambientali sono in equilibrio fra loro. Segmentazione del campo visivo. Nello studio dei fattori che determinano l’unificazione e l’organizzazione di elementi discreti in unità percettiva. Wertheimer pose in evidenza alcuni principi fondamentali, da lui esposti sotto forma di “leggi”. Per il fattore della somiglianza “a parità delle altre condizioni, si unificano gli elementi simili”. Secondo la legge del destino comune, “a parità delle condizioni, si unificano gli elementi che condividono lo stesso tipo e la medesima direzione di movimento”. La quarta legge, detta della buona direzione sostiene che “a parità delle altre condizioni, si unificano gli elementi che presentano continuità di direzione”. Secondo la legge della chiusura, “ a parità delle altre condizioni, vengono percepiti come unità gli elementi che tendono a chiudersi fra di loro”. Secondo la legge della pregnanza, sono preferite le configurazioni più semplici, regolari, simmetriche e stabili. 3.2. Percezione della profondità Lo spazio percettivo, al pari di quello fisico, possiede tre dimensioni. Gli oggetti che vediamo sono dotati di corporeità e sono disposti a diverse distanze da noi. Questa condizione ritenuta naturale e ovvia diventa problematica non appena si consideri proiettate sulla retina sono bidimensionali. Disperazione binoculare. Per rendere ragione della percezione della profondità e trimensionalità (stereoscopia), in un primo momento si sono studiati con attenzione degli indizi monoculari e binoculari, facendo ricorso ai meccanismi della convergenza e dell’accomodazione. Nel caso della convergenza, quando fissiamo un oggetto, gli occhi, che hanno una certa distanza fra loro, convergono di un determinato angolo, in modo che l’immagine dell’oggetto cada sulla forma di ciascun occhio. L’angolo della convergenza è più ampio quando l’oggetto è vicino rispetto a quando è lontano. Anche l’accomodazione del cristallino consente la messa a fuoco dell’oggetto e costituisce un’altra informazione per la profondità. Gradienti di densità micro strutturale. Accanto ai meccanismi binoculari, esistono importanti indizi monoculari che contribuiscono a spiegare il fenomeno percettivo della profondità e della distanza. Fra di essi un posto di rilievo assume la densità micro strutturale della stimolazione ambientale. Indizi pittorici della profondità. Esistono altri importanti indizi monoculari, detti indizi pittorici, per generare la percezione della profondità. Il cambiamento del movimento fornisce utili informazioni per la percezione della distanza, poiché gli oggetti si dispongono diversamente sulla retina in funzione del movimento dell’osservatore. 3.3. Costanze percettive Le stimolazioni prossimali cambiano in continuazione per forma, grandezza e intensità luminosa sia per le trasformazioni delle condizioni ambientali sia per le incessanti variazioni dei potenziali nervosi endogeni. Le costanze percettive sono processi in base ai quali gli individui percepiscono gli oggetti del mondo circostante come dotati di invarianza e stabilità, pur al continuo variare delle stimolazioni prossimali. E’ un processo percettivo fondamentale che non solo consente un grande risparmio di risorse psichiche, ma che favorisce altresì un’efficace adattamento agli oggetti, all’interno di un ambiente dotato di un elavato grado di stabilità di prevedibilità. 25 3. stimolo neutro (la freccia indica entrambe le posizioni). Gli stimoli che rispondono a interessi centrali (primari) sono catturati in modo assai più veloce e preciso rispetto a quelli associati a interessi periferici (secondari). Entrano in gioco conoscenze, credenze, interessi, emozioni, aspettative e scopi che abbiamo e pongono in azione importanti processo dall’alto verso il basso. Gli stimoli dotati di maggiore rilevanza emotiva (soprattutto quelli delle emozioni negative) “catturano” assai prima e in modo vincolante le risorse attentive rispetto a quelli neutri. Le emozioni trattengono l’attenzione nel tempo, rendendo difficile la sua distrazione e la sua applicazione ad altri stimoli. La rapidità della rilevazione degli stimoli assume un valore fondamentale in caso di emergenza. Elaborazione controllata ed elaborazione automatica. Nella rilevazione degli stimoli entrano in funzione processi sia di elaborazione controllata sia di elaborazione automatica. La prima è lenta e consapevole, richiede un notevole impegno e un rilevante partecipazione delle risorse attentive, è accompagnata da errori, non consente di svolgere altri compiti nello stesso tempo. Implica, un controllo diretto e continuo su quello che stiamo facendo. La seconda è rapida, non coinvolge la memoria a breve termine e non richiede risorse attentive, è sostanzialmente inconsapevole, difficile da modificare, permette di svolgere più compiti nello stesso tempo che sembrano procedere per conto loro, senza l’apparente controllo da parte del soggetto. 1.2. Selezione e ricerca degli stimoli In una condizione di vigilanza siamo in grado di discriminare e scegliere ciò che è rilevante in una data occasione rispetto a ciò che ci è indifferente. È l’attività grazie alla selezione, siamo in grado di impiegare al meglio le risorse cogniti vice limitate e modulare le nostre attività mentali in funzione della richiesta dei compiti da svolgere. E’ un dispositivo molto potente e flessibile, in grado di facilitare o inibire il processo di rilevazione degli stimoli, nel quale intervengono diverse aree cerebrali. Selezione come filtro. Secondo Broadbent l’attenzione è un filtro per selezionare le informazioni rilevanti per organismo, eliminando quelle superflue. Selezione precoce; gli stimoli irrilevanti sono filtrati e scartati, mentre solo i segnali pertinenti sono ammessi all’elaborazione successiva sulla base delle loro caratteristiche fisiche. Selezione come fascio di luce. Spesso vi è fatto ricorso alla metafora del fascio di luce per illustrare l’attività di selezione svolta dall’attenzione nei riguardi dell’ambiente. Essa sarebbe come una fascio luminoso che, illumina specifici aspetti della scena. Tuttavia, questa ipotesi non è stata verificata a livello sperimentale. Più che un fascio di luce, l’attenzione va intesa come un processo modulato, in grado di elaborare gli stimoli selezionati in modo dinamico con incrementi o decrementi progressivi di risorse in funzione sia delle esigenze degli individui, sia delle condizioni dell’ambiente. Selezione come ricerca degli stimoli. La differenza fra la ricerca disgiuntiva e quella congiuntiva è essa in evidenza dalla teoria , dell’integrazione delle caratteristiche. Se ricerchiamo un bersaglio in base a una sola caratteristica, basta fare riferimento solo a essa e la rilevazione procede in modo spedito, indipendentemente dal numero dei distruttori. Se ricerchiamo un bersaglio in relazione a due caratteristiche, occorre confrontarle in modo sistematico e incrociarle fra loro. Tale operazione richiede un dispendio assai più elevato di risorse attentive rispetto all’individuazione di un bersaglio semplice. 26 1.3. Competizione fra stimoli Attenzione focalizzata e attenzione divisa. L’attenzione focalizzata: la concentrazione su una fronte informativa conduce all’esclusione di ogni altra. L’attenzione divisa: prestiamo attenzione a entrambi gli stimoli, ma la loro elaborazione è parziale e mediocre per la quantità limitata delle risorse attentive e vi è un costo supplementare per assicurare accuratezza o efficienza nei tempi di reazione delle risposte. Interferenze di doppio compito. La condizione di deterioramento delle prestazioni è da attribuire a un’interferenza da doppio compito. Abbiamo due fonti di stimolazione di tipo diverso, in competizione fra loro. Dobbiamo procedere a selezionare in qualche modo il loro accesso alla nostra mente. Incapaci di gestire una quantità eccessiva di informazioni, ci troviamo in questa situazione quando i due compiti da eseguire nello stesso tempo condividono il medesimo canale di elaborazione. Tuttavia, non sempre il doppio compito è impossibile. Pensiamo alle attività di guidare l’auto e ascoltare la radio. Competizione semplice e competizione polarizzata. Nella competizione semplice lo stimolo che riceve la maggiore quantità di risorse per la sua salienza è analizzato in modo più dettagliato, ha l apriorità e conduce all’attenzione focalizzata. Tale competizione può essere influenzata altresì da altri sistemi cognitivi, soggetta a distorsioni in funzione sia delle caratteristiche dello stesso ambientale (esogeno), sia della sua pertinenza e rilevanza rispetto agli scopi e alle aspettative del soggetto (endogeno). A questo riguardo parliamo di competizione polarizzata. Emerge quando gli stimoli sono presentati simultaneamente anziché in serie, uno dopo l’altro. La competizione (semplice e polarizzata) pone in evidenza che l’attenzione, in grado di adattarsi in modo attivo a una gamma assai variegata di fenomeni. L’attenzione è un’attività mentale emergente e dinamica,immersa nella situazione immediata, in grado di fornire, in condizioni standard, le informazioni utili per gli individui . 2. COSCIENZA Gli esseri umani sono caratterizzati da un elevato grado di coscienza. È stata una condizione necessaria per poter divenire una specie simbolica e rimane tuttora necessaria per svolgere la regia delle nostre attività quotidiane. 2.1. Definizione di coscienza 2.1.1. Coscienza e vigilanza La coscienza può essere definita come uno stato particolare della mente in cui si ha conoscenza dell’esistenza di sé e dell’ambiente. Ha sempre un contenuto in un condizione di vigilanza percepito come un insieme di parti (una totalità), fondato su una grande quantità di informazioni provenienti dagli organi di senso, situata in un ambiente circostante in un dato momento. Nella storia dell’evoluzione la coscienza emerge quando prende forma il concetto di sé. Occorre precisare, che coscienza e vigilanza non sono la stessa cosa. Essere vigili è un prerequisito della coscienza, ma non è ancora coscienza. La vigilanza consente la rappresentazione mentale degli oggetti, la pianificazione di ciò che intendiamo fare, come pure di monitorare e controllare in continuazione lo svolgimento delle nostre azioni. 2.1.2. Principali proprietà della coscienza 27 Consapevolezza cognitiva. La coscienza consiste, nella capacità di rispondere agli stimoli provenienti dall’ambiente “qui e ora” (consapevolezza percettiva). La coscienza di uno stimolo sensoriale emerge dopo circa mezzo secolo dalla sua comparsa. È un intervallo di tempo sufficiente per confrontare ciò che succede nell’ambiente con quanto abbiamo previsto in base all’enciclopedia delle nostre conoscenze. La coscienza, svolge una funzione di comparazione, poiché consente di confrontare, lo stato attuale del mondo con quello previsto in base alla propria esperienza e alle proprie conoscenze e aspettative. Controllo. La coscienza esercita, un controllo sui processi cognitivi. È un monitoraggio costante, che consente di organizzare e pianificare le nostre attività mentali, dare loro inizio, interromperle o modificarle in funzione della continua variazione delle condizioni soggettive e ambientali, guidarle fino alla loro realizzazione in base ai propri scopi. Svolge la funzione di sistema rilevatore degli errori: se qualcosa non va bene nell’esecuzione di un’operazione la coscienza è in grado di scoprire l’errore e, se necessario, di interrompere la sua esecuzione o modificarla profondamente in base alle nuove condizioni. Autoriflessione. A differenza di altre dimensioni psichiche, la coscienza può essere consapevole di sé stesa, in un processo teoricamente senza fine. La capacità di autoriflessione è alla base sia dell’evoluzione della nostra specie, sia dello sviluppo psicologico di ogni individuo. 2.2. Livelli di coscienza Sé originario. Abbiamo i processi che riguardano l’organismo e che forniscono una descrizione dei suoi aspetti relativamente stabiliti. Sono i segnali interocettivi e propriocettivi. L’insieme di tali segnali somatoviscerali, chiamato cenestesi, indica il grado di funzionamento in atto dell’organismo momento per momento e può variare da uno stato ottimale e uno più o meno gravemente alterato. È un’operazione fondamentale per garantire l’omeostasi e per promuovere una soddisfazione regolazione della vita. Tale condizione è assicurata da una gamma estesa e robusta di meccanismi automatici di autocorrezione presenti in ogni forma vivente. Elaborati da specifiche regioni cerebrali, i segnali somatoviscerali danno origine, ai sentimenti primordiali, associati alla sensazione di benessere (livello ottimale dei valori omeostatici) o di pena (livello pericoloso dei valori omeostatici), al piacere di funzionare o alla sofferenza del disturbo, a un senso di forza (potenza) o di debolezza (impotenza). I sentimenti primordiali confluiscono poi nelle emozioni. Nel loro insieme, gli stimoli somatoviscerali e i sentimenti primordiali danno origine a una forma di coscienza iniziale e basilare concernente il funzionamento del proprio organismo. Forniscono, un’esperienza diretta e immediata dell’esistenza del proprio corpo. È una coscienza radicata nel corpo. In quanto tale, costituisce il sé–come-oggetto, inteso come la collezione dinamica dei processi nervosi riguardanti la rappresentazione del proprio organismo vivente, la quale dà origine, a sua volta, a una collezione dinamica di corrispondenti processi mentali. Damasio ha chiamato sé originario questo livello basilare della coscienza. Sé nucleare. La coscienza non si ferma alla conoscenza e consapevolezza del proprio organismo. A un livello più avanzato, gli stimoli somatoviscerali dipendono anche d informazioni provenienti dagli stimoli 30 Gli ipnotizzatori facevano ricorso a comandi autoritari, pendolo in mano e occhi magnetici puntati sul soggetto (strategia imperativa o direttiva). Oggi, questi metodi sono stati abbandonati per ragioni di credibilità sociale. Infatti, le tecniche ipnotiche utilizzate attualmente sono molto più fini e basate sul linguaggio. Spesso soggetto e ipnotizzatore sono seduti uno di fronte all’altro e l’induzione ipnotica consiste nel raccontare una storia, in cui si inseriscono frasi ricorrente che conducono a un profondo rilassamento e portano lo spostamento dell’attenzione su un determinato pensiero, oggetto o parte del corpo. I fenomeni più ricorrente sono: a) allucinazioni positive e negative (percepire qualcosa che non c’è , o non percepire qualcosa che c’è); b) reazioni ideomotorie ; c) regressione di età; d) inibizione del dolore; e) incremento nel recupero dei ricordi. La fase terminale consiste nella preparazione e nell’uscita effettiva dell’ipnosi con suggestioni di risveglio e di riorientamento alla realtà. I ogni momento è possibile la rottura della relazione ipnotica, se viene data un’istruzione sbagliata, incongruente, incomprensibile o inaccettabile per il soggetto. Suscettibilità ipnotica. Non tutti gli individui sono ipnotizzabili. La suscettibilità ipnotica costituisce un tratto stabile della personalità, con una predisposizione genetica e un’evoluzione nel corso della vita che ha un picco durante l’adolescenza. Secondo la psicologia ingenua, i soggetti più facilmente ipnotizzabili sarebbero anche quelli più suggestionabili e più accondiscendenti in altre circostanza. Questi individui sono caratterizzati da alcune qualità distintive: a) dissociazione: sono capaci più di altri di fare ricorso ai meccanismi dissociativi ; b) immaginazione, hanno un’immaginazione ricca, sono portati a fare sogni a occhi aperti e riescono a concentrarsi così tanto sulle proprie fantasie da sentirsi totalmente coinvolti in esse come se fossero reali; c) disposizione al contesto ipnotico: riescono a rispondere in modo nettamente favorevole all’ambiente ipnotico e sono ben disposti nei confronti dell’ipnosi e dell’ipnotizzatore. Analgesia ipnotica. Un fenomeno particolare dell’ipnosi degno di rilievo è costituito dalla possibilità di esercitare un controllo diretto sul dolore, senza la necessità di interventi farmacologici. L’analgesia ipnotica sulle modificazione dell’attività nervosa della corteccia cerebrale a seguito delle suggestioni ipnotiche e comporta una sorta di separazione fra la stimolazione dolorosa e l’esperienza affettiva della medesima. Di solito, si fa ricorso a tecniche di autoipnosi, attraverso cui ci convinciamo che la parte dolorante non sia collegata al corpo o che gli stimoli dolorosi siano trasformati. 2.3.3. Meditazione La meditazione costituisce uno stato modificato di coscienza attraverso l’esecuzione ripetitiva e sequenziale di alcuni esercizi mentali, di solito realizzati in un ambiente tranquillo. È un metodo di rilassamento durante il quale il soggetto, dirigendo l’attenzione in modo fisso e invariabile su un unico stimolo,ottiene un elevato controllo nella respirazione, e giunge a limitare grandemente il proprio campo di attenzione e la ricezione degli stimoli ambientali. La meditazione crea un senso piacevole di benessere psicofisico e di armonia fra sé e il mondo circostante. La meditazione di apertura e la meditazione di concentrazione. 31 Nella prima il soggetto, mediante l’impegno a non pensare a niente, libera il più possibile la mente per accogliere nuove esperienze, idee e sentimenti. Nella seconda, il soggetto si impegna a concentrare totalmente tutte le proprie risorse di attenzione e di pensiero su un unico oggetto, idea o parola, escludendo ogni altra cosa. La meditazione trascendentale consiste nel focalizzare l’attenzione sulla ripetizione mentale di un suono speciale o sulla respirazione nasale 3. AZIONE Occorre saper agire. L’azione è una sequenza consapevole e delirata di movimenti finalizzati al raggiungimento di uno scopo, svolta in base a un piano e controllata dall’attenzione esecutiva, idonea a generare specifici effetti sull’ambiente. Tramite le azioni un individuo , in qualità di agente, è in grado di intervenire sulla realtà e di far accadere le cose. 3.1. Pianificazione dell’azione Qualsiasi azione che compiamo non è un evento casuale, né totalmente automatico. Neppure è un semplice movimento che può essere accidentale o automatico. I movimenti in sequenza implicati in un’azione sono volontari, idonei a realizzare uno scopo, delineato precedentemente secondo un progetto formulato in modo consapevole e intenzionale. Ogni azione si svolge secondo un piano che, controlla d’ordine di una sequenza di operazioni motorie per consentire il raggiungimento dello scopo predefinito. La pianificazione dell’azione comporta la sua organizzazione nel tempo e nello spazio. Ogni azione, è una totalità unitaria organizzata in modo gerarchico in una sequenza di operazioni, ciascuna delle quali, a sua volta, è composta da una serie di movimenti volontari. Tra azione e operazioni vi è uno stretto rapporto mezzi-fine. Le singole operazioni sono mezzi per realizzare l’azione nel suo insieme. 3.2. Esecuzione dell’azione Baddley ha usato l’espressione “processi esecutivi” per illustrare la complessità dei compiti sottesi alla realizzazione di un’azione. Fanno parte della memoria di lavoro, e sono contenuti nell’esecutivo centrale. Le aree cerebrali coinvolte in questi processi si trovano in modo elettivo nella corteccia prefrontale. È un’area importante, estesa negli umani in modo sproporzionato rispetto agli altri primati, in grado di ricevere informazioni da tutte le altre regioni corticali percettive e motorie, come pure d aquile sottocorticali. L’Attenzione esecutiva dirige e governa le operazioni implicate nello svolgimento dell’azione. Coordina la sequenza delle operazioni, supervisiona la loro corretta attuazione, assegna momento per momento le risorse mentali per eseguire i compiti previsti in modo efficace. Per affrontare le diverse attività che affollano la nostra vita quotidiana, abbiamo l’esigenza di spostare l’attenzione da un compito a un altro per tornare, a quello di prima. Questa alternanza del fuoco di attenzione consente di essere tempestivi, efficaci e dinamici nell’affrontare, svolgere e monitorare la realizzazione di attività diverse entro la stessa situazione. L’alternanza del fuoco di attenzione dimostra che le funzioni esecutive sono meta processi (processi su altri processi). Nell’esecuzione delle azioni sono presenti due livelli mentali: processi esecutivi e processi legati al compito. 32 Inibizione della risposta (la soppressione di una risposta parzialmente già preparata). Tale inibizione è associata all’intervallo di tempo fra l’identificazione delle informazioni pertinenti e alla preparazione della risposta: quanto più tale intervallo di tempo è lungo, tanto più è difficile inibire la risposta. L’inibizione della risposta è un processo necessario per la nostra vita quotidiana. La sua carenza conduce all’impulsività ben osservabile nei bambini. La pianificazione delle operazioni da svolgere in un’attività richiede altresì la capacità di disporle in sequenza temporale e di eseguirle seguendo tale ordine. Il piano funge da modello per avviare, guidare e far procedere nel tempo le varie operazioni. La realizzazione di qualsiasi compito è multifunzionale della sensazione e della percezione al movimento, al pensiero e al ragionamento pratico, alle emozioni e all’autostima ecc. grazie a tale multifunzionalità, siamo capaci di seguire una data operazione in modo coordinato e agile, efficace e coerente con gli scopi. Fra le numerose connessioni multimodali e multifunzionali in gioco, importante appare il legame intrinseco fra percezione e sistema motorio. Questo consiste nella trasformazione dei modelli percettivi in corrispondenti modelli motori. L’azione è una fonte intrinseca di apprendimento. È un apprendimento situato: avviene in una specifica situazione ed è immerso in un contesto immediato. È un apprendimento esperienziale: avviene facendo ed è connesso con le esperienze che facciamo. È altresì un apprendimento riflessivo: è in grado di stabilire una connessione all’indietro e in avanti. Nell’esecuzione dell’azione abbiamo necessità di accettare momento per momento, che ciò che stanno facendo sia conforme al piano prestabilito. Tale monitoraggio consente di operare un confronto sistematico e ricorrente fra le anticipazioni mentali indotte dal piano e quanto è stato realizzato fino a quella fase. Il monitoraggio è importante in modo particolare per accertare un eventuale divario fra ciò che è previsto e la situazione in corso. A conclusione dell’azione procediamo, sia pure in modo implicito, alla valutazione finale per accertare se è stata eseguita in conformità al piano di partenza. Se gli scostamenti sono ritenuti accettabili, l’azione è andata a buon fine; al contrario, se sono troppo consistenti, occorre porre qualche forma di rimedio. 3.3. Agentività e autoefficacia Il sentimento dell’autoefficacia è la credenza e verifica di riuscire a controllare un’attività e di svolgerla con una buona riuscita. In queste situazioni il piacere deriva dal raggiungimento di un obiettivo che non è dato totalmente per scontato. L’autoefficacia dipende dalla consapevolezza di essere protagonisti in grado di causare degli effetti nell’ambiente in cui viviamo e di “far accadere delle cose”, influenzando la direzione degli avvenimenti, possibilmente in modo a noi favorevole. È il costrutto psicologico dell’agentività, implica la capacità di formulare un piano intenzionale per riuscire a soddisfarli, di individuare le azioni opportune, di presiedere alla loro esecuzione sia tenendo presenti le condizioni del contesto immediato, sia svolgendo una funzione di regia e guida, nonché di attivare emozioni sociali positive al fine di alimentare i livelli di autostima. L’agentività, è la competenza nel compiere azioni efficaci (produrre effetti osservabili), associata alla consapevolezza di ascrivere tale competenza a se stessi in quanto protagonisti.