il dato e fasi proceduali della survey, Appunti di Metodologia della ricerca
giordana-nardelli
giordana-nardelli

il dato e fasi proceduali della survey, Appunti di Metodologia della ricerca

29 pagine
17Numero di visite
Descrizione
la costruzione del dato nella survey
20 punti
Punti download necessari per scaricare
questo documento
Scarica il documento
Anteprima3 pagine / 29
Questa è solo un'anteprima
3 pagine mostrate su 29 totali
Questa è solo un'anteprima
3 pagine mostrate su 29 totali
Questa è solo un'anteprima
3 pagine mostrate su 29 totali
Questa è solo un'anteprima
3 pagine mostrate su 29 totali

Il dato Il dato rappresenta l’unità minima di informazione nella ricerca sociale - relativa allo stato osservato di un singolo caso su una specifica proprietà così come, dopo opportune operazioni di selezione, rilevazione, formalizzazione e codifica, è inserita in una matrice casi per variabili, che è la struttura con cui si organizzano i dati quantitativi. Una volta inserito in matrice, il dato potrà essere sottoposto, insieme ai dati relativi alle altre variabili e agli altri casi, ad ulteriori operazioni di trattamento e di sintesi in relazione alle forme di elaborazione statistica cui sarà sottoposto. Il dato è dunque riferibile all’output di un processo composito che prende avvio dalla concettualizzazione del problema d’indagine e giunge, attraverso passaggi intermedi, alla rilevazione dell’informazione e al suo trattamento in vista dell’organizzazione dei dati in una matrice casi per variabili. Non va dunque confuso, come si fa spesso, con l’informazione rilevata, che costituisce, semmai, un prodotto intermedio del più esteso processo di costruzione del dato. Marradi, con il suo abituale rigore definitorio, non manca di denunciare come il termine «dato» venga utilizzato per intendere «simultaneamente lo stato individuale su una proprietà, l’informazione non trattata a proposito di questo stato (come nell’espressione «raccolta dei dati»), e la stessa informazione passata attraverso tutte le manipolazioni previste dalla definizione operativa, e collocata sotto forma di simbolo numerico in una posizione univocamente definita della matrice» D’altra parte, la stessa etimologia del termine «dato» si presta a facili fraintesi, poiché «proviene da latino datum, parola, il cui significato accentua il carattere passivo del ricercatore che lo “riceve”» (Bruschi, 1999,, in quanto «rimanda all’idea di qualcosa che si subisce coercitivamente dall’esterno» (Agnoli, 1992). È così che esso diventa uno di quei concetti-termini «scelti e usati in modo da obnubilare il fatto che la matrice dei dati non è la stessa cosa della realtà, allo scopo di permettere al sociologo di minimizzare i contatti con il suo oggetto pur conservando la pretesa di parlarne in modo non speculativo ma “scientifico”» (Marradi, 1990). Il dato è rappresentato, nella matrice dei dati, dal contenuto di una singola cella, identificata dal riferimento congiunto al caso (riga) e alla variabile (colonna). Per questa via, si può agevolmente considerare il dato come scomponibile nelle due componenti, «caso» e «stato sulla variabile» (cfr. Bruschi, 1999). Adottando una definizione del termine «dato» in termini processuali, esso può anche essere considerato come l’esito di un processo di progettazione e di costruzione che include numerose operazioni, articolabili in operazioni: 1)di concettualizzazione del problema d’indagine; 2) di specificazione dei concetti; 3) di selezione degli indicatori dei concetti selezionati; 4) di definizione operativa degli indicatori; 5) di raccolta delle informazioni; 6) di trattamento e codifica delle informazioni. Raggruppando i vari tipi di operazione, il processo di costruzione del dato può essere, considerato come l’insieme dei seguenti tipi di procedure: 1) procedure che conducono alla selezione degli aspetti rilevanti di un problema (concettualizzazione del problema); 2) «procedure logico-semantiche e tecnico-operative», tese «a collegare un concetto al piano empirico» (Agnoli,) (sul versante logico-semantico: specificazione dei concetti, selezione degli indicatori, definizione operativa; sul versante tecnico-operativo: raccolta delle informazioni riferibili agli indicatori previamente selezionati e definiti operativamente); 3) procedure tecnico-operative (trattamento e codifica delle informazioni), in grado di riprogettare l’informazione, così come è stata raccolta, in relazione ai requisiti delle classificazioni e ai risultati e/o alle esigenze specifiche delle successive fasi di elaborazione dei dati.

Il dato costruito Dunque, «il “dato” è costruito» (Statera, 1994,), nel senso di essere il prodotto di operazioni di selezione, rilevazione e «formalizzazione», piuttosto che imporsi coercitivamente dall’esterno. In questo senso, potremmo sostenere con Bruschi che «il dato esiste (…) in quanto vi è un sistema di concettualizzazione atto a rilevarlo» (Bruschi, 1999). Il dato, oltre ad essere costruito attraverso le tecniche di rilevazione utilizzate, è progettato anche sulla base della teoria e/o delle idee meno sistematizzate alle quali il ricercatore ha fatto riferimento nella pratica selettiva implicata dalla fase di concettualizzazione.

Il dato è co-costruito Il dato nella survey è anche una costruzione dello specifico incontro che avviene tra questionario- intervistatointervistatore. Il dato è come un iceberg: noi vediamo solo la parte più superficiale Definizione di survey. Per survey o indagine campionaria si intende quello specifico approccio di ricerca che,

1) mediante l’adozione di procedure standardizzate di costruzione della base empirica e 2) l’estrazione di un campione rappresentativo di casi/soggetti (l’unità di rilevazione è l’individuo) selezionati all’interno di una popolazione più estesa, 3) consente di elaborare statisticamente una serie di informazioni 4) con riferimento a proprietà previamente identificate dal ricercatore, 5) con lo scopo ultimo di indagare circa l’esistenza di regolarità e uniformità tendenziali riferibili al problema oggetto di ricerca, presentandole sotto forma di relazioni tra variabili.

Tratti distintivi della survey 1) Carattere estensivo: l’indagine campionaria può consentire di rilevare un insieme di proprietà su un insieme di soggetti (campione) potenzialmente molto numeroso e distribuito su un territorio anche molto esteso. 2) Carattere inferenziale: il campione di soggetti viene selezionato rispettando un insieme di criteri che consentano di generalizzare i risultati all’intera popolazione dalla quale il campione è stato estratto. Per questa via è possibile inferire, ad esempio, una serie di generalizzazioni empiriche valide in relazione alla specifica popolazione d’indagine – storicamente e spazialmente situata - e controllabili – nella forma di ipotesi e modelli teorici - in relazione ad altri momenti storici e contesti, mediante l’intrapresa di un nuovo percorso d’indagine; 3) Standardizzazione delle procedure: Questo carattere è forse quello che più di ogni altro contribuisce a distinguerlo precisamente da tutti gli approcci non standard alla ricerca. . Il riferimento è al concetto di standardizzazione che etimologicamente significa “rendere uniforme ad un modello” e, più specificatamente, significa che le procedure mediante le quali si giunge alla costruzione dei dati seguono delle regole standard, definite univocamente a monte dal ricercatore. Per specificare questo aspetto basti pensare che la rilevazione delle informazioni nell’indagine campionaria avviene sempre mediante l’adozione di un questionario, che si distingue dalle tecniche non standardizzate di intervista, per il fatto che è definito in forma standard, preliminarmente alla rilevazione: che cosa rilevare (i concetti da rilevare e i corrispettivi indicatori); i modi in cui le domande saranno poste: sarà standardizzata la formulazione linguistica di ciascuna domanda, l’ordine con cui le domande si succederanno, le regole di gestione del questionario da parte dell’intervistatore (se si sceglierà l’intervista con questionario) o da parte dell’intervistato (se si sceglierà la modalità auto-compilata), le regole di gestione dell’interazione prevista tra intervistatore e intervistato. i modi in cui dovranno essere fornite le risposte alle domande: sarà definito a monte se l’intervistato potrà rispondere facendo riferimento alle alternative predisposte dal ricercatore o se potrà rispondere in forma aperta (ma anche in questo caso il ricercatore dovrà definire il grado di analiticità della risposta) i modi attraverso i quali le informazioni saranno trattate per “trasformarle” in dati i modi attraverso i quali organizzare i dati in vista delle successive operazioni di elaborazione statistica dei dati. 4) Comparabilità dei dati: poiché la rilevazione delle informazioni avviene avvalendosi di strumenti, procedure e regole standardizzate è possibile giungere a comparare informazioni riferibili a diversi casi (soggetti). E’ proprio sulla base della possibilità di comparare le risposte dei diversi intervistati che si basa anche qualsiasi possibilità di produrre elaborazioni statistiche dei dati. 5) Risultati in forma quantitativa: attraverso l’elaborazione statistica dei dati è possibile produrre una serie di inferenze basate sulla stima, in forma quantitativa, di: 4.1. quale la sia diffusione/consistenza di un certo carattere (ad es. l’atteggiamento favorevole nei confronti della legalizzazione delle droghe leggere) all’interno della popolazione d’indagine (analisi monovariata); se l’indagine si fermasse a questo livello sarebbe indistinguibile dal sondaggio. 4.2. quale sia l’intensità (o valutare semplicemente l’esistenza) della relazione tra due o più proprietà/variabili in ipotesi associate (analisi bivariata, trivariata, multivariata; modelli di regressione); 4.3. quale sia la consistenza numerica, all’interno della popolazione di riferimento, di gruppi sociali avente profili identificati mediante il riferimento congiunto a più variabili (analisi multivariata: cluster analysis oppure mediante la costruzione e riduzione di uno spazio di attributi). Le fasi in cui si articola una survey, nella sua versione semplificata, sono le seguenti: 1. Il riconoscimento di una situazione problematica: il punto di avvio di un qualsiasi ricerca è il riconoscimento di una “situazione problematica”, vale a dire una situazione che crea disagio cognitivo perché qualcosa non torna rispetto ai quadri di riferimento teorico-interpretativi condivisi e rispetto alle conoscenze acquisite informalmente dal ricercatore. E’, dunque, una situazione indeterminata, che richiede di avviare un processo d’indagine.

2. La formulazione del problema d’indagine: in questa fase occorre precisare quali sono gli obiettivi cognitivi dell’indagine e giustificare la scelta del problema, esplicitando le premesse scientifiche ed extra-scientifiche che hanno orientato tale scelta (relazione ai valori, interessi di ordine teorico, ecc.). Occorrerà, inoltre precisare il contesto entro il quale si intende realizzare l’indagine (ad es. Europa, Italia, regione Lazio, comune di Roma, comunità di recupero per tossicodipendenti nella città di Roma, ecc.) e le caratteristiche della popolazione interessata dall’indagine (es. giovani di età compresa tra i 14 e 18 anni, utenti di comunità di recupero per tossicodipendenti nella città di Roma, ecc.). Dunque, a partire da una situazione problematica, isoliamo un problema privilegiando certi interrogativi e rinunciando ad altri. Senza un fine precisamente definito e senza identificare precisamente quale sarà l’unità di analisi, non sarà neanche definito l’oggetto della nostra ricerca e non sarà possibile procedere attraverso la predisposizione del disegno della ricerca. 3. Il disegno della ricerca: rappresenta il piano di lavoro, teso a definire le fasi procedurali che si intendono compiere in relazione al problema d’indagine formulato e le operazioni da svolgere in relazione a ciascuna fase procedurale. Si potrebbe dire che comprende tutte le fasi di natura progettuale, antecedenti rispetto al momento in cui si accede al campo per rilevare le informazioni che costituiranno la base empirica. Il disegno della ricerca dovrà essere ben documentato nella stesura del rapporto di ricerca finale in relazione a tutti i passaggi che lo compongono:

Fasi della ricerca di sfondo 3.1. Ricerca di sfondo: durante questa fase si procederà a ricostruire tutte le informazioni necessarie per operare le successive fasi di indagine. La ricerca di sfondo normalmente prevede: Analisi della letteratura esistente per recuperare le teorie sociologiche che possano risultare utili in relazione al problema d‘indagine; Analisi delle fonti statistiche e documentarie nazionali ed internazionali (riferimenti storici, normativi ed economici) per ricostruire l’evoluzione del fenomeno e ponderare il peso dei fattori strutturali (macro) che, in ipotesi, possono avere un’influenza sulla formazione delle rappresentazioni sociali inerenti al problema d’indagine; Analisi delle ricerche già condotte sul medesimo problema e dei risultati conseguiti; Studio pilota condotto per conseguire una maggiore conoscenza del contesto d’indagine, mediante tecniche di rilevazione non standardizzate (ad es. osservazione all’interno del conteso prescelto, interviste non standardizzate a soggetti aventi le caratteristiche della popolazione interessata dall’indagine, ecc.) e mediante la ricognizione dei dati socio-demografici forniti dalle fonti ufficiali (ad es. ISTAT, ecc.), in relazione alla morfologia del contesto d’indagine e dei caratteri generali relativi alla diffusione dei fenomeni che abbiano attinenza con il nostro problema d’indagine (ad es., in relazione ad un’indagine sulla rappresentazione sociale dello straniero, sarà opportuno reperire dati necessari per constatare qual è la presenza di stranieri immigrati all’interno del territorio o dei territori, entro i quali sarà condotta la ricerca); 3.2. Predisposizione del piano di campionamento: dovranno essere definite le procedure mediante le quali estrarre un campione di casi di numerosità ridotta rispetto alla popolazione complessiva. Le procedure di campionamento dovranno essere pianificate nel rispetto dei requisiti di rappresentatività statistica, per ottenere le garanzie necessarie a generalizzare i risultati ottenuti sul campione alla popolazione più estesa. In questa fase, facendo riferimento a parametri statistici, sarà stabilita anche la numerosità del campione. 3.3. Concettualizzazione del problema: in questa fase occorre operare dei ritagli all’interno del problema d’indagine, selezionando le aree problematiche generali e le proprietà (i concetti) riferibili a ciascuna di esse rispetto alle quali si intende provvedere alla raccolta di materiale empirico. In questa fase dovranno essere esplicitate anche le ipotesi analitiche che mettono in relazione tra di loro i concetti-proprietà, in modo tale da mettere a punto un modello di analisi. La selezione delle proprietà significative da rilevare e la formulazione delle ipotesi avverrà avvalendosi delle teorie di riferimento e delle conoscenze acquisite durante la ricerca di sfondo. 3.4. Definizione operativa dei concetti selezionati: durante questa fase dovrà essere definito il procedimento da seguire (le operazioni), in relazione a ciascuno dei concetti previamente selezionati, per giungere a identificare qual è lo stato assunto da ciascun caso sulla proprietà associata a quel concetto. Nello specifico, tale procedimento dovrà essere definito in relazione a quei concetti non immediatamente rilevabili (che non suggeriscono immediatamente le domande di questionario da porre agli intervistati). P.F. Lazarsfeld ha proposto un modello procedurale di traduzione operativa dei concetti, articolato in quattro fasi:

A) la rappresentazione figurata del concetto; B) specificazione del concetto; C) selezione degli indicatori riferibili a ciascuna delle dimensioni identificate nella fase precedente; D) costruzione dell’indice.

Dai concetti agli indici empirici Rappresentazione figurata del concetto: definizione lessicale univoca Specificazione del concetto: scomposizione del concetto in dimensioni; Selezione degli indicatori; Costruzione dell’indice: combinazione degli indicatori

Fasi procedurali della survey 3.5. Progettazione del sistema di rilevazione Tale fase prevede l’organizzazione degli strumenti mediante i quali procedere alla raccolta del materiale empirico. La progettazione del sistema di rilevazione richiede che vengano condotte fasi procedurali orientate a: 1) definire le domande da porre agli intervistati e le modalità di rilevazione delle risposte (questionario); 2) selezionare gli intervistatori e formarli alla gestione delle interviste mediante questionario; 3) selezionare gli intervistati. Inoltre per avere indizi circa il funzionamento del sistema di rilevazione nella sua conformazione complessiva, è opportuno procedere ad una fase di collaudo (pre-test).

Fasi della progettazione del sistema di rilevazione 3.5.1. Costruzione del questionario: durante questa fase sarà progettato il questionario, formulando domande atte a rilevare le proprietà più semplici (sesso anagrafico, età, ecc.) e gli indicatori dei concetti più astratti - selezionati durante l’applicazione del modello procedurale di Lazarsfeld (cfr. fase 3.4.c). Dovrà, inoltre, essere stabilito l’ordine di successione delle domande. 3.5.2. Selezione e formazione degli intervistatori: poiché i campioni dotati di rappresentatività statistica sono normalmente piuttosto numerosi, il ricercatore si avvarrà di intervistatori esterni che dovranno essere formati accuratamente in vista della gestione delle interviste mediante questionario. Questa fase non è prevista in caso di autocompilazione del questionario. 3.5.3. Pre-test del sistema di rilevazione: il sistema di rilevazione dovrà essere collaudato, facendo condurre agli intervistatori un numero – generalmente ristretto – di interviste per testare: A) la presenza di domande irrilevanti dal punto di vista dei soggetti intervistati (domande da scartare), B) la tenuta linguistica delle domande di questionario, C) la formazione conseguita dagli intervistatori in ordine alla gestione dell’intervista. 3.5.4. Selezione dei casi da intervistare (campione d’indagine): mediante l’applicazione delle procedure pianificate precedentemente dalla popolazione più estesa saranno selezionati i casi (gli intervistati) che faranno parte del campione d’indagine. 3.5.5. Distribuzione dei nominativi da intervistare tra i vari intervistatori.

Fasi procedurali della survey 4) Rilevazione delle informazioni: gli intervistatori dovranno contattare i soggetti entrati a far parte del campione, ottenere la loro disponibilità a farsi intervistare e condurre le interviste con questionario, seguendo le accortezze definite durante la fase 3.5.2. Nella mail survey, che utilizza il questionario postale, non è presente la componente intervistatore. Questo fattore ha delle ricadute anche sulla rappresentatività campionaria (mortalità del campione). 5) Organizzazione dei dati all’interno di una matrice casi per variabili e inserimento dei dati: i dati raccolti saranno inseriti all’interno di una matrice, ponendo i casi (gli intervistati) in riga e le variabili, corrispondenti alle proprietà rilevate mediante questionario, in colonna (cfr. fig.). Il contenuto di ciascuna cella è costituito dal singolo dato, vale a dire dallo stato assunto da ciascun caso intervistato in relazione a ciascuna variabile.

La natura delle variabili Rispetto ai fini dell’analisi dei dati, le distinzioni che è utile operare è tra i seguenti tipi di variabili: - Variabili categoriali nominali: sono variabili con stati discreti non ordinabili e derivano da operazioni di classificazione degli stati della proprietà (genere, confessione religiosa,stato civile,etc.); - Variabili categoriali ordinali: sono variabili con stati discreti ordinabili e derivano da un’operazione classificatoria, in cui è però possibile ordinare gli stati della proprietà (titolo di studio, status professionale, etc.);

- Variabili cardinali: sono variabili che dispongono di un’unità di misura o di conto e si ottengono mediante un’operazione di misurazione (proprietà continue: reddito, età, etc.) o di conteggio (proprietà discrete: numero di figli, il numero delle macchine possedute, il numero delle volte che la persona va ogni mese in chiesa, etc.). - Variabili quasi-cardinali: sono variabili con un’unità di misura convenzionale o implicita e derivano da operazioni di misurazione di proprietà pensabili come continue ed è, quindi, possibile presupporre un’unità di misura assunta convenzionalmente dal ricercatore (tecniche di scaling autoancoranti,…). Ai fini dell’analisi dei dati possono essere considerate equivalenti alle variabili cardinali.

Fasi procedurali della survey 6) Elaborazione statistica dei dati: si procederà, mediante il supporto di pacchetti applicativi informatici, a costruire gli indici sintetici, ad analizzare la distribuzione dei casi rispetto ad ogni singola variabile o indice costruito (analisi monovariata) e a controllare se i dati confermano oppure no le ipotesi teoriche che prospettavano una relazione tra due o più variabili (analisi bivariata, trivariata, multivariata). Si procederà, inoltre, ad effettuare i controlli necessari per appurare l’attendibilità dei dati raccolti. 7) Interpretazione dei risultati: le elaborazioni statistiche compiute saranno interpretate alla luce delle ipotesi teoriche predisposte durante la fase di concettualizzazione del problema dell’indagine o prospettando nuove ipotesi interpretative, avvalendosi di teorie inizialmente non considerate. 8) Stesura del rapporto di ricerca: all’interno del rapporto finale dovrà essere ricostruito il disegno della ricerca, argomentando le diverse scelte compiute e dovranno essere presentati i risultati della ricerca, corredati dalle relative interpretazioni teoriche.

Avanti e indietro…. Naturalmente la successione delle fasi non è così lineare come potrebbe apparire guardando a questa schematizzazione e spesso accade che lo svolgimento di certe fasi induca a rivedere e ad affinare scelte compiute durante le fasi precedenti.

Comparabilità delle risposte Il vantaggio più rilevante riconosciuto dalla letteratura metodologica all’intervista con questionario è la presunta comparabilità delle risposte. Nel momento in cui si introduce il questionario nella situazione di intervista, il tentativo è di perseguire l’ideale di ottenere una comparabilità delle risposte attraverso la standardizzazione della formulazione delle domande e dell’ordine con cui devono essere poste agli intervistati.

L’assunto tradizionale L’assunto tradizionale è che imporre pratiche uniformi (standardizzate) di rilevazione assicura che tutti gli intervistati stiano rispondendo alle stesse domande perché tutti hanno compreso allo stesso modo. E’ un assunto ormai screditato da tempo, ma da cui molti ricercatori non prendono le distanze perché temono che ciò implichi la rinuncia alle garanzie di scientificità della survey.

Un obiettivo ineludibile La comparabilità delle risposte è in effetti un obiettivo che non può essere eluso. Essa è infatti un requisito indispensabile per giungere all’organizzazione dei dati all’interno di una matrice casi per variabili e per procedere alle successive fasi di analisi statistica dei dati. Qualsiasi operazione svolta all’interno della matrice - dalle aggregazioni delle variabili, al calcolo delle frequenze e dei coefficienti di associazione/correlazione, fino ad arrivare ai procedimenti di elaborazione più complessi - impone infatti, che debba essere possibile stabilire almeno una relazione di uguaglianza/diversità tra gli stati assunti da una stessa variabile relativamente a soggetti diversi.

L’invarianza dello stimolo Un’ingenua semplificazione del problema della comparabilità delle risposte, che ancora oggi condiziona la pratica di ricerca, è stata operata (applied) da quegli autori che hanno stabilito un rapporto causale deterministico tra invarianza dello stimolo e comparabilità delle risposte.

Standardizzazione e comparabilità Fowler e Mangione esprimono efficacemente il legame tra standardizzazione e comparabilità delle risposte:

“The key defining part of a measurement process is standardization. In all sciences, meaningful measurement occurs by applying the same procedure across a set of situations so that differences in the readings that result can be compared and interpreted as indicating real differences in what is being measured. The same is true for surveys (…) The goal of standardization is that each respondent be exposed to the same question experience, and that the recording of the answer be the same, too, so that any differences in the answers can be correctly interpreted as reflecting differences between respondents rather differences in the process, that produced the answer” I vari approcci alla standardizzazione: problematizzare la comparabilità delle risposte fondata sull’invarianza dello stimolo

Approccio comportamentista Il modello comportamentista o meccanicista si basa su delle assunzioni che presuppongono un mondo esterno, che noi ispezioniamo e dal quale otteniamo informazioni. Un soggetto introduce lo strumento di osservazione e si limita a registrare le risposte. Il risultato è un sistema stimolo-risposta. Ogni sforzo è fatto per imporre pratiche uniformi nell’intervista in modo che i risultati saranno almeno comparabili (Hyman)

Prescrizioni di matrice comportamentista «L’intervistatore deve seguire fedelmente il testo del questionario, ponendo le domande così come si trovano scritte. Tra una domanda e l’altra non è permesso introdurre dei commenti di carattere esplicativo o delle indicazioni di altro tipo. La lettura delle domanda va fatta senza inflessioni particolari nel tono di voce: si legge come se si stesse parlando. Non di rado il soggetto può cercare di evitare di rispondere, magari rivolgendo a sua volta all’intervistatore delle domande del tipo: "Ma lei come la pensa su questa cosa?". Occorre intervenire subito richiamando, con semplicità e chiarezza, alla differenza di ruolo e dicendo ad esempio: "Sa, in questo momento io sono qui a fare le domande, ma è come se non ci fossi, come se lei dovesse rispondere per posta, io debbo soltanto dire quello che sta scritto". Se l’intervistato dichiara di non aver compreso la domanda – ma le interviste di prova dovrebbero eliminare questa probabilità – si ripete la domanda come sta scritta, senza tentare di spiegarla; se alla seconda domanda si avverte – o l’intervistatore dichiara che il senso è rimasto oscuro, si passa alla domanda successiva con un’osservazione del tipo: "Beh, vediamo quest’altra domanda cosa dice.".» (Guidicini, 1968).

Assunti insostenibili Come sostiene Houtkoop-Steenstra “The stimulus-response model is based on two incorrect and closely related assumptions. First, this model assumes that the linguistic meaning of a question coincides with the researcher’s intended meaning and the purpose of the question, and second, that respondents will interpret the question as the author meant it” (2000, pp. 180-1).

Decontestualizzazione dell’intervista L’adesione a presupposti di matrice comportamentista genera automaticamente erronee convinzioni circa la possibilità di decontestualizzare la situazione di intervista. Il riferimento all’approccio «stimolo-risposta» ha di fatto legittimato che venisse rivolto interesse quasi esclusivo alla fase di progettazione del questionario e fosse invece marginalizzata la fase effettiva in cui lo strumento di rilevazione viene contestualizzato e inserito all’interno di una situazione reale di intervista.

Test validati Un settore disciplinare in cui questo approccio è particolarmente diffuso è quello della psicologia, dove per la rilevazione degli atteggiamenti e delle opinioni si ricorre spesso a test cosiddetti validati.

In quanto considerati validi, non è consentito apportare a questi strumenti alcuna modifica, neanche al variare del contesto e tutte le prescrizioni agli intervistatori sono volte a negare qualsiasi possibilità di intervento chiarificatore.

L’uso delle domande chiuse Anche l’uso delle domande chiuse collima perfettamente con il modello stimolo-risposta, standardizzando anche le possibili risposte ad una stessa domanda. Come sostengono Fowler e Mangione: “quando l’intervistato sceglie una risposta [da una lista] (…) la sua risposta dipende solo da lui e non dall’intervistatore. Questo è l’obiettivo che la standardizzazione si prefigge (…) i risultati possono essere comparati e interpretati come differenze effettive tra gli oggetti” .

Marginalità dell’intervistatore

Presupposti di questo tipo hanno in qualche modo legittimato l’ampia diffusione di modalità di rilevazione in cui l’intervistatore - considerato prevalentemente come fonte di distorsione - non fosse affatto presente (questionario autocompilato, web survey). In ogni caso, l’adesione ad un tale approccio ha legittimato la posizione di «marginalità» dell’intervistatore all’interno della ricerca sociale, la quale si traduce nell’essere generalmente mal pagato, poco addestrato e privo di interesse per gli scopi della ricerca.

La negazione dei processi interpretativi All’interno di un simile quadro si finisce col dimenticare che l’intervista, al pari di qualsiasi altra forma di interazione, rappresenta un crocevia di azioni, implicante numerose operazioni interpretative e cognitive. Sembrerebbe, dunque, che i critici della survey non mentano nel momento in cui rilevano che “Standardized questions with fixed-choice answers provide a solution to the problem of meaning by simply avoiding it” (Cicourel, 1964).

Fattori che hanno decretato la fortuna di questo approccio Fattori economici: «la concezione comportamentista, che pone l’accento sulla standardizzazione degli stimoli e che assimila l’intervistatore a uno strumento, collima perfettamente con l’esigenza delle agenzie di sondaggi di ridurre i costi della rilevazione» (Fideli e Tusini, 1997).

Ma soprattutto .... Livello epistemologico: adesione ad una concezione positivista di oggettività scientifica come negazione di qualsiasi influenza del soggetto conoscente sull’oggetto conosciuto. E’ evidente che il carattere relazionale dell’intervista diventa, per un tale approccio, un fattore di disturbo piuttosto che una risorsa.

Comparabilità delle risposte basata sull’invarianza dello stimolo Inquadrando il problema in termini dualistici e non intravedendo alcuna ipotesi di continuità tra oggettività e soggettività, l’unica soluzione che si prospetta al ricercatore, rispetto all’obiettivo di assicurare una comparabilità delle risposte, diviene automaticamente quella di standardizzare tutto il possibile, dal tono della voce dell’intervistatore alle modalità di approccio, fino a giungere a negare qualsiasi possibilità di intervento da parte dell’intervistatore, nonché qualsiasi contributo dell’intervistato che non rispetti perfettamente le regole procedurali dettate dal ricercatore.

Approccio neo-comprendente: la negazione della standardizzazione In relazione alla fase di rilevazione, i detrattori della standardizzazione prediligono strumenti che assicurino ricchezza e profondità dell’informazione, come se la fase di rilevazione non costituisse un fase di intermedia all’interno di una logica della ricerca unitaria, ma un fine ultimo cui orientare l’intera ricerca, negando in tal modo ogni possibilità di individuare uniformità e generalizzazioni. Esiti riduzionisti di questo tipo si fondano sul presupposto che sia di fatto impossibile e indesiderabile, considerata l’unicità e l’irripetibilità dei singoli eventi, giungere ad una comparabilità fra le risposte attraverso il ricorso all’intervista.

Critiche all’intervista con questionario Le critiche più comunemente rivolte a queste tecniche puntano il dito sulla loro incapacità di cogliere i reali significati veicolati all’interno dei contesti specifici d’indagine. Dal punto di vista dei sociologie interpretative le interviste con questionario sopprimono la natura dialogica dell’intervista, rendendo vano ogni tentativo di comunicazione «reale» con il soggetto.

Costruzione congiunta del significato Come afferma Pawson, I fenomenologi «assume that even identical, plain words, identically and plainly delivered by identical and plain interviewers can still mean quite different things to different people» . Conseguentemente, essi lavorano affinché si giunga alla joint construction of meaning che idealmente «takes place over many months of ethnographic study» . Più precisamente, questo obiettivo di joint construction of data potrebbe essere assicurato solo ricorrendo alle tecniche non standardizzate.

Impossibilità di standardizzare il significato Hughes (1980) richiamandosi palesemente ai postulati dell’etnometodologia, liquida l’utilizzo delle tecniche di intervista standardizzate nella ricerca sociale, argomentando che la comparabilità delle risposte è del tutto illusoria perché i significati cambiano ad ogni intervista.

Con questa critica, Hughes, e insieme a lui una folta schiera di ricercatori qualitativi, abbattono non solo la possibilità di ricorrere all’intervista con questionario, ma la stessa possibilità di giungere all’individuazione e al controllo di generalizzazioni empiriche.

Perché negare standardizzazione e comparabilità La negazione della comparabilità, come tra gli altri Blalock sottolinea, nasce dalla necessità di sostenere «la forma estrema di una tesi idiografica che asserisce la mancata possibilità di comparare due oggetti o situazioni perché ognuno di essi è unico. [Quindi,] la non comparabilità è stata invocata, piuttosto automaticamente, per sostenere l’argomentazione secondo la quale le generalizzazioni scientifiche sono virtualmente impossibili» Ma soprattutto, le critiche alla standardizzazione sono rese facile dal fatto che il riferimento è all’approccio comportamentista (avversario facile da abbattere)

L’approccio critico-relazionale alla standardizzazione Si tratta di un approccio alla standardizzazione dell’intervista che fonda la comparabilità delle risposte sulla congruenza di significati piuttosto che sull’invarianza dello stimolo

L’interpretazione Importanza di considerare i processi interpretativi Come ha sostenuto Peirce non c’è alcuna garanzia che due persone educate nella medesima comunità linguistica useranno a priori la stessa parola con lo stesso significato in ogni circostanza.

Premesse condivisibili, conclusioni azzardate La consapevolezza dei processi soggettivi di tipo interpretativo implicati dall’interazione nell’intervista standardizzata non deve indurre alle conclusioni drastiche cui sono giunti i ricercatori qualitativi. Questi, con il loro invito a rigettare tout court le tecniche standardizzate, sembrano ignorare del tutto che l’ingenuità dell’approccio «behaviorista» all’intervista è stata denunciata apertamente proprio da autori che, in modi diversi, hanno contribuito a consolidare l’utilizzo dell’intervista con questionario nell’ambito della ricerca sociale.

Precursori autorevoli dell’approccio critico-relazionale Già Goode e Hatt osservavano criticamente che «la standardizzazione delle domande può produrre una stabilità di carta: le parole possono rimanere le stesse, ma in circostanze diverse i significati possono essere differenti»

Lazarsfeld: identità di significato Nel suo articolo The Art of Asking Why, P.F. Lazarsfeld rimarcava che «L’opzione tradizionale è che una domanda debba essere letta sempre allo stesso modo per garantire la stessa reazione da parte di coloro che sono intervistati». Partendo da tale premessa, l'autore, già nei primi anni '30, avanzava la seguente proposta: «Noi sosteniamo un uso più libero e aperto del questionario da parte dell’intervistatore. Ci sembra più importante che la domanda sia identica nel suo significato piuttosto che nelle sue parole» .

Funzione maieutica dell’intervistatore Più tardi Galtung rimarcava sostanzialmente la stessa esigenza, proponendo che «le domande devono essere adattate alle diverse posizioni, ai diversi livelli di conoscenza e frame di riferimento, etc.» perché “dare a tutti la stessa scarpa, non significa aver dato a tutti la stessa cosa” (Galtung, 1967). Laddove con il medesimo questionario si debbano intervistare soggetti con caratteristiche socio-culturali e psicologiche diverse, è dunque richiesta all’intervistatore una funzione «maieutica» che favorisca l’adeguamento della domanda alle esigenze specifiche dell’intervistato.

Integrazione del training degli intervistatori Come dimostrato da diversi studi sperimentali (Schober and Conrad, 1997; Schober, Conrad and Fricker, 2004), non si tratta semplicemente di contrapporre una conduzione flessibile dell’intervista ad una rigida. Si tratta semmai di incorporare nel training degli intervistatori procedure che consentano di approssimare il significato attribuito alle domande dai singoli intervistati e quello attribuito in origine da chi ha progettato il questionario.

La trasmissione dei significati Proseguendo in questa direzione, i concetti-termini utilizzati all’interno delle domande di un questionario, come anche quelli utilizzati dall’intervistato nel fornire la risposta, potrebbero, in realtà, essere pensati come veicoli segnici

che hanno la possibilità di diventare intersoggettivi, in misura adeguata, nel momento in cui il ricercatore ponga la dovuta attenzione alla scelta dei termini e alla struttura sintattica nella formulazione della domanda (wording). Soprattutto – stante l’impossibilità di eliminare qualsiasi margine di ambiguità nelle domande – è fondamentale riconoscere all’intervistatore il ruolo attivo di «negoziatore» di significati, che è sostanzialmente negato dall’approccio behaviorista all’intervista.

Dunque... Il passaggio da una standardizzazione puramente formale ad una standardizzazione basata sulla massimizzazione della congruenza dei significati rappresenta il solo modo per ottenere delle informazioni effettivamente comparabili e organizzabili, dopo opportuno trattamento, all’interno della matrice dei dati.

Il legame tra le componenti Il riconoscimento della natura relazionale dell’intervista e del ruolo fondamentale esercitato dai processi comunicativi e interpretativi nella situazione di intervista induce a considerare la necessità per il ricercatore di istituire un’interazione reciproca tra le tre componenti del sistema di rilevazione nell’intervista standardizzata: questionario- intervistatore-intervistato.

Il fulcro del modello: il ricercatore Poiché il sistema di rilevazione «consiste nell’organizzazione degli strumenti osservativi per estrarre da un insieme di casi dell’universo l’informazione necessaria a soddisfare gli obiettivi della ricerca» (Bruschi, 1999) e, poiché l’organizzazione degli strumenti osservativi dipende quasi interamente dal ricercatore, anche l’approssimazione al modello rappresentato è definibile sulla base delle scelte compiute dal ricercatore stesso.

Il ruolo del ricercatore La scelta della modalità di conduzione dell’intervista: faccia a faccia o telefonica (contesto dell’intervista); la progettazione del questionario (linea tratteggiata verso il vertice superiore del triangolo); la selezione degli intervistatori (linea tratteggiata verso il vertice inferiore destro del triangolo); il campionamento dei soggetti da intervistare (linea tratteggiata verso il vertice inferiore sinistro del triangolo); adeguamento del questionario alle caratteristiche dei rispondenti (linea tratteggiata verso il cateto sinistro del triangolo); la predisposizione di regole di gestione del questionario da trasmettere agli intervistatori durante la cosiddetta fase di addestramento (linea tratteggiata verso il cateto destro del triangolo); la predisposizione di regole di conduzione dell’intervista, in quanto interazione, nei suoi aspetti verbali e non verbali, da trasmettere anch’esse durante la fase di formazione degli intervistatori (linea tratteggiata verso la base del triangolo).

Il contesto dell’intervista Un elemento importante di indeterminazione per gli esiti della raccolta delle informazioni è costituito dalla mutevolezza del contesto entro il quale avviene l’incontro della triade intervistato questionario-intervistatore. Solo in parte le scelte compiute dal ricercatore contribuiscono a costruire il contesto entro il quale prenderà forma la situazione d’intervista perché it “is not a stable and fixed entity” (Houtkoop-Steenstra, 2000,).

La modalità di conduzione dell’intervista Tuttavia, alcune scelte del ricercatore contribuiscono fortemente a costruire il contesto in cui l’intervista avverrà. La scelta più importante per la costruzione del contesto d’intervista è quella del mode of data collection (intervista telefonica, face to face, CATI, etc.). Diversi studi hanno documentato la misura in cui scegliere l’una o l’altra modalità d’intervista sia cruciale in relazione ai risultati che si possono ottenere e di come il sistema di rilevazione dovrà essere predisposto diversamente in funzione di tale scelta (see de Leeuw & van der Zouwen, 1988; de Leeuw, 1992; Cristian, Dillman, Smyth, 2005). Tanto più ci si allontana dall’intervista faccia a faccia quanto più si riducono le possibilità di controllare e contenere le distorsioni che possono derivare dalla variabilità del contesto. Nel questionario autocompilato, dove scompare la natura interazionale prevista dall’intervista, non c’è alcuna possibilità di controllare né il contesto emozionale, né il contesto fisicorelazionale in cui le risposte prendono forma (se il soggetto ha risposto senza consultarsi con altre persone, se l’ha compilato in un luogo tranquillo, se l’ha compilato mentre stava facendo contemporaneamente qualcos’altro, etc.)

La qualità del dato Nella letteratura specialistica sulla survey, la locuzione «qualità del dato» (data quality) è stata ricorrentemente e genericamente definita come «l’assenza di distorsioni e di errori non campionari» (ad es., Groves, 1989 e 1991). Relativizzando il concetto di errore, è possibile considerare affetto da distorsione qualsiasi dato che non soddisfi le condizioni logiche e metodologiche, necessarie ai fini del conseguimento degli obiettivi cognitivi definiti a monte da chi lo ha progettato (il ricercatore).

La qualità del dato In altri termini, la distorsione può essere considerata un disturbo nel processo di costruzione del dato che allontana l’esito reale della rilevazione da quello «ideale». L’esito ideale della rilevazione è costituito da un dato che soddisfi gli obiettivi cognitivi d’indagine.

Definizione di qualità del dato Di conseguenza, è possibile definire la qualità del dato come la misura in cui il singolo dato possieda l’insieme delle caratteristiche/qualità necessarie affinché esso possa contribuire ad incrementare il valore evidenziale della base empirica.

Questa definizione è desumibile, tra l’altro, dall’accezione più ampia relativa a un qualsiasi processo produttivo, secondo la quale «la qualità di un prodotto rappresenta l’adeguatezza del medesimo all’uso per il quale è stato

realizzato, ovvero la capacità di un prodotto di soddisfare le qualità garantite dal produttore» (Arkhipoff, 1986). Specificazione del concetto di qualità del dato

Una volta stabilito che si può effettivamente parlare di distorsione solo nei casi in cui la rilevazione reale si discosti dalla rilevazione ideale - quella che risponde agli obiettivi specifici che il ricercatore si è posto per quella specifica indagine - occorre identificare le caratteristiche/qualità che il dato deve possedere affinché possa essere considerato adeguato. Tale identificazione richiede una scomposizione del concetto di qualità del dato nelle sue dimensioni costitutive. Seppure, infatti, la genericità del concetto si presti perfettamente all’esigenza di esplicitare quale debba essere l’obiettivo metodologico generale che il ricercatore deve conseguire prima di poter procedere all’elaborazione dei dati, esso risulta un «concetto multidimensionale» (Zajczyk, 1996) che, pertanto, richiede un processo di specificazione.

Le dimensioni della qualità del dato Considerata la natura processuale della costruzione del dato, particolare attenzione deve essere prestata a ricondurre ciascuna dimensione all’interno delle fasi logico-procedurali più pertinenti.

La rilevanza e utilità dei concetti Affinché un dato possa rispondere al fabbisogno informativo dell’indagine, deve innanzitutto riferirsi ad un concetto che assuma rilevanza e utilità all’interno del complessivo disegno della ricerca. Più precisamente, il dato dovrà riferirsi ad una proprietà - previamente selezionata - che risulti, in ipotesi rilevante, in funzione dell’utilità che essa riveste per la «soluzione» di un determinato problema d’indagine. Tale dimensione della qualità del dato è riferibile, dunque, alla fase di concettualizzazione del problema, durante la quale, «in base alla definizione dell’oggetto della ricerca e alla sua formulazione, alla specificazione e all’esplicitazione dei propri obiettivi cognitivi, al grado di formalizzazione e alla natura delle ipotesi che è in grado di formulare, il ricercatore si orienta nell’individuare gli aspetti parziali e specifici del problema d’indagine verso i quali dirigere la propria osservazione, ne seleziona le proprietà analitiche rilevanti e le sistematizza in concetti. (…) Concettualizzare un problema, pertanto, significa rappresentarlo nei suoi aspetti in ipotesi rilevanti» (Agnoli, 1994). In ogni caso, il processo di concettualizzazione dà luogo alla formazione dei concetti, i quali - richiamandoci a Mach - sono «enti mentali» e, come tali, «non sono che strumenti per una rappresentazione economica dei fenomeni osservati, [aventi] una funzione del tutto ausiliaria». Di nuovo, il criterio di valutazione è rappresentato dagli obiettivi cognitivi del ricercatore che possono essere conseguiti solo nei casi in cui la specifica forma di concettualizzazione adottata dia luogo alla selezione e all’ordinamento di aspetti rilevanti, rispetto ai quali dirigere l’osservazione e la raccolta delle informazioni (cfr. Dewey, 1938).

La filosofia della scelta

I criteri che orientano il processo in esame sono analoghi a quelli suggeriti da Weber in riferimento al «tipo ideale»: posto di fronte «all’infinità priva di senso», il ricercatore non potrà far altro che operare una scelta, attribuendo rilevanza a certi aspetti piuttosto che ad altri, attraverso un’operazione logica che consiste nell’astrazione e accentuazione unilaterale di determinati elementi concettuali, sulla base del riferimento ai valori e della conseguente assunzione di un punto di vista specifico.

Rilevanza: Caratteri dei concetti (sintetici e selettivi) L’insegnamento weberiano vale ad evidenziare immediatamente il carattere sintetico, selettivo e relativo dei concetti. Sintetico perché qualsiasi concetto può essere considerato un «concetto di genere tipico-ideale», nel senso che rappresenta l’esito di un’operazione di sintesi in forma esemplare delle proprietà di un fenomeno oggetto di interesse e, in quanto tale, rivedibile dal ricercatore in qualsiasi momento. Selettivo perché, non potendo mai dominare la realtà in tutta la sua completezza e complessità, sarà il «riferimento ai valori» a consentire l’isolamento degli aspetti da sintetizzare all’interno di un concetto unitario, lasciando sullo sfondo gli aspetti non selezionati. Selettivo anche perché il riferimento ad un apparato teorico può, in taluni casi, costituire criterio imprescindibile per orientare la fase di concettualizzazione. A quest’ultimo riguardo Parsons (1937) parla di «categorie residue» e chiarisce, altresì, che esse possono assumere rilevanza all’interno di altri sistemi teorici e che «non esiste alcuna ragione a priori per limitare il numero di proprietà emergenti che sono rilevanti, man mano che tali sistemi diventano più complessi» . Vale a dire, non esiste alcuna ragione perché categorie inizialmente considerate «residue» non possano essere assunte come rilevanti nel momento in cui il sistema teorico si modifichi o diventi più complesso.

Relatività dei concetti I concetti sono relativi, nel senso che, sempre dal punto di vista weberiano, «non sono ricavabili con necessità dalla corrispondenza dell’ordine della realtà con quello della ragione, ma rappresentano gli “attrezzi” di un lavoro cognitivo che, in relazione a punti di vista individuali, stabilisce significati e coglie connessioni nella realtà, stante la molteplicità delle soluzioni possibili» (Campelli, 1999,). Detto altrimenti, la relatività dei concetti non risiede nella loro arbitrarietà, bensì nella loro «transitorietà» e «provvisorietà», determinate dal loro ancoraggio all’esperienza umana, dal loro essere «carichi di valori» e selettivi.

Utilità: Carattere operazionale dei concetti Altro carattere dei concetti utilizzati nella ricerca sociale, questa volta derivabile dagli insegnamenti dello strumentalista John Dewey, è il loro carattere operazionale, nel senso di essere in grado di promuovere e dirigere l’indagine . In quanto il concetto ha carattere operazionale, assume ulteriore valenza la tesi secondo la quale il dato non è altro che una specifica forma di costruzione del ricercatore. E in effetti, Dewey, già nel 1891, ricorrendo ad un esempio tratto dalla geometria, sottolineava con estrema efficacia che «il concetto “triangolo” è il modo in cui tre linee sono messe insieme; è un modo o forma di costruzione. Un concetto, quindi (…) come un modo o forma di azione mentale, (…) può essere afferrato soltanto nella e attraverso l’attività che lo costituisce. L’unico modo di conoscere il concetto di triangolo è di farlo, di passare attraverso l’atto di mettere insieme le linee nel modo richiesto».

Carattere operazionale dei concetti Lazarsfeld chiarisce che un concetto per essere utile nella ricerca sociale deve essere traducibile operativamente. Deve essere possibile, eventualmente attraverso un processo di specificazione e di riduzione progressivo della complessità, garantirne la traducibilità in operazioni di rilevazione. In altri termini, un concetto non assume utilità effettiva all’interno dell’indagine fino a che il suo livello di generalità sia tale da impedire la possibilità di individuare dei referenti concettuali (indicatori) che ne suggeriscano una «definizione operativa»

Una rilevanza doppiamente situata Gli aspetti concettuali vengono selezionati in base al riferimento agli obiettivi della ricerca e al contesto d’indagine. Quindi, la rilevanza dei concetti è un criterio di qualità del dato che il ricercatore deve garantire da un duplice punto di vista:

1) rilevanza teorica (per il ricercatore): gli aspetti selezionati, che contribuiscono a definire il problema d’indagine, devono richiamarsi agli obiettivi della ricerca e al quadro più o meno formalizzato di ipotesi che il ricercatore assume a riferimento (sulla base delle teorie di riferimento, delle ricerche già svolte e delle sue intuizioni o conoscenze tacite). 2) rilevanza soggettiva (per l’intervistato): l’approccio alla survey centrato sull’intervistato prevede che i concetti selezionati dal ricercatore assumano specifica rilevanza anche dal punto di vista dei soggetti a cui sarà estesa l’indagine.

Dati e teoria Nelle indagini più propriamente esplicative, dati e teoria presentano dei rapporti di interdipendenza tali che conducono a sostenere che la rilevanza del concetto si rapporta alla stessa possibilità di inserirlo coerentemente all’interno di un apparato teorico- Proprio per questo, Merton invita a fare attenzione al rischio di isolare concetti che non possono essere posti in relazione tra loro. In questo caso, «la ricerca sarà sterile, per quanto meticolose siano le osservazioni e le deduzioni successive». In altri termini, «poiché i concetti sono astrazioni, essi hanno un senso soltanto entro un dato quadro di riferimento, un dato sistema teorico» (Goode e Hatt, 1952).

Rilevanza soggettiva Per garantire la rilevanza soggettiva dei concetti, è buona norma che la ricerca di sfondo sia integrata da uno studio pilota, attraverso l’ausilio di tecniche di rilevazione dotate di un basso livello di strutturazione (osservazione partecipante, interviste in profondità, interviste focalizzate, focus group, ecc.). Durante lo studio pilota il ricercatore «interroga» direttamente i soggetti che coagiscono all’interno del contesto d’indagine, in modo da selezionare e approfondire aspetti che assumano una specifica rilevanza dal loro punto di vista.

Concetti strumentali L’insieme delle riflessioni finora richiamate vale a rimarcare la tesi di una funzione dei concetti puramente strumentale, che potrebbe essere resa sinteticamente, utilizzando le parole di Cartocci: «I concetti non sono né essenze né segni, ma strumenti senza i quali siamo ciechi di fronte al mondo» (Cartocci, 1984). Viene da sé che gli unici tipi di giudizio che possono essere proferiti in relazione ai concetti generati da un procedimento astrattivo rinviano alla loro rilevanza e alla loro utilità.

Sovra e sotto-rappresentazione del fabbisogno informativo Ed è così che qualora il fabbisogno informativo determinato dalla fase di concettualizzazione risulti sovra-rappresentato o sotto-rappresentato relativamente ad uno o più aspetti rilevanti del problema, possono insorgere particolari forme di distorsione che allontanano l’esito della rilevazione reale da quello ideale. Potremmo parlare di sovra-rappresentazione quando l’isolamento di un aspetto parziale del problema si traduce nella rilevazione di informazioni che rispondono ad altri obiettivi conoscitivi e che, in tal senso, la presunta rilevanza si manifesti infondata. La sotto-rappresentazione del fabbisogno informativo occorre, invece, nei casi in cui, nel corso dell’indagine, concetti

inizialmente considerati «categorie residue» assumono una rilevanza del tutto particolare, tale da richiedere un’integrazione del processo di concettualizzazione. Se tale integrazione non avvenisse, i risultati dell’indagine

presenterebbero anomalie che il ricercatore non sarebbe in grado di spiegare se non a costo di intraprendere una nuova indagine, durante la quale comprendere le categorie concettuali inizialmente estromesse. Accuratezza-generalità

della concettualizzazione Ne consegue la sussistenza di un rapporto inscindibile tra accuratezza-generalità della fase di concettualizzazione e disegno della ricerca Tale considerazione ha anche delle ricadute a livello operativo, in termini di scelta delle tecniche di rilevazione: quanto più analitico e accurato è il processo di «traduzione del problema cognitivo in un insieme elaborato di concetti», tanto più è consigliabile utilizzare tecniche di rilevazione dotate di un alto livello di strutturazione interna; viceversa, quanto «più il ricercatore sarà interessato alla situazione di ricerca come occasione da cui derivare idee relativamente al problema indagato», tanto più sarà consigliabile adottare le tecniche di rilevazione meno strutturate.

Per evitare i rischi… Per evitare i rischi di sovra-rappresentazione e sotto-rappresentazione della concettualizzazione è consigliabile:

far precedere alla concettualizzazione del problema uno studio pilota per recuperare le categorie di pensiero degli attori sociali che vivono in un determinato contesto; valorizzare la fase del pretesting, in modo che fornisca indicazioni su quali domande vadano eliminate e su quali dovrebbero essere inserite; coinvolgere, nella progettazione della ricerca e del questionario, anche soggetti direttamente coinvolti nei fenomeni studiati oppure testimoni privilegiati, cioè participants che abbiano maturato una buona conoscenza del contesto di indagine; l’introduzione di domande filtro all’interno del questionario consente di porre domande che siano pertinenti, in quanto rimandano a domande diverse in funzione delle esperienze dell’intervistato.

Quando il concetto è troppo astratto: la traducibilità empirica dei concetti Molti dei concetti, teoricamente rilevanti, che interessano i ricercatori sono molto astratti, “lontani” dal modo di parlare e ragionare degli intervistati. Concetti come ‘pregiudizio etnico’,‘qualità della vita’, ‘privazione relativa’, ‘ ‘capitale sociale’, ‘rappresentazione dei ruoli di genere’, ‘personalità autoritaria’, ‘percezione del rischio ambientale’, ‘identità’, etc. non sono esplorabili con domande dirette agli intervistati. Per cui, affinché questi concetti possano essere effettivamente utili è opportuno tradurli in concetti vicini all’esperienza dei soggetti da intervistare (Geertz, 1983). Modello di traduzione operativa dei concetti

Familiarità ingannevole Il suggerimento appena proposto non deve indurre a pensare che la rilevazione possa avvenire sempre in modo diretto quando il concetto scelto dal ricercatore sia familiare agli intervistati La familiarità ingannevole si presenta in alcune domande comunemente adottate nell’ambito di sondaggi pubblici, nei quali si chiede, ad esempio, di valutare il gradimento nei confronti di determinati personaggi politici o il grado di soddisfazione di un certo servizio o del proprio lavoro. In questo caso, la familiarità dei concetti (gradimento, soddisfazione) può far pensare ad una sovrapponibilità immediata tra le forme di concettualizzazione del ricercatore e le forme di concettualizzazione operate dagli intervistati. Ma cosa garantisce che gli aspetti considerati dai diversi intervistati nell’esprimere la loro valutazione siano gli stessi e che per di più siano proprio quelli che aveva in mente il ricercatore al momento di progettare la domanda? Nel valutare la soddisfazione per il proprio lavoro, gli intervistati stanno considerando la retribuzione, le opportunità di carriera, gli orari di lavoro, le relazioni con i colleghi, la conciliabilità con la vita privata o qualche altro aspetto? Per utilizzare un’espressione di Lazarsfeld (1935): quali sono gli assunti taciti che si celano dietro le risposte apparentemente chiare degli intervistati?

Soluzioni alla familiarità ingannevole Una prima soluzione per esplicitare gli assunti taciti è di chiedere agli intervistati di specificare le ragioni della loro riposta attraverso domande aperte (eg. quali sono gli aspetti che ti rendono molto soddisfatto del tuo lavoro? Perché hai dichiarato di essere molto soddisfatto del tuo lavoro?). Questa è una soluzione che può essere utilizzata soprattutto durante lo studio pilota o il pretesting allo scopo di avere indicazioni utili alla progettazione definitiva della domanda in accordo con le categorie di pensiero degli intervistati. Un altro modo per esplicitare gli assunti taciti è quello di ricorrere al modello di traduzione operativa dei concetti, scomponendo analiticamente il concetto, per arrivare a chiedere, attraverso una serie di items (corrispondenti agli indicatori), una valutazione in ordine a ciascuno dei possibili aspetti che possono concorrere a definire la soddisfazione. E’ chiaro che ancora una volta la validità di questa proposta è vincolata alla capacità del ricercatore di selezionare aspetti che siano coerenti con le categorie degli intervistati.

Ponderazione soggettiva Con riferimento a questa proposta occorre porsi un altro problema: anche nei casi in cui il ricercatore identifichi appropriatamente le dimensioni e gli indicatori più rilevanti durante le fasi preliminari della survey, cosa garantisce che intervistati diversi attribuiscano lo stesso peso, la stessa importanza, a tutti gli aspetti che concorrono a definire la soddisfazione per il proprio lavoro? Ponderazione soggettiva: Oltre alla scala tesa ad accertare, ad esempio, il grado di soddisfazione relativo ai singoli aspetti del lavoro, la proposta è di introdurre – a debita distanza nel questionario - una domanda a batteria suppletiva

che richieda all’intervistato di stabilire quanto consideri importanti per la propria realizzazione professionale ciascuno degli aspetti proposti nella domanda sulla soddisfazione.

Indice ponderato soggettivamente In questo modo sarà possibile costruire un indice sintetico che preveda una ponderazione soggettiva delle risposte ai singoli items, diversa da caso a caso, piuttosto che una ponderazione standardizzata. 1. Si procede dapprima ad assegnare punteggi negativi all’insoddisfazione e positivi alla soddisfazione (-3: totalmente insoddisfatto; -2 prevalentemente insoddisfatto; -1 parzialmente insoddisfatto….; +3: totalmente soddisfatto). 2. Si calcola poi un indice che ponderi la soddisfazione per ciascun aspetto con il relativo livello di importanza. I i = (p1, i * s1,i + p2,i *s2,i +………pk,i * sk,i) - Dove per ogni iesimo intervistato, p rappresenta il livello di importanza (peso) e s il livello di soddisfazione per ciascuno dei k aspetti considerati per valutare il grado di soddisfazione sul lavoro. 3. Per normalizzarlo e renderlo variabile tra -1 e 1: Inorm,i = (I,i – Imin )/(Imax – Imin) - Dove Imin e Imax rappresentano rispettivamente il valore massimo e minimo che l’indice costruito, nel passaggio precedente, può ottenere.

La validità degli indicatori Come sottolinea criticamente Marradi, «la validità è universalmente considerata una relazione tra il concetto che ha in mente il ricercatore e il risultato della procedura di rilevazione» (1990, p. 69). Il problema della validità così concepito può, in realtà, risultare tanto vago da provocare una quasi totale sovrapponibilità semantica con quello, comunque complementare, dell’attendibilità della rilevazione La confusione a livello definitorio si è riflessa anche a livello di tecniche tese al controllo delle due dimensione della qualità del dato, tanto che - come sostiene giustamente Marradi - la «sostanziale identità delle procedure per calcolare i coefficienti di attendibilità e quelli di validità ha inevitabilmente prodotto un grave annebbiamento della radicale differenza tra i due concetti».

Fasi distinte A questo proposito, si ritiene del tutto condivisibile la necessità espressa da Lombardo di riferire la validità e l’attendibilità a «momenti diversi del farsi della ricerca». Nello specifico, tale questione acquista immediato interesse se si considera che riferire la validità a problemi relativi alle procedure di misurazione conduce automaticamente a postulare un’equivalenza indebita tra indicatore e variabile.

Indicatore e variabile Una volta stabilito che l’indicatore è un «referente di natura concettuale» e che, altresì, la variabile è la «controparte empirica dell’immagine concettuale» (Agnoli, ) restano ben pochi dubbi. Infatti, dalla distinzione in esame ne deriva logicamente la necessità di parlare di indicatore solo con riferimento alla fase in cui si istituisce stipulativamente «un rapporto di indicazione o rappresentanza semantica, fra il concetto che ha suggerito la definizione operativa e uno dei concetti troppo generali per suggerirla» (Marradi) Diversamente dall’indicatore, la variabile risulta, invece, essere già «definita operativamente» (Agnoli, 1994), in quanto «espediente fisico costruito dal ricercatore per classificare, assegnare a categorie ordinate, conteggiare o misurare gli stati di un oggetto cognitivo sulla proprietà o tratto definito dall’indicatore».

La validità degli indicatori Riferendo il problema della validità agli indicatori e quello dell’attendibilità all’insieme dei passi procedurali e degli strumenti necessari per passare dall’indicatore allo stato della variabile su ciascun caso (dato), verrebbe immediatamente ad imporsi una precisa e netta linea di demarcazione tra il problema della validità e quello dell’attendibilità. Infatti, da tale opzione ne discende logicamente che le fasi alle quali riferire i due problemi risultano essere rispettivamente quella di selezione degli indicatori per la validità e quelle di definizione operativa, rilevazione e trattamento delle informazioni per l’attendibilità. Sulla base, di quanto detto, è possibile definire la validità come proprietà del rapporto esistente tra un concetto e un suo indicatore (Marradi, 1980). In virtù del rapporto di rappresentanza semantica tra concetto e indicatore, è possibile affermare che un indicatore è valido quando la parte indicante è superiore alla parte estranea.

Conseguentemente, la validità può essere sinteticamente definita come la «misura» in cui l’indicatore rappresenti semanticamente il concetto che il ricercatore si propone di rilevare.

Criteri di validità degli indicatori Quando un indicatore di un concetto può essere considerato valido? Un indicatore è valido quando soddisfa i seguenti requisiti: A) è sensibile alle caratteristiche dell’ambiente sociale degli intervistati B) ha un’affinità semantica con il concetto C) ha un potere discriminante D) è traducibile in domande di questionario che possano dar luogo a risposte attendibili

La validità degli indicatori Ponendosi in termini di rappresentanza semantica, ogni espediente tecnico teso ad accertare la validità di un indicatore non potrebbe fornire altro che una stima del tutto indiretta della bontà del rapporto istituito tra concetto e indicatore (Marradi, 1990). Ciò implica la necessità di porre la massima attenzione alla pratica argomentativa (retorica) nella scelta degli indicatori, esplicitando quale ruolo il riferimento ad una teoria, al contesto socio-culturale particolare d’indagine e all’unità d’analisi abbiano giocato nel determinare proprio la scelta di quello specifico indicatore per rappresentare un aspetto parziale del concetto di partenza. Oltre che con l’impossibilità di misurare un rapporto di rappresentanza semantica, quasi tutti i tentativi di accertare la validità - o in alcuni casi estremi di misurarla attraverso procedure tecniche basate su elaborazioni compiute all’interno della matrice - si scontrano con la collocazione propria della fase di selezione degli indicatori all’interno del complessivo impianto procedurale dell’indagine.

Attendibilità/Affidabilità/fedeltà del dato Quella dell’attendibilità è sicuramente la dimensione della qualità del dato più articolata e, tuttavia, anche quella che ha subito le forme di riduzionismo concettuale e definitorio più consistenti. Essa si riferisce a tre fasi del processo di costruzione del dato, strettamente interrelate: definizione operativa del concetto, rilevazione delle informazioni, trattamento dei dati grezzi.

Attendibilità come stabilità dello strumento? Tuttavia, l’attendibilità (dall’inglese, reliability) nelle scienze sociali è stata prevalentemente definita, in modo piuttosto semplicistico, come la stabilità dello strumento, ossia come la capacità dello strumento osservativo di dare luogo a risultati pressoché analoghi al variare dell’unità di tempo in cui lo stesso fenomeno viene rilevato. Tra i tanti, Oppenheim afferma che «l’attendibilità si riferisce alla coerenza, alla possibilità di ottenere gli stessi risultati in due successive somministrazioni dello strumento». Ancora prima, Goode e Hatt, che riferiscono il problema dell’attendibilità alle sole scale di atteggiamento, rilevano che «una scala è attendibile quando dà costantemente gli stessi risultati ogni volta che sia applicata allo stesso campione. Come un metro che cambiasse lunghezza, accorciandosi o allungandosi materialmente secondo i cambiamenti di temperatura, sarebbe inutile, così accadrebbe di una scala che offrisse risultati diversi ad ogni diversa applicazione» . Phillips, riferendo il problema dell’attendibilità a qualsiasi strumento osservativo, sostiene, analogamente, che: - “uno strumento di osservazione è attendibile se, applicato allo stesso fenomeno, produce sempre gli stessi risultati (…). Se si utilizza una bilancia a molle per misurare il peso di un soggetto e se la lancetta della bilancia indica lo stesso numero di chilogrammi ogni volta che il soggetto sale sulla bilancia, abbiamo ottenuto la prova del fatto che la bilancia è uno strumento di misura attendibile. Se, d’altro lato, la lancetta si ferma ogni volta su di un numero diverso, ne abbiamo provato l’inattendibilità” Così concepita l’attendibilità apparirebbe immediatamente connessa alla precisione della misurazione, problema palesemente mutuato dalle scienze fisiche. Come ha rilevato Marradi, il concetto di accuratezza dello strumento e quello complementare di errore d’osservazione «nascono in astronomia allorché diviene abituale osservare più volte lo stesso fenomeno per controllare la componente erratica di ciascuna osservazione» Definizioni del termine «attendibilità» basate su rilevazioni ripetute nel tempo sono, dunque, il risultato della pratica abituale nelle scienze sociali di mutuare concetti e relative procedure dalle scienze fisiche senza preoccuparsi della

loro trasferibilità e continuano ad essere offerte da numerosi metodologi, nonostante il concetto abbia subito importanti modifiche, da quando è stato introdotto nelle scienze umane Tale forma di disattenzione si è riflessa anche a livello procedurale, tant’è che la tecnica più conosciuta per il controllo dell’attendibilità è divenuta quella del testretest, nonostante il carattere incontrollabile e, in alcuni casi, del tutto infondato, di gran parte degli assunti su cui essa si fonda. Nonostante le trasformazioni subite dal concetto di attendibilità e il relativo moltiplicarsi delle procedure tese ad accertarla, l’approccio al problema è rimasto sostanzialmente immutato nel corso degli anni. I numerosi coefficienti di attendibilità proposti sono tutti ottenuti attraverso il confronto tra vettori paralleli di cifre. Ciò che è mutato è semplicemente l’unità di riferimento dei vettori . Si è passati, infatti, dal confronto tra vettori relativi al risultato di prove ripetute nel tempo della rilevazione di una medesima proprietà (testretest) al confronto tra vettori di punteggi relativi a una stessa proprietà rilevata attraverso items diversi di uno stesso test (parallel forms e split half), fino ad arrivare a vettori di punteggi relativi ai risultati ottenuti, tenendo costante momento e strumento e facendo variare il rilevatore.

Origini del misunderstanding In particolare, l’approccio al problema dell’attendibilità nelle scienze sociali, fondato sulla stabilità degli esiti della rilevazione/misurazione di una stessa proprietà, ha iniziato a consolidarsi nell’ambito delle scienze umane intorno agli anni ’20, con l’adozione da parte degli psicometrici degli assunti della teoria classica dei test.

Assunti della teoria dei test Seguendo tali assunti, di fatto, ogni scarto tra gli esiti della rilevazione/misurazione di una certa proprietà su un certo gruppo di oggetti/soggetti, ottenuti mutando l’unità temporale di rilevazione o lo strumento o l’osservatore, è stato considerato un errore di misurazione/rilevazione di tipo casuale (random). In questo senso, «la teoria classica dei test, a cui si richiama l’accezione dell’attendibilità definita in termini di costancy dello strumento, assume che il punteggio osservato (observed score) di una variabile sia traducibile nella somma tra il valore vero (true score) e l’errore casuale di osservazione» (Zeller e Carmines). Seguendo gli assunti della teoria classica dei test, gli errori casuali sono quei tipi di errore sempre presenti nei processi osservativi, la cui peculiarità è quella di distribuirsi normalmente (lungo la curva di Gauss o curva normale). Continuando a tracciare gli assunti psicometrici (Lord e Novick), nel lungo periodo, la media degli errori casuali di osservazione, relativi a tutte le possibili repliche della rilevazione di una certa proprietà sullo stesso soggetto e su tutti i possibili campioni, pur variando da rilevazione a rilevazione, tende ad assumere un valore pari a zero (valore atteso degli errori). Conseguentemente, la mancata coincidenza tra valore osservato e valore vero sarebbe interamente attribuibile ad errori casuali che, in quanto tali, tendono ad elidersi reciprocamente.

Errori casuali e sistematici Sulla base di questi assunti le scienze sociali hanno mutuato dalle scienze fisiche la stessa distinzione tra errori casuali/accidentali ed errori sistematici e, soprattutto, la conseguente riconduzione dei primi al problema dell’attendibilità (fase di rilevazione) e dei secondi al problema della validità (fase di selezione degli indicatori). Come sostengono chiaramente Zeller e Carmines, «è di cruciale importanza sottolineare il seguente aspetto: che (… ) la teoria classica dei test è applicabile solo se e quando l’errore di misurazione è interamente casuale. Detto più semplicemente, nella teoria classica dei test, si assume che l’intero errore di misurazione sia random» (Zeller e Carmines) Per questa via, l’accidentalità degli errori di osservazione è stata dunque equiparata a quella componente erratica che in astronomia fa sì che più osservazioni sullo stesso fenomeno non diano luogo allo stesso risultato( Marradi)

Errori di rilevazione sistematici Vi sono numerose forme di distorsione nel processo di rilevazione che assumono forma sistematica e che coinvolgono specificatamente soggetti aventi certe caratteristiche (ad es., basso livello di competenza sui temi posti dalle domande di un questionario che li indurrà a rispondere in modo superficiale, meccanico o in forma del tutto inventata; caratteristiche psicologiche che costringono a conformarsi alle norme di gruppo o all’acquiescenza). Il carattere sistematico di tali errori (bias) fa sì che essi possano riprodursi in modo sostanzialmente identico in successive rilevazioni.

Come sostengono Zeller e Carmines, «il carattere sistematico degli errori rovescia automaticamente uno per uno tutti gli assunti della teoria classica dei tests»

Rifiuto dell’accezione tradizionale di attendibilità E in effetti, una qualsiasi forma di distorsione che, per la stessa unità di rilevazione, si riproponesse in modo sistematico sia nel test che nel re-test (si pensi, ad esempio, ad un response set) farebbe risultare attendibile/affidabile una rilevazione che, in realtà, non lo sarebbe affatto. Se decade l’assunto di una distribuzione casuale degli errori di rilevazione/misurazione, decade automaticamente anche l’assunto da esso immediatamente derivabile secondo cui gli errori sono soggetti ad un annullamento reciproco nel momento in cui li si tratti a livello aggregato e, in ultimo anche l’utilità e la pertinenza nell’ambito delle scienze sociali di far riferimento a qualsiasi definizione di attendibilità fondata sulla stabilità dello strumento. E in effetti, come osserva Marradi (1980), una qualsiasi forma di distorsione che, per la stessa unità di rilevazione, si riproponesse in modo sistematico sia nel test che nel re-test (si pensi, ad esempio, ad un response set) farebbe risultare attendibile/affidabile una rilevazione che, in realtà, non lo sarebbe affatto.

Ri-definizione dell’attendibilità Non a caso lo stesso autore si è impegnato nel ridefinire il termine attendibilità in una prospettiva sostanzialmente diversa da quella fondata sulla stabilità dello strumento, definendola - in modo più estensivo e condivisibile - come «proprietà del rapporto fra il concetto che ha suggerito la definizione operativa e gli esiti effettivi delle operazioni che tale definizione prevede» (Marradi). In un suo contributo successivo (1990), dopo aver riscontrato l’inquinamento e il riduzionismo definitorio subiti dal termine «attendibilità» (reliability), lo stesso autore propone di adottare il termine «fedeltà» e di riferirlo al dato, in quanto esito di un singolo atto di rilevazione, per delimitare e designare quelle aree concettuali che non sono state rappresentate dal termine «attendibilità» nella sua accezione canonica.

Fedeltà del dato È da notare, però, come tale opzione terminologica, che Marradi mutua dalla letteratura francese, contribuisca solo in parte a risolvere il problema. In un dizionario francese della ricerca qualitativa, recentemente tradotto anche in italiano, infatti, sotto la voce «fidélité en recherche qualitative», si legge: “In psicometria, disciplina in cui la fedeltà ha molta importanza, questa nozione designa la costanza e la predittività di una misura o di uno strumento. In altri termini, una misura o uno strumento sono fedeli quando si prevede che, da un una applicazione all’altra, diano risultati costanti. Così, una scala di atteggiamento che misura l’empatia può dirsi fedele, se, ogni volta che viene utilizzata, misura la stessa nozione di empatia, secondo gli stessi parametri, e niente altro” (Mucchielli) Se il termine fedeltà risulta, quindi, affetto dalla medesima contaminazione, tanto vale rinunciare ad affrontare il problema su un piano terminologico

Fedeltà/attendibilità/affidabilità La fedeltà/attendibilità/affidabilità, anziché essere considerata una proprietà dello strumento, andrebbe riferita, da un lato alla definizione operativa e dall’altro al singolo atto di rilevazione, ossia alla sua rispondenza alle operazioni stabilite attraverso la definizione operativa. In questo senso, possiamo sostenere che un dato, inteso come esito finale di un singolo atto di rilevazione sul generico caso, orientato dalla definizione operativa predisposta dal ricercatore, è inattendibile/inaffidabile/infedele, quando difetti nella definizione operativa e/o nell’esecuzione delle operazioni da essa previste impediscano di rilevare la proprietà (o un suo indicatore) che il ricercatore intendeva rilevare. Prima di poter controllare l’attendibilità, occorrerebbe dunque aver riposto un certo grado di fiducia nella definizione operativa. Marradi (1990) a questo proposito introduce la nozione di «affidabilità a priori della definizione operativa».

Dovrebbero inoltre essere previste procedure specificatamente tese ad accertare in che misura il grado di fiducia assegnato alla definizione al momento di sceglierla trovi un successivo riscontro nel momento in cui si proceda a rilevare le informazioni e a trattarle in vista della elaborazione dei dati. È a questo riguardo che Marradi (1990)

introduce la nozione complementare alla precedente di «affidabilità a posteriori della definizione operativa». Specificazione del concetto di attendibilità

La sincerità della risposta; La congruenza di significato nell’interpretazione della domanda e della risposta; Il livello di analiticità/sintesi della classificazione

La sincerità della risposta

A tale riguardo, è importante non lasciarsi confondere dalla apparente semplicità della categoria concettuale in questione. L’uso che del termine si fa nel linguaggio di senso comune è, infatti, molto prossimo a quello di tendenza a dichiarare il vero. Si ritiene, invece, che, se importata dal linguaggio di senso comune a quello scientifico, la prossimità semantica esistente tra il concetto-termine di «sincerità» e quello di «veridicità» della risposta diventi automaticamente solo apparente, al punto che potrebbe essere tradotta in termini di contrapposizione.

Sincerità vs. veridicità della risposta «Teorema di Thomas»: «Se gli uomini definiscono come reali certe situazioni, esse sono reali nelle loro conseguenze» (Merton,). Senza bisogno di riportare tutte le implicazioni che il nostro autore ne trae, ai nostri fini, basti riportarne una, che vale a sciogliere ogni dubbio circa la presunta possibilità di utilizzare intercambiabilmente i concetti sopra richiamati: «le apparenze ingannevoli creano spesso delle credenze sincere» Boudon: «le più influenti tra le tendenze delle scienze umane convergono verso una dottrina “toto-opinionista”: esse affermano che nella realtà esistono solo opinioni, però vissute dal soggetto con la modalità della convinzione. Soltanto l’esperto in disillusione sarebbe dotato dei poteri specifici necessari per far apparire la “realtà nascosta” che si cela dietro l’illusione dell’oggettività Kahn e Cannel, (1957): - Nel rispondere ad una domanda «Cosa ne pensa del suo caporeparto?», intervengono molti fattori emozionali che «possono impedire una risposta sincera a questa domanda» E continuano sostenendo che «invece di un unico vero atteggiamento, che egli mantiene invariantemente, indipendente dalle circostanze, il dipendente ha probabilmente una varietà di atteggiamenti abbastanza diversi nei confronti del suo caporeparto, secondo la situazione» . Dopo aver avanzato diverse ipotesi circa quale fra i diversi atteggiamenti dovrebbe essere considerato quello “vero”, concludono che l’atteggiamento che si andrà a registrare «dipende quasi interamente dagli obiettivi dell’intervista»

Sincerità della risposta La dichiarazione apparentemente falsa di un intervistato che, ad esempio, pur svolgendo una professione comunemente considerata di basso rango dichiarasse di appartenere ad una classe sociale elevata - perché è quella la classe di cui si sente parte in quanto ne condivide interessi e credenze - è rivelatrice di informazioni sociologicamente rilevanti che - a ben pensarci - andrebbero considerate più «attendibili» di qualsiasi altra verità presunta. La sincerità dell’informazione rilasciata all’intervistato è definibile, weberianamente, come l’intenzionalità dell’attore sociale di fornire la risposta che, soggettivamente, si approssima maggiormente alla sua personale rappresentazione delle cose e delle idee inerenti alla domanda. Il tipo di distorsione che limita le possibilità di costruire un dato di qualità è, conseguentemente, quella che fa sì che la specifica forma di rappresentazione della realtà registrata dall’intervistatore non converga con la rappresentazione personale che l’intervistato ha di se stesso e delle «forme sociali» che lo circondano.

Desiderabilità sociale delle risposte Una tra le forme di distorsione considerate più insidiose per la sincerità delle risposte e maggiormente studiate nell’ultimo cinquantennio è la desiderabilità sociale delle risposte (Rsd), vale a dire la tendenza dell’intervistato a tenere celati modi di pensare, sentire e agire in contrasto con le norme sociali più estese o condivise nei propri gruppi di riferimento

Fattori che inducono desiderabilità I fattori che inducono a fornire una risposta socialmente desiderabile potrebbero essere utilmente collocati su tre livelli: micro, meso e macro. Il livello micro è riferibile al rapporto tra intervistato e intervistatore e si traduce nella necessità di salvaguardare la propria immagine e auto-stima nel corso dell’intervista (desiderio di convogliare un’immagine positiva di sé, timore di essere giudicati negativamente dall’intervistatore). Il livello meso è riferibile al rapporto tra il soggetto e i gruppi di riferimento più ristretti e si traduce nel bisogno di coerenza con le norme e i valori condivisi all’interno del gruppo, che il ruolo interno ricoperto dal soggetto richiede siano interiorizzati e agiti. Il livello macro è, invece, riferibile al rapporto tra l’intervistato e il contesto sociale più esteso a cui egli sente di appartenere e si traduce nel bisogno di coerenza con le norme e i valori socialmente condivisi.

Naturalmente la pressione esercitata da ciascun livello può essere più o meno variabile in relazione al grado di normatività del soggetto, ossia al tipo di adattamento individuale degli individui rispetto all’orientamento culturale della società.

Per evitare i rischi di desiderabilità: la formulazione delle domande Con riferimento al wording delle domande, tutte le indicazioni vertono sulla necessità di evitare di formulare leading questions, che indirizzino più o meno velatamente l’intervistato verso un certo tipo di risposta. In questo caso le domande sono sovra-determinate perché possono far presumere all’intervistato che certe risposte siano più socialmente accettabili o più gradite all’intervistatore/ricercatore di altre. Un modo per certi versi opposto, nel caso di sensitive questions, è di creare condizioni in cui ogni risposta è ugualmente accettabile. Un ben noto esempio è l’approccio utilizzato da Kinsey (Kinsey et al., 1948), che pose domande sulla vita sessuale degli americani in uno stile direttivo. Nel prefigurare le alternative di risposta, una strategia potrebbe essere quella di presentare per prime le alternative meno desiderabili.

La forma delle domande Tutti gli studi convergono nell’indicare che la domanda chiusa presenta un maggior rischio di risposte socialmente desiderabili. L’introduzione dell’alternativa “non so” nel piano di chiusura della domanda non sempre può risolvere il problema perché l’ammissione di “non sapere come rispondere” può essere percepita a sua volta come non desiderabile. Lasciare la possibilità all’intervistato di rispondere in forma libera limita le possibilità che egli possa elaborare una risposta socialmente desiderabile o che inventi un’opinione.

Le caratteristiche dell’intervistatore Una lunga tradizione di studi sperimentali, ha messo in luce l’influenza delle caratteristiche di background degli intervistatori sulla sincerità delle risposte degli intervistati (etnia, sesso, età, statuds socio-culturale, etc.). Senza volere assumere un atteggiamento troppo liquidatorio nei confronti di questi studi, si ritiene che nella scelta degli intervistatori e nella distribuzione delle interviste da fare sia decisamente il buon senso del ricercatore a dover prevalere. Ad esempio, non faremmo mai condurre l’intervista in un contesto occidentale ad un soggetto di origine africana se l’intervista vertesse sul pregiudizio etnico, così come eviteremo che intervistato e intervistatore abbiano sessi diversi se il questionario riguardasse la vita affettiva e sessuale.

Lo stile di conduzione dell’intervista L’interessante esperimento condotto sul campo da Dijkstra e van der Zouwen (1985), teso a confrontare gli effetti dello stile di conduzione dell’intervista sulla sincerità sociale delle risposte, giunge alla conclusione che, contrariamente a quello che si potrebbe pensare, risposte socialmente desiderabili sono meno frequenti nei casi in cui gli intervistatori siano stati addestrati ad uno stile di intervista «personale» (o socio-emotivo) piuttosto che ad uno stile impersonale e formale.

La modalità di conduzione dell’intervista Atri esperimenti metodologici si sono focalizzati sull’effetto che i differenti modes of data collection (mode comparison studies) hanno sulla sincerità della risposta. Molti di questi studi convergono nel determinare che i questionari auto-compilati in confronto alle interviste faccia a faccia e telefoniche danno luogo ad un numero inferiore di risposte socialmente desiderabili, soprattutto quando vengono chieste domande sensibili (Lazarsfeld e Frasen, 1945; De Leuw, 1992; De Leuw, Mellnbergh, Hox, 1996, Presser e Stinton, 1998; Tourangeau e Smith, 1996; Turner et al., 1998; Krosnick et al., 2003). Inoltre, l’intervista telefonica risulta dare luogo ad un maggior numero di risposte socialmente desiderabili rispetto all’ntervista face-to-face perché non può avvalersi delle strategie comunicative volte a mettere a proprio agio l’interlocutore. In realtà, le scelte del ricercatore in ordine al modo di condurre l’intervista dovranno rapportarsi di volta in volta, tra gli altri fattori, alla natura delle proprietà da rilevare.

Possibilità di pensare a mixed modes of data collection, per cui si potrebbe condurre un’intervista faccia a faccia, riservando, a fine intervista, di far autocompilare all’intervistato il nucleo delle domande più intrusive e imbarazzanti, prevedendo che l’intervistato riconsegni all’intervistatore questa sezione del questionario in busta chiusa.

Il mito della coerenza delle risposte In letteratura, si ritiene che le risposte per essere sincere debbano essere coerenti con le risposte date ad altre domande che si richiamano allo stesso concetto sottostante. Tuttavia, qualsiasi tentativo di controllare la sincerità delle risposte attraverso criteri di coerenza è destinato ad essere artificioso per le seguenti ragioni: - coerenza come costruzione dell’intervistato: la coerenza in alcuni casi potrebbe essere una costruzione dell’intervistato nel tentativo di tenere celate proprio quelle parti di sé meno conformi agli attributi socialmente accettabili. - coerenza come costruzione della situazione di intervista: in altri casi l’esigenza di coerenza potrebbe essere una costruzione non autentica della situazione di intervista. Ad esempio, se un soggetto dichiarasse di essere credente, pur non sentendosi tale, perché immagina che l’intervistatore si sia fatto quella idea sulla base delle risposte fornite ad altre domande di questionario, avrebbe fornito una risposta coerente ma non sincera. - idiosincrasie e atteggiamenti ambivalenti: negli atteggiamenti complessi come il pregiudizio etnico, l’ambivalenza nei sentimenti e nelle credenze rappresenta spesso la norma, piuttosto che l’eccezione. In letteratura ricerche (Mauceri, 2004) dimostrano che atteggiamenti ambivalenti sono più frequenti quando il soggetto non aderisce normativamente alle prescrizioni sociali o dettate da gruppi fondati su base valoriale o ideologica (religioso, politico, etc.). Il rischio è quindi di valutare inattendibili risposte che invece registrano fedelmente queste forme di coesistenza di credenze e sentimenti diversamente orientate nei confronti di uno stesso tema.

Quando esiste uno stato effettivo In realtà, è bene precisare che almeno in un caso, ossia laddove esista uno stato effettivo del soggetto su quella proprietà registrato da fonti ufficiali di documentazione, è possibile operare un confronto teso ad accertare la corrispondenza tra stato rilevato e stato effettivo (Marradi, 1990), per quanto debba essere preliminarmente accertata l’affidabilità delle fonti.

La congruenza di significato Galtung, nell’affrontare la questione dell’attendibilità/affidabilità, ha il merito di sostenere che per reliability «non si intende stabilità (costancy), ossia la proprietà dell’intervistato di fornire la stessa risposta quando esposto allo stesso stimolo (molto spesso confusa con l’attendibilità in letteratura), ma intrasoggettività (per esempio che lo stesso scienziato sociale codifichi la stessa risposta nello stesso modo) e inter-soggettività (per esempio che vari scienziati sociali codifichino la stessa risposta nello stesso modo)».

Congruenza intersoggettiva Partendo da questa importante considerazione, che purtroppo Galtung manca di approfondire ulteriormente nel corso della sua esposizione, è possibile considerare altre due dimensioni fondamentali dell’attendibilità da affiancare a quella della sincerità delle risposte: Congruenza intersoggettiva: rappresenta il grado in cui soggetti diversi interpretano gli stessi termini e le stesse combinazioni di termini in modo conforme ai significati che il ricercatore aveva in mente al momento di elaborare lo strumento di rilevazione o ai significati che l’intervistato aveva in mente al moneto di formulare la risposta. Congruenza intrasoggettiva: rappresenta il grado in cui lo stesso soggetto interpreta sempre allo stesso modo gli stessi termini e le stesse combinazioni di termini e in modo conforme alle intenzioni del ricercatore.

Congruenza inter-soggettiva Riferendo questa proprietà alla tecnica di intervista con questionario, questa proprietà risulta, a sua volta, scomponibile in: congruenza intersoggettiva nell’interpretazione della domanda: grado in cui intervistati diversi interpretino il testo della domanda (o termini/espressioni chiave ivi contenute) conformemente al significato attribuitogli dal ricercatore al momento di progettare e costruire il questionario; congruenza intersoggettiva nell’interpretazione delle alternative di risposta (solo per domande con risposte chiuse): grado in cui intervistati diversi interpretano i testi delle alternative di risposta conformemente al significato attribuito loro dal ricercatore;

congruenza intersoggettiva nell’interpretazione della risposta (solo per le domande poste in forma aperta): grado in cui diversi intervistatori/ricer-catori/analisti interpretano e codificano la stessa risposta in modo coerente con il significato espresso dall’intervistato. Tre tipi di congruenza Congruenza semantica ; Congruenza sintattica ; Congruenza pragmatica ;

Tre principi per la formulazione delle domande I tre principi proposti da Lazarsfeld nel 1935, con riferimento all’arte di chiedere perché nelle ricerche di mercato, si prestano ad essere tuttora criteri validi per fondare la comparabilità delle risposte sulla congruenza dei significati in qualsiasi tipo di survey. Nella sua proposta, Lazarsfeld si pone il problema della comparabilità delle risposte, valorizzando il ruolo dell’intervistatore, ma anche richiamando il ricercatore alla massima cura nella specificazione delle domande e nel training degli intervistatori: Principio di specificazione ; Principio di divisione ; Principio dell’assunto tacito.

Livello di sintesi/analiticità della classificazione La definizione operativa definisce anche il livello di sintesi-analiticità con cui registrare l’informazione, classificarla e formalizzarla sotto forma di dato. Essa si configura, dunque, come terza sotto-dimensione dell’attendibilità. Sia la rilevazione che il trattamento delle informazioni raccolte possono dare luogo alla classificazione, rispettivamente dell’informazione e del dato, a diversi livelli di sensibilità (Marradi, 1992). La sensibilità di una classificazione è il rapporto tra il numero di classi che istituiamo e il numero di forme in qualche modo diverse fra loro che può assumere l’oggetto/fenomeno che stiamo classificando Ne dovremmo concludere, quindi, che il ricercatore deve sempre e comunque puntare sul livello di sensibilità massimo della classificazione nel momento in cui progetti un questionario con domande chiuse o nel momento in cui si trovi a dover classificare le risposte ad una domanda aperta? L’informazione deve essere rilevata al livello di analiticità-sintesi necessario per rispondere alle finalità dell’indagine. Ad esempio, è documentabile come la richiesta del reddito in termini puntuali possa indurre facilmente mancate risposte o risposte non sincere, in misura assai maggiore di quanto possa avvenire rilevando la collocazione all’interno delle fasce di reddito. E, allora, perché rischiare di ridurre la qualità del dato, quando, invece una maggiore sensibilità della classificazione può non essere una meta richiesta? Convenendo con Campelli, potremmo, quindi, sostenere, che «l’attributo della vaghezza riferito alla misurazione, in altri termini, non è qualcosa che c’è o non c’è: esso si pone e dipende esclusivamente dal grado di approssimazione [livello di sintesi della classificazione] tollerato dal problema»

Livello di sintesi/analiticità Anche laddove il ricercatore non prefiguri alternative di risposta (domande con risposte aperte), è sempre opportuno che stabilisca a priori a quale livello di sintesi massimo - o di analiticità minimo - dovrà essere registrata l’informazione. Se ciò non avvenisse, sarebbe alto il rischio di ricevere risposte a livelli diversissimi di sintesi/ analiticità, poiché l’intervistatore non sarebbe nelle condizioni di sapere quando un approfondimento della risposta sarebbe necessario e quando, al contrario, risulterebbe del tutto superfluo (probing).

Dal dato ai dati Nella letteratura anglosassone sono indicate altre dimensioni della qualità del dato, che dal nostro punto di vista sono riferibili ai risultati della survey.

La completezza della base empirica Il passaggio dala qualità del singolo dato alla qualità dei risultati della survey implica un’attenzione specifica all’inclusione della completezza della base empirica, nelle sue due dimensioni: il problema delle risposte mancanti; il problema dei refusals. Le risposte mancanti La mancata risposta o le risposte del tipo “dont’t know” possono essere riferite ad una carenza in una o più dimensioni della qualità del dato: A) rilevanza: la domanda è irrilevante agli occhi dell’intervistato o non era pertinente al suo caso? B) congruenza intersoggettiva dei significati: la domanda o le alternative di riposta non sono

sufficientemente comprensibili? C) sincerità della risposta: la domanda è troppo intrusiva? La presenza dell’intervistatore è fonte di imbarazzo per l’intervistato? Lo stile di conduzione dell’intervista non mette a proprio agio l’intervistato? D) livello di accuratezza della riposta: la domanda prevede un compito cognitivo troppo oneroso? la domanda prevede una richiesta di approfondimento della risposta che è incompatibile con le possibilità dell’intervistato di elaborare una risposta a quella domanda?

Altre ragioni per le risposte mancanti Ci sono poi ragioni per cui l’intervistato può decidere di non rispondere che rinviano alle reazioni dell’intervistato all’intero impianto della ricerca o alle singole domande: la domanda è stata posta quando l’intervistato era già stanco? L’intervistatore non è riuscito a coinvolgere sufficientemente l’intervistato? L’intervistatore ha condotto l’intervista in modo da far credere che fosse poco interessato alle risposte dell’intervistato? le garanzie di anonimato del questionario non sono credibili?

I rifiuti Uno dei tratti costitutivi della survey è quella di avvalersi di un campione estratto da una popolazione più estesa. L’intento di fondo è quello di inferire le caratteristiche della popolazione d’indagine rilevando i dati su una porzione più ristretta (campione), opportunamente selezionata. Per quanto riteniamo insostenibili molti degli assunti alla base della teoria dei campioni un alto tasso di rifiuti indica problemi che non possono essere ignorati. Si tratta di problemi che rinviano nuovamente alla capacità del ricercatore di progettare adeguatamente il sistema di rilevazione anche al di là della situazione di intervista: rilevanza del problema: il problema d’indagine scelto assume una rilevanza adeguata all’interno della popolazione d’indagine prescelta? Modalità di rilevazione: quali sono le ricadute della modalità di intervista sul tasso di rifiuti? gestione del primo contatto: gli intervistatori sono stati formati a a gestire adeguatamente il primo contatto e a motivare i soggetti campionati a farsi intervistare? compatibilità con le esigenze degli intervistati: gli orari e le modalità di contatto (e di intervista) sono compatibili con gli orari e le esigenze dei soggetti che fanno parte della popolazione d’indagiine? credibilità della survey: il questionario è accompagnato da una presentazione della ricerca capace di motivare l’intervistato e in cui le garanzie di anonimato sono credibili?

Il ciclo qualitativo di controllo della qualità dei dati Lazarsfeld, nel 1944 ha avanzato una proposta di negoziazione tra approccio quantitativo e qualitativo alla ricerca che faceva leva sull’integrazione tra tecniche standardizzate e non standardizzate: “L’intervista in profondità è indispensabile all’inizio di ogni ricerca per classificare la struttura di un problema in tutti i suoi dettagli. Essa è anche preziosa alla fine di uno studio per chiunque non sia soddisfatto della sola registrazione delle basse correlazioni che generalmente otteniamo. La buona ricerca consiste in un andirivieni tra l’intervista in profondità e le tecniche più standardizzate” (Lazarsfeld, 1944). Inoltre di recente sono state ideare procedure innovative di pretesting del questionario che si avvalgono di strategie qualitative e che prospettano anche un’integrazione in itinere. L’integrazione favorisce una circolarità più solida nella ricerca quantitativa.

Funzioni dell’incorporazione delle tecniche di ricerca qualitative nei diversi momenti della survey Ex-ante: supportare la fase di concettualizzazione del problema, la formulazione di ipotesi e la progettazione del questionario. In itinere: Utilizzate durante la fase di pretesting supportano la revisione del questionario e del sistema di concettualizzazione. Ex-post: L’analisi dei casi devianti mediante tecniche di intervista non standardizzate consente di: a) identificare distorsioni a carico della validità degli indicatori e dell’affidabilità delle risposte; b) specificare il modello teorico e le ipotesi.

Funzioni dello studio pilota

Lo studio pilota consente di orientare: - la formulazione del problema: specificazione degli interrogativi di ricerca e della popolazione; -la concettualizzazione del problema: la selezione di concetti (e la formulazione di ipotesi) che siano rilevanti dal punto di vista dei soggetti (dimensione of data quality: rilevanza soggettiva dei concetti): la selezione di indicatori di concetti inferenziali che siano sensibili alla specificità del contesto di studio (validità degli indicatori); - la progettazione di domande di questionario (competenze linguistiche, possibili alternative di risposta a un domanda: attendibilità delle risposte).

La ricerca sulla convivenza multiculturale nelle residenze universitarie Tra il 2006 e il 2009 è stato avviato un programma di ricerca con strategie qualitative avente come oggetto le pratiche e le dinamiche della convivenza multiculturale (Mauceri). In una delle ricerche interne al programma fu indagata la convivenza multiculturale nelle residenza universitarie della Sapienza Università di Roma. E’ una caso di studio interesante perché all’interno delle residenze universitarie circa la metà degli studenti è composta da studenti stranieri e di questi circa l’80% era di nazionalità albanese. Lo studio si concentrò su una delle cinque residenze universitarie attive sul territorio e si è avvalsa di quattro sessioni di focus groups (uno solo con studenti italiani, uno solo con albanesi, uno solo con studenti straneiri di nazionalità albanese e uno misto). La forma delle relazioni sociali tra albanesi e gli altri gruppi che è emersa è stata descritta dagli stessi partecipanti come “separatezza nella indifferenza”. I meccanismi generativi di questa forma sociale emersi dai focus sono molti.

Orientare la formulazione del problema Per illustrare come una ricerca qualitativa possa orientare la formulazione di un problema per la survey research ci soffermeremo solo su alcuni di essi. Grazie alla partecipazione ai focus groups di soggetti che vivevano nella residenza universitaria da molti anni (ad es. perché dopo la laurea avevano iniziato il dottorato), sono emersi risultati interessanti in una prospettiva diacronica. La qualità delle relazioni degli albanesi con gli italiani e gli altri studenti sono progressivamente peggiorate all’aumentare del loro numero nelle residenze universitarie e al modificarsi della morfologia e della gestione degli spazi fisici da parte delle aministrazioni. Con riferimento a questo aspetto è emerso che al crescere del numero di studenti albanesi, alcuni spazi di socializzazione come la sala per le feste erano stati chiusi e che i responsabili delle residenze per evitare conflitti avevano cambiato criteri di assegnazione degli studenti nelle stanze, privilegiando la divisione per gruppi di nazionalità, incentivando così sospetto reciproco e divisioni. L’interesse suscitato da questi risultati ha suggerito di progettare una survey research che potesse rispondere a questo interrogativo di rcerca: come varia la qualità delle relazioni interetniche (intesa come percezione soggettiva) nelle residenze universitarie al variare delle diverse figurazioni degli spazi abitativi di convivenza multiculturale e delle loro diverse forme di gestione?”. Conseguentemente la ricerca è stata ampliata ed estesa a tre residenze universitarie differenziante in funzione dell’architettura dello spazio (divisione in stanze o in appartamenti; disponibilità e organizzazione degli spazi comuni); delle dimensioni (numero dei posti letti e superficie); dell’incidenza di studenti stranieri e di studenti albanesi. La comparazione della forma delle relazioni interetniche nei tre contesti ha consentito di controllare sistematicamente le ipotesi scaturite dallo studio pilota. Lo stesso studio pilota ha avuto una funzione fondamentale nella fase di concettualizzazione del problema, segnalando quali aspetti dovessero essere rilevati e quali ipotesi potessero connetterli. Seguendo le indicazioni della Grounded Theory, la conclusione della ricerca qualitativa era infatti stata la progettazione di una modello di relazione tra categorie concettuali (spontanemente emerse durante i focus groups) e dei meccanismi generativi della “separatezza” tra gruppi (indicati nei riquadri incorniciati). Il modello ha costituito guida essenziale per la concettualizzazione del problema nella survey, che si è arricchito anche attraverso i riferimenti alle teorie sulla convivenza multiculturale.

Uno studio pilota “naturale” Deve essere notato che in questo caso lo studio pilota non era stato programmato nell’ambito di un progetto di ricerca, tant’è che la ricerca qualitativa è stata pubblicata autonomamente per l’interesse dei risultati ottenuti. L’esempio è stato volutamente posto per sottolineare una delle conseguenze più dannose della “separatezza” tra

approcci qualitativi e quantitativi. Generalmente un ricercatore quantitativo, prima di svolgere la propria ricerca analizza solo altre ricerche quantitative e viceversa. Questa tendenza deprime ogni possibilità di fecondazione reciproca e ostacola il processo di cumulatività dei risultati in qualsiasi settore di studio. Seguire la prospettiva dei mixed methods significa anche che ciascun approccio suggerisce all’altro interrogativi di ricerca e percorsi di indagine stimolanti. Un ricerca qualitativa può diventare spontaneamente studio pilota per una survey quantitativa e viceversa.

Strategie qualitative di pretesting Controllo in itinere della qualità del dato

Strategie qualitative di pretesting del questionario Le nuove strategie di pretesting per identificare i problemi associati al processo di risposta risultano maggiormente codificate e comprensive di aspetti fondamentali per massimizzare la qualità del dato rispetto ai pre-test informali del passato. Queste strategie includono l’uso di: (1) discussioni all’interno di focus group per ricercare problemi come quello della sensibilità al tema della domanda o per integrare il sistema di concettualizzazione, (2) interviste intensive faccia a faccia con gli intervistati per apprendere come interpretano le domande e formulano le loro risposte.

Intervista cognitiva e intervista sull’intervista Diversi sono gli studi pilota che, all’interno di diversi Survey Research Centers, hanno sperimentato alcune procedure non standardizzate, ispirandosi alla psicologia cognitiva, con lo scopo di migliorare il disegno del questionario. Da questi studi è derivata l’elaborazione della cosiddetta intervista cognitiva. Sulla stessa linea si pone il programma avviato dal Centro di ricerca di Lodz, fondato in Polonia da Zigmunt Gostkowski e Jan Lutynski, che concentra l’attenzione da più di vent’anni sul miglioramento delle tecniche di ricerca standardizzate (Lutynski, 1988). La procedura proposta assume il nome di intervista sull’intervista.

Probing del processo di risposta In tutte le versioni proposte è previsto che l’intervistato sia coinvolto in un attività di approfondimento (probing) dei processi cognitivi e interpretativi che hanno orientato il processo di risposta alle domande di questionario.

I problemi indagati Come gli studiosi che hanno utilizzato questa procedura sottolineano, gran parte della sua riuscita giace sull’abilità del ricercatore di elaborare probes da sottoporre agli intervistati che consentano di identificare e analizzare in profondità i seguenti tipi di problemi: problemi nella comprensione della domanda e delle alternative di risposta prefigurate (comprehension probes); problemi nella scelta della risposta tra le alternative prefigurate; problemi di incongruenza tra il punto di vista adottato dall’intervistato nel fornire la risposta e il fundamentum divisionis della classificazione delle categorie di risposta prefigurate dal ricercatore; problemi di recupero in memoria delle informazioni. Tavola sinottica dei probes utilizzati nello studio condotto Obiettivo Probes generali per identificare sia la comprensione della domanda, sia la gamma dei punti di vista adottati dagli intervistati nel rispondere. Formulazione -Per quale motivo/perché ha dato proprio questa risposta? -Potrebbe dirmi qualcosa di più a proposito della risposta che mi ha dato? Potrebbe approfondire la risposta che mi ha dato? Obiettivo Probes generali per determinare il livello di comprensione dell’intera domanda. Formulazione -Potrebbe ripetere la domanda a parole sue? Obiettivo Probes generali per determinare l’adeguatezza delle alternative di risposta prefigurate e, indirettamente, la congruenza di significato nell'interpretazione delle domande e delle alternative di risposta. Formulazione -Se avesse dovuto rispondere a parole sue, che cosa avrebbe detto? Obiettivo Probes specifici per identificare la gamma di punti di vista adottati nel dare la risposta e, indirettamente, anche il significato attribuito alla domanda. Formulazione -Quali aspetti/eventi ha considerato nel fornire la sua risposta? Obiettivo Probes specifici per determinare come siano state interpretate parole/espressioni chiave inserite nel testo della domanda. Formulazione -Nel rispondere quale significato ha attribuito a [termine/parola/espressione] "X"?

Obiettivo Probes specifici per determinare l’adeguatezza delle alternative di risposta prefigurate e degli items previsti. Formulazione -Direbbe che è stato facile o difficile selezionare una delle categorie? Perché è stato facile/difficile? -Secondo lei, le alternative di risposta che le sono state fornite erano appropriate per poter esprimere la sua opinione? -Ritiene che la categoria scelta rappresenti una descrizione accurata/precisa della sua posizione/opinione? (Se no) Perché ritiene che non la rappresenti precisamente? Obiettivo Probes specifici per determinare come i siano state interpretate espressioni/parole chiave inserite nelle alternative di risposta. Formulazione -Cosa significa secondo lei il termine/espressione "X"?

Lo stile di conduzione dell’intervista sull’intervista L’intervistatore dovrà tentare di ottenere la massima cooperazione dall’intervistato. L’intervistatore dovrà condurre l’intervista sull’intervista in modo flessibile. L’intervistatore non dovrà condurre l’intervista sull’intervista in modo meccanico. L’intervistatore non dovrà procedere troppo velocemente.

Le 2 funzioni dell’analisi dei casi devianti 1. Promuovere l’affinamento teorico per migliorare le capacità esplicativo-previsionali delle scienze sociali: l’analisi dei casi devianti consente di introdurre fattori addizionali inizialmente non previsti 2. Accertare difetti nelle fasi contemplate dal modello di traduzione operativa dei concetti per aumentare l’affidabiltà delle procedure classificatorie: attraverso il confronto tra la classificazione dei casi su due indicatori o indici riferibili al medesimo concetto è possibile accertare perché alcuni casi (devianti) siano stati classificati diversamente.

Funzioni di ri-concettualizzazione Si ritiene opportuno, a questo punto dell’analisi, specificare quali specifici tipi di revisione al sistema di concettualizzazione l’analisi dei casi devianti può consentire. Si distingueranno, a questo riguardo, le seguenti funzioni: A) orientare la chiarificazione dei concetti inclusi all’interno di un sistema di ipotesi; B) orientare la specificazione dei modelli di spiegazione attraverso l’identificazione di variabili suppletive, inizialmente non previste, che contribuiscono a specificare a quali condizioni una certa ipotesi risulti valida entro uno specifico contesto; C) orientare la specificazione dei modelli previsionali attraverso l’identificazione delle ragioni degli scostamenti tra effetti previsti ed effetti ottenuti in specifici sotto-gruppi (devianti) a seguito dell’introduzione di uno “stimolo”.

La chiarificazione concettuale L’ACD consente di precisare l’intensione di un concetto e di introdurre indicatori rilevanti inizialmente trascurati: attraverso questo specifico uso dell’ACD, è possibile includere ex-post indicatori del concetto inizialmente trascurati, allo scopo di definire meglio l’intensione del concetto stesso e rafforzare, conseguentemente, la forza delle relazioni statistiche tra le variabili, in ipotesi associate.

Mass Persuasion (Merton, 1943) Nel suo studio sugli effetti della campagna radiofonica per la sottoscrizione di un prestito per la Difesa, una maratona radiofonica di diciotto ore condotta da Kate Smith, Merton aveva ipotizzato che gli ascoltatori che avevano un parente stretto sotto le armi sarebbero stati più sensibili a certi aspetti della campagna e in particolare al tema del sacrificio dei soldati. L’ipotesi fu corroborata e, tendenzialmente, i soggetti con un parente stretto furono più sensibili al tema del sacrificio toccato dalla Smith. Tuttavia, emerse un significativo numero di casi devianti che, pur avendo un parente stretto sotto le armi, non risultarono sensibili a questo aspetto della campagna.

La chiarificazione del concetto di partecipazione emozionale “in sette casi i soldati erano in servizio sul territorio nazionale, o in zone di operazioni inattive; i casi devianti si spiegano così con la differenza del conteso emozional” “se si utilizza la situazione “avere parenti stretti sotto le armi” come indicatore rudimentale della partecipazione emozionale, si osserva effettivamente un legame tra questa variabile e la sensibilità al tema del sacrificio. Tuttavia, l’analisi dei casi devianti permette di spiegare alcune eccezioni “apparenti” e mostra che il concetto di partecipazione emozionale deve essere meglio chiarito attraverso l’ansietà relativa alla sorte di persone legate affettivamente all’intervistato”

non sono stati rilasciati commenti
Questa è solo un'anteprima
3 pagine mostrate su 29 totali