Domande esame di metodologia , Domande di esame di Metodologia. Università degli Studi di Urbino Carlo Bo
luana.saladino
luana.saladino
Questo è un documento Store
messo in vendita da luana.saladino
e scaricabile solo a pagamento

Domande esame di metodologia , Domande di esame di Metodologia. Università degli Studi di Urbino Carlo Bo

12 pagine
2Numero di download
212Numero di visite
Descrizione
Domande dell'esame di metodologia sui 2 libri : categorizzazione etnografica, modelli e conoscenza scientifica e METODOLOGIA E TECNICHE DELLA RICERCA SOCIALE
2.99
Prezzo del documento
Scarica il documento
Questo documento è messo in vendita dall'utente luana.saladino: potrai scaricarlo in formato digitale subito dopo averlo acquistato! Più dettagli
Anteprima3 pagine / 12
Questa è solo un'anteprima
3 pagine mostrate su 12 totali
Scarica il documento
Questa è solo un'anteprima
3 pagine mostrate su 12 totali
Scarica il documento
Questa è solo un'anteprima
3 pagine mostrate su 12 totali
Scarica il documento
Questa è solo un'anteprima
3 pagine mostrate su 12 totali
Scarica il documento

Domande metodologia 1) l'osservazione partecipante: Si trova nel PARADIGMA INTERPRETATIVISTA che è fondata su 3 elementi: – la ricerca orientata ai soggetti poiché il fenomeno può essere compreso solo considerando il signficato →

attribuito dai soggetti alle loro azioni, in base alle caratteristiche. Essa dipende dalla disponibilità a cooperare degli intervistati nella ricerca intensiva cioè basata su pochi casi così si analizza nel dettaglio

Esperienze a valori dei ricercatori sono importanti per comprendere il fenomeno investigato→ – la ricerca condotta con metodi induttivi poiché la definizione di categorie concettuali parte dal materiale →

empirico raccolto sul campo Le fasi della ricerca sono :

• DEFINIZIONE DELLA DOMANDA COGNITIVA CHE GUIDA i RICERCATORI • INDIVIDUAZIONE DEGLI INTERVISTATI E DEL CONTESTO • CONDUZIONE DELLE INTERVISTE O FOCUS GROUP • ANALISI E COSTRUZIONE DOCUMENTAZIONE EMPIRICA INTERPRETATIVO • COMUNICAZIONE DEI RISULTATI

L'osservazione si distingue in :

– Partecipante inaugurata da Malinowsky quando il ricercatore si inserisce direttamente e a lungo in un gruppo→ sociale, istaurando un rapporto di interazione personale con i membri del gruppo per descriverne i comportamenti e comprenderne le motivazioni. Essa nasce in ambito etnografico a inizio 900 e viene ripresa negli anni 20 dalla scuola di Chicago per lo studio delle culture urbane. Essa si compone in 5 fasi :

1. individuazione del fenomeno e del gruppo da studiare 2. scelta del ruolo osservativo che può essere occulta ( l'accesso al gruppo avviene in incognito) o palese (se il

lavoro sul campo viene preceduto dalla presentazione del ricercatore) 3. analisi documentazione 4. classificazione in tipi ideali e categorie 5. comunicazione dei risultati

I problemi sono : la difficoltà di accesso al gruppo , grande investimento di tempo/risorse psicologiche e difficoltà di conservare l'oggettività nella valutazione dei risultati.

– Non partecipante si realizza raccogliendo dati sul comportamento di un gruppo di individui in laboratorio o → nell'ambiente naturale , ma senza coinvolgimento diretto. Essa si concentra su:

1. contesto fisico: ossia conformazione strutturale degli spazi in cui si sviluppa l'azione sociale studiata 2. “”storico: eventi che coinvolgono i membri del gruppo 3. “” sociale : la strutturazione del gruppo in sottogruppi, dimensioni ecc 4. attività: svolte dagli attori 5. interazioni formali che si sviluppano all'interno di istituzioni e organizzazioni vincolate da codici stabiliti 6. “” informali causali 7. interpetazione degli attori sociali cioè i significati attribuiti alle loro azioni

2) i modelli simulativi:è formato da: .- un insieme di agenti che rappresentano gli individui - insieme di risorse che rappresentano occupazioni -griglia bidimensionali I modelli simulativi-computazioni, invece, si basano sulla teoria generale dei sistemi che rappresenta le pratiche con punti (variabili) e frecce (relazioni). Essa descrive un sistema complesso-cibernetico, tenendo conto di 5 principi:

– interazione/legami tra variabili; – autoreferenzialità (in quanto la retroazione ripristina l’equilibrio); – dinamicità (data dalla combinazione di imprevedibilità caotica e determinismo; – due cause non generano la somma degli effetti;

– l’emersione (la proprietà del macro livello genera azioni a micro livelli).

Essa si utilizza per descrivere sistemi a

micro livello, come i system dynamics, utilizzati per descrivere un fenomeno a livello generale (come Forrester, che descrisse il mondo in termini di mortalità e natalità), attraverso una spiegazione semplicistica con cause prossime. I limiti sono quindi la dimensione sincronica (che non ne spiega l’evoluzione) e la considerazione di unità aggregate e non di singoli).

Macro livello

3) l'intervista qualitativa : essa è spesso molto lunga e implica una grande collaborazione e disponibilità degli intervistati. Esse vengono di solito registrate x rilevare esitazioni, pause, gesti ecc. Le fasi di questa intervista sono:

– definizione domanda cognitiva

– individuazione degli intervistati – scelta della forma – conduzione dell'interviste – trascrizione – analisi della documentazione empirica – comunicazione dei risultati con trascrizione delle interviste in appendice

Essa è un dialogo fra 2 persone dove i ruoli sono equilibrati quindi l'elemento centrale distingue l'uso dell'interrogazione degli esseri umani x conoscere la società quindi è possibile scegliere il questionario standardizzato o l'intervista libera. In questo caso il ricercatore va a studiare ciò che pensano il proprio popolo che sta studiando, istaura un rapporto fisico con loro, il soggetto studiato è attivo utilizza dei dati softme profondi e presenta i dati secondo delle narrazioni, testi ecc

4) i sistemi multi-agente: A macro livello, invece, troviamo: 1. Per atomi cellulari 2. Nei sistemi multi-agente, invece, ogni agente presenta capacità di apprendimento, comunicazione e

adattamento. Si tiene conto dell’ambiente in termini di risorse e vincoli da superare per ottenerle. Le unità sono disaggregate e presentano caratteristiche statiche e dinamiche, razionali e date dall’apprendimento (frutto di adattamento o comunicazione). Le classi sono formate da oggetti uniti da attributi e metodi (si pensi gli impiegati, che formano però una sottoclasse e rapportati alla superclasse azienda).

Un esempio di sistema multi-agente alla base dei comportamenti di acquisto è fornito dal modello di Jannsen e Jager, che considera il consumatore (dotato di un insieme di attributi che esprimono caratteristiche individuali e bisogni sociali e personali) che compera il prodotto per il prezzo, la visibilità e la soddisfazione potenziale. Secondo tale modello esistono 4 metodi privati: la ripetizione, la deliberazione (in quanto la scelta dipende dall’utilità relativa attesa), l’imitazione (che si ha invece quando l’agente valuta i prodotti acquistati dagli amici e pertanto, il prodotto col più alto share fra i vicini ha più probabilità di essere scelto), e il paragone sociale (che si ha quando, partendo dall’utilità del prodotto, l’agente sceglie fra la soddisfazione attesa dei prodotti consumati dagli amici, considerando quindi un set più piccolo di prodotti, rispetto a quello deliberante).

5) argomento a piacere 6) variabili nei dettagli: La variabile è una proprietà operativizzata, che assume diversi valori

misurabili e diverse unità di analisi che possono essere: – individui – aggregati territoriari – gruppi strutturati – eventi

ecc la variabile può assumere diversi valori con uno studio longitudinale cioè nel tempo su un caso oppure uno studio trasversale il valore cambia tra i casi , quando non presenta nessuna differenza si chiama costante. LE variabili possono essere: MANIPOLABILI/ NON MANIPOLABILI DIPENDENTI/ INDIPENDENTI LATENTI/ OSSERVATE INDIVIDUALI/ COLLETTIVE che a sua volta si dividono in aggregate → dove la proprietà del collettivo deriva dalle proprietà dei singoli componenti del gruppo. Globali → quando le caratteristiche esclusice del gruppo non derivano le proprietà dei membri che lo compongono Le variabili ufficiali sono: Nominali → sono quando le proprietà da registrare assume stati discreti non ordinabili, cioè che nn hanno ordine o gerarchia tra di loro. Gli stati di una proprietà così descritta si chiamano categorie operativizzate e la procedura di operativizzazione permette di passare dalla proprietà alla variabile grazie alla classificazioneOrdinali → sono quando le proprietà da registrare assume stati discreti ordinabili. In questo caso è possibile stabilire relazioni di ugualianza, disugualianza e d' ordine. La procedura di operativizzazione è l'ordinamento che tiene conto dell'ordinabilità degli stati di proprietà.Sono tali se

– derivano da proprietà costruite da stati discreti – derivano da proprietà continue che sono registrate su una sequenza

Cardinali → sono quando i numeri che ne identificano le modalità sono pieni di significato numerico. Si possono stabilire operazioni di relazioni di ugualianza, disugualianza, di somma, sottrazione, d'ordine . Si ottengono con 2 processi :

misurazione quando le proprietà sono continue

conteggio quando le proprietà sono discrete Quasi- Cardinali → sottoinsieme delle variabili cardinali, usate per passare da una proprietà continua a quella cardinale attraverso il processo di scale Esistono 2 classificazioni delle varie tipologie di variabili sulle caratteristiche logico-matematico: Stevens

nominali : = o diverso le proprietà assume stati discreti non ordinabili • ordinali ( >/<) ma i numeri che ne identificano le modalità sono semplci • scale a intervalli e di rapporti ( :/ x)

Marradi → si concentra sui i concetti operativizzati • nominali: costruite x conteggio • ordinali : insieme disgiunti ordinabili gerarchicamente attraverso la misurazione • cardinali discrete: che con il conteggio si trasformano in valori discreti • “” continue : usano il processo di misurazione • quasi- cardinali: costruite con un processo di scaling

7) Scala di likert: Le scale sono un insieme di elementi , indicatori di un concetto + generale.L'attegiamento non è rilevabile direttamente ma con dei concetti specifici. LA scala di Linkert utilizza un gran numero di domande intese a misurare l'atteggiamento attraverso 5 modalità di risposta ( ass. disaccordo – disaccordo – indecisione- d'accordo- ass. d'accordo) a cui viene attribuito un punteggio a posteriori. La somma dei punteggi rappresenta la posizione dell'individuo sul concetto indagato e viene detta additiva.Essa possiede molti problemi come :

• POLARITà giudizio contenuto nelle affermazioni→ • REPONSE SET per atteggiamento di pigrizia si risponde allo stesso modo a tutte le domande→ • CURVILINEARITà quando 2 persone rispondono allo stesso modo alle domande ma per motivazioni diverse→ • DOPPIA NEGAZIONE a cui si rimedia formulando le domande in termini affermativi→ • REAZIONE aLL'OGGETTO quando non viene espressa un'opnione sull'affermazione→ • ACCESSIVA GENERICITà si ha quando gli item non sono molto approfonditi→ • FENOMENO DELL'ACQUIESCENZA generato dalla volontà di dare la risposta che ci sembra + accettabile →

e riconoscibile dalla società Gli indicatori devono essere semanticamente legati al concetto e avere una parte indicante molto estesa, x evitare che nell'item analisys vengano eliminati. Occorre quindi rilevare la correlaione elemento- scala , ossia il vettore delle correlazioni statistiche tra gli item e le variabile indice x identificare ed eliminare gli item non coerenti con gli altri. Per calcolare la correlazione si può usare :

1. Alfa di Combach che si calcola con rn/1+(n-1)r, dove “n”sta per il numero degli item e “r” per la media della correlazione tra le coppie

2. L'unidimensionalità della scala viene quindi valutata in base alla coerenza interna complessiva , ossia la matrice d correlazione tra tutti gli elementi

8) Automi cellulari: A macro livello, invece, troviamo: 1. Per automi cellulari formati da - un reticolo in genere bidimensionale, che contiene un certo numero di unità (ossia di celle); - un insieme finito di stati (s1, s2 … sn); - una funzione che definisce il vicinato e il contesto;

– una funzione di transizione di stato che calcola, ad ogni interazione, lo stato di un’unità, dipendente dal tipo di interazione che ha avuto con i suoi vicini e dall’influenza di ogni interazione.

9) Interpretativismo: E' uno dei 3 paradigmi che si trovano nei livelli decisionali macro in cui il suo maggiore esponente è Weber che non si propone di spiegare la realtà, ma di comprenderla.

ONTOLOGIA: Costruttivismo/relativismo cioè che non esiste una realtà oggettiva e sia le singoli individui o gruppi sociali variano tra le diverse culture e quindi non può esserci una realtà uguale x tutti EPISTEMOLOGIA: senza separazione tra studioso/ oggetto di studio e la ricerca è vista come una scienza interpetativista finalizzata alla comprensione e generalizzazione enunciati METODOLOGIA:interazione tra studioso e studiato , basata sull'interazione , tecniche qualitative e induzione Si trova nel PARADIGMA INTERPRETATIVISTA che è fondata su 3 elementi:

la ricerca orientata ai soggetti poiché il fenomeno può essere compreso solo considerando il signficato → attribuito dai soggetti alle loro azioni, in base alle caratteristiche. Essa dipende dalla disponibilità a cooperare

degli intervistati nella ricerca intensiva cioè basata su pochi casi così si analizza nel dettaglio

Esperienze a valori dei ricercatori sono importanti per comprendere il fenomeno investigato→ – la ricerca condotta con metodi induttivi poiché la definizione di categorie concettuali parte dal materiale →

empirico raccolto sul campo

10) Focus group: è una tecnica di rilevazione x la ricerca sociale, basata sula discussione tra un gruppo di persone, alla presenza di uno o più moderatori, focalizzata su un argomento che si desidera approfondire. Il rapporto tra mediatore e gruppo è simmetrico, così come quello dei membri sebbene egli debba cercare di monopolizzare la conversazione o vadano fuori tema.Il vantaggio è l'interazione, che permette di comprendere quali argomenti vengono difesi e quali negoziati, in modo da comprendere gli elementi fondamentali del vissuto dei soggetti, oltre a raccogliere info sul tema. I diversi tipi di focus variano in base

– composizione dei gruppi può esserci estraneità dei partecipanti tra loro e col moderatore o una precedente conoscenza,

– omogeneità o eterogeneità all'interno del gruppo – gruppo a 1 o + stadi – grado di strutturazione varia seconda che vi siano gruppi autogestiti o semi-strutturati una guida dei punti da

trattare decisa a priori o tecniche standardizzate per stimolare il dibattito – ruolo del moderatore che può essere marginale se introduce il tema e stbilisce la regole di interazione , limitato

se interviene x contrastare le deviazioni del tema , ampio notevole controllo – combinazione di + criteri può portare a diversi gradi di strutturazione de focus group o a + una serie di focus

che variano x composizione dei gruppi, grado di struttturazione e ruolo del moderatore

Si procede x fasi : • definizione domanda cognitiva • individuazione delle caratteristiche di interlocutori appropriati • scelta tra studio trasversale e longitudinale • scelta tipo focus group • individuazione della caratteristiche del setting cioè luogo raggiungibile, pubblico,

impersonale • redazione della traccia o scaletta • primo campionamento • costruzione della documentazione empiric • analisi della documentazione empirica con + letture focalizzate su gruppi o persone per

rilevare la gamma delle opinioni espresse • comunicazione dei risultati, con eventuali punti critici

Le varianti del Focus sono: • nominal group tecquinique in cui avviene l'interazione tramite email • focus group telefonico • videoconferenza

i suoi svantaggi sono dei problemi organizzativi e logistici, della necessità di un moderatore esperto e dell'impossibilità di generalizzare i dati , mentre i vantaggi sono una maggior predisposizione dei soggetti all'espressione e alla creazione di un'opinione , di analisi non atomistica basata sull'interazione e di possibilità di evitare l'effetto ricercatore e applicare alla ricerca a gruppi emarginati o poco istruiti, Gli ambiti di applicazione sono: la ricerca psicosociale gestione politiche sociali marketing tecnica strumentale L'uso dei documenti prevede 6 fasi: 1- domanda cognitiva 2- determinazione della tipologia dei documenti 3- accesso ai documenti 4- selezione dei documenti 5- analisi del contenuto diviso in unità fisiche, sintattiche, referenziali,argomentative, proposizionali

6- comunicazione dei risultati

12) concetto : prende il nome di operativizzazione del concetto e si compone di 3 passaggi: • applicazione del concetto a oggetti concreti • definizione operativa, ovvero stabilire delle regole della rilevazione • e applicazione regole ai casi studiati

Il risultato dunque sarà una variabile ovvero una proprietà operativizzata,che assume valori misurabili diversi tra le unità di analisi.I criteri dell'operativizzazione sono: 1- esaustività → proprietà dell'insieme delle classi che si ha quando ogni oggetto, evento o stato su una proprietà dell'insieme è assegnabile ad una delle classi, e non vi sono unità escluse 2- mutua esclusività → proprietà di una coppia di classi di una classificazione che si ha quando 2 classi sono mutuamente esclusive cioè quando nessun oggetto, evento o stato su una proprietà è membro di entrambe, ma ogni unità è associata ad un unico stato 3- unicità del criterio di classificazione → secondo cui tale criterio di suddivisione dev'essere unico

13) Scala di Guttman : viene usata per misurare l'approvazione dell'atteggiamento verso lo straniero, con domande sulla disponibilità ad accoglierlo a cui occorreva rispondere tramite Si= 1 o No=0. La risposta affermativa all'ultima domanda presuppone una risposta affermativa alle altre domande, in quanto gli elementi sono disposti con difficoltà crescente, ciò consente la riproducibilità, ovvero la possibilità di risalire dal risultato finale ai singoli elementi.

14) Analisi fattoriale: gli item sono inseriti in base alla correlazione con il fattore da rilevare infatti essa consente di ridurre le variabili collegate a poche variabili indipendenti, per controllare quanti fattori determinano effettivamento gli elementi della scala.

15) Campione: valutare un insisme di untià di analisi (una popolazione) richiede spesso tempi molto lunghi che portano a preferire l'utilizzo di un campione formato da casi su cui effettuare la rilevazione in tempi che garantiscono l'invarianza dello stimolo. Il campione è rappresentativo quando fornisce gli stessi risultati che si otterrebbero se esaminassimo l'intera popolazione, ovvero una sua immagine in piccolo priva di distorsioni, ma che offre un valore approssimativo all'interno di un intervallo di fiducia. I metodi di campionamento che è la procedura che si segue per scegliere la n unità campionaria dal complesso delle N unità della popolazione possono distinguersi in

• CAMPIONAMENTO PROBABILISTICO – campionamento casuale → se tutti gli elementi della lista hanno la stessa probabilità di far

parte del campione – “” sistematico → usato x i controlli di qualità e negli exit polls se si usa un valore K usato x

avanzare sulla lista e selezionare i casi corrispondenti ai numeri ottenuti saltando k elementi – “” stratificato → in cui la lista viene divisa in sottoliste omogenee successivamente oggetto

di un campionamento causale non proporzionale, in quanto si sovrappongono alcuni strati e si sottorappresentano altri

– “” a stadi → in cui si parte da campioni più piccoli per poi arrivare alla popolazione – “” a grappoli → in cui si parte da raggruppamenti + grandi per poi effettuare una selezione

Gli errori di campionamento sono invece : • copertura : quando gli elementi sono esclusi o ripetuti nelle liste di popolazione considerate • campionamento: se l'ampiezza del campione non consente di comprendere tutte le

caratteristiche della popolazione • non risposta: quando vi sono delle categorie escluse

Inoltre distinguiamo • l'errore sistematico (comune a tutte le applicazioni) • quello accidentale( specifico di ogni singola rilevazione e individuale tramite replica)

osservazione ( dovuti a intervistatore, intervistato, strumento o somministrazione) • trattamento (fase di codifica, trascrizione, memorizzazione o elaborazione )

CAMPIONAMENTO NON PROBABILISTICO: • campionamento accidentale → in cui la rappresentazione dei dati non viene generalizzata

poiché frutto di un'autoselezione • “” per obiettivi → usata x le interviste in cui le persone vengono selezionate in quanto

probabilmente produrranno info interessanti • “” a valanga → in cui agli elementi viene chiesto di fornire altri nomi da intervistare che

abbiano la distribuzione di una variabile nella popolazione • “” per quote → in cui le info sono generalizzate a volte a valutare la distribuzione di una

variabile nelle popolazione • “”” di convenienza → quando si intervistano i volontari

La ponderazione è una procedura in cui modifichiamo la composizione del campione per renderla + prossima alla distribuzione della popolazione oggetto a post- stratificazione cioà all'assegnazione ad ogni caso di un coefficiente di ponderazione, un peso specifico che tenga conto dei rifiuti.

16) Ipotesi: interconnessione fra concetti o una relazione fra uno o + concetti

17) questionario : è un insieme di domande a risposta chiusa molto adatto a campioni numerosi. Le domande e le procedure di codifica costituiscono la definizione operativa dei concetti delle ipotesi. L'intervistato è quindi chiamato a garantire l'invarianza dello stimolo, ovvero a non lasciare che fattori contingenti come suggerimenti e commenti esterni influiscano sulla risposta. Tutti gli intervistati vanno sottoposti alle stesse domande per garantire la neutralità dello strumento. Le regole della formulazione delle domande sono:

– usare un linguaggio semplice e chiaro – evitare di dare per scontati certi comportamenti – assicurarsi che vi sia focalizzazione nel tempo – avitare domande lunghe e complesse – inserire domande imbarazzanti verso la fine – indicare la possibilità di domande multiple

I limiti sono le difficoltà nel misurare l'intensità delle opinioni e l'effetto di contaminazione. Il questionario si distingue in:

• intervista diretta → si svolge in presenza dell'intervistatore e offre una > garanzia di risposta ma con un alto rischio di acquiescenza

• questionario postale → autocompilato, bassi costi spesso spedito con una lettera di sollecito • questionario telefonico → utile nelle indagini di mercato • questionario online → garantisce > qualità dei dati, immediata visione delle risposte parziali

mancanti e incongruenti. • Questionario elettronico → puoò essere svolto in

Cati → in cui le risposte vengono registrate su un questionario online all'insaputa dell'intervistato Capi → interviste dirette su supporto elettronico Casi → autocompilato tramite pc Cawi → distribuito online E' fondamentale che l'intervistato va assicurato riguardo l'anonimità delle risposte

18) modelli probabilistici: I modelli probabilistici (come la scala di Rash) definiscono la scala una “traccia”, una curva che descrive la possibilità di risposta affermativa a un elemento, a seconda dell’andamento del continuum sottostante. Grazie alla teoria generale dei sistemi, si definiscono le caratteristiche di un sistema complesso, che sono:

- la forte interazione e legame tra gli elementi, - la non linearità del funzionamento (poiché sovrapponendo due cause si produce un effetto che non corrisponde alla somma degli effetti di ogni causa, ma genera conseguenze drammatiche non proporzionali all’ampiezza delle cause);

- la dinamica caotica, ossia la tendenza naturale di grandi classi di sistemi ad evolvere verso situazioni che mostrano

contemporaneamente comportamenti deterministici e proprietà di impredicibilità;

- l’autorefenzialità, che consente al sistema di riflettere e retroagire su sé stesso per ripristinare l’equilibrio dopo variazioni inattese;

- ed, infine, l’emersione di proprietà collettive del sistema che si manifestano in seguito ad azioni sviluppate a micro- livello. Alcuni modelli descrivono i sistemi a macro-livello, con tante relazioni simulate e circuiti di feedback tenuti in considerazione; altri si concentrano sul micro-livello, ossia sulla descrizione dei soggetti e delle azioni potenzialmente realizzabili nella situazione studiata.

19) modelli matematico- statistici:I modelli matematico-statistici considerano invece poche variabili, dopo la raccolta dei dati, per valutare quali di esse sono più vicine al modello. Si utilizza la regressione statistica (semplice se si tiene conto di 2 variabili o multipla se sono più di due). Pur essendo frequentemente usati nello studio della mobilità (si pensi al modello statistico di Blau e Duncan), tali modelli descrivono ma non spiegano l’evoluzione di un fenomeno. I limiti sono infatti che:

- si possono considerare solo poche variabili per volta, malgrado siano numerose quelle coinvolte nel fenomeno; - è difficile tener conto della dinamicità del fenomeno; - i risultati ottenuti descrivono il fenomeno ma non ne spiegano la generazione. Per ottenere modelli esplicativi esaurienti, invece, occorre capire quali siano i “meccanismi generatori” che trasformano gli attributi in vantaggi o svantaggi personali. Le dimensioni che determinano la forza dei legami sono:

- il tempo speso nel contatto e la frequenza del contatto; - l’intensità emotiva; - il livello di intimità o mutua confidenza; - lo scambio di servizi (ovvero la fiducia reciproca).

20) Analisi monovariata: La matrice grezza viene quindi inserita in una tabella come variabili, per quanto riguarda l'analisi monovariata è composta da intervistati e domande. In riga abbiamo i casi e in colonna le varibili l'incrocio di essi crea il DATO cioè il valore assunto da una variabile su un caso. La traduzione del materiale empirico grezzo in matrice avviene per codifica del tracciato record che indica la posizione di ogni variabile in riga o con il codice in cui ogni modalità della variabile ha un valore numerico. La distribuzione delle frequenze possono essere:

relative → quando ci si limita a contare i casi che presentano quel valore – assolute → quando sono rapportate ad un totale comune – percentuali → quando si ottengono le proporzioni moltiplicate x 100

Il ricercatore deve presentare i dati chiari per non confondere il lettore quindi deve apportare degli arrotondamenti, decimale 0, e controllare i dati con : 1- controllo di plausibilità → cioè verificare che tutti i dati siano plausibili e che appartengono ai velori del codice 2- controllo di congruenza → se le 2 variabili sono congruenti 3- valori mancanti → quando non risponde all'analisi monovariata Essa è dunque un'analisi descrittiva dei fenomeni studiati e si limita ad esporre come ogni variabile è distribuita fra i casi rilevati senza problemi sulle relazioni fra variabili. Essa presenta un passaggio a quella multivariata perchè solo questa il ricercatore possiede la conoscenza diretta dei dati che gli permetterà di analizzarli e porta anche alla comprensione del campione. Quando si decide di sistetizzare una distribuzione in un unico numero abbiamo: Variabile nominale → moda ovvero il valore con + frequenza Variabile ordinale → media ovvero è modalità del caso che si trova la centro della distribuzione dei casi che va dal > al < Variabile cardinale → media aritmetica è la misura di tendenza + nota che è data dalle somme dei valori assunti della variabile su tutti i casi / per il N dei casi Le misure di variabilità sono: Variabile nominale → indice di omogeneità/ eterogeneità è omogenea quando tutti i casi sono presentati con la stessa modalità, eterogenea quando i casi sono equidistribuiti tra le mobilità Variabile ordinale → differenza interquartile cioè i confini che dividono in 4/4 la distribuzione Variabile cardinale →deviazione standard calcolato mettendo sotto radice quadrata la somma degli

scarti della media dei singoli valori, elevati al quadrato e la varianza che si ottiene eliminando la radice In base alla similarità si possono raggruppare i casi studiati in classi. E' importante distinguere i valori e gli indici medi per ogni variabile così è possibile procedere alla standardizzazione quando bisogna confrontare le variabili cardinali con le distribuzioni diverse o che usano diverse unità di misura. Essa è una trasformazione del valore originario in un valore standard e consiste nell'ottenere una nuova variabile sottraendo a quella originaria la media della distribuzione e dividendo la differenza x la deviazione standard della distribuzione e quindi la variabile avrà una media =0 e una Dvstand =1

21) modello matematico di Simon: Il modello matematico di Simon si utilizza per piccoli gruppi, traducendo i postulati in linguaggi matematici (ossia equazioni) (es.: l’intensità dell’interazione è data dalla somma di attività svolta e livello di amicizia). Tale modello, inapplicabile a causa della poca considerazione del contesto, si basa su 3 postulati:

1. L’intensità dell’interazione dipende dall’ammontare di attività svolta nel gruppo e dal livello di amicizia. 2. Il livello di amicizia del gruppo aumenta quando l’interazione è più elevata di quella “appropriata” al livello esistente di amicizia, a causa di legami professionali. 3. L’ammontare di attività svolta dal gruppo aumenterà se il livello esistente di amicizia è più elevato di quello “appropriato” al livello esistente e se l’ammontare di attività imposta dall’esterno è più elevata dell’ammontare esistente di attività. Grazie alle preposizioni verbali si giunge a postulati matematici, da cui vengono dedotti nuovi postulati da verificare. I parametri (o funzioni) del modello sono quindi:

- I (t), cioè intensità di interazione tra membri, - F (t), livello di amicizia tra membri, - A (t), ammontare di attività svolta dai membri del gruppo, - ed E (t), ammontare di attività imposta al gruppo dall’ambiente esterno. Tramite tali parametri è possibile trasformare i postulati in equazioni matematiche. Il processo cibernetica di retroazione consente agli output di tornare ad essere input del sistema. Scompare la distinzione tra causa ed effetti. Altri tipi di modello sono:

- quello statistico dei modelli di regressione, - quello stocastico delle catene di Markov, - la teoria cibernetica - e la teoria dell’informazione (basata invece sulla lunghezza minima di un algoritmo computazione che dovrebbe produrre una sequenza di dati in uscita)

22) Post- positivismo fa sempre parte del livello macro in cui risponde alle critiche del positivismo.

ONTOLOGIA: realismo critico in cui esiste una realtà esterna all'uomo ed è solo conoscibile in modo probabilistico EPISTEMOLOGIA: riconoscimento del rapporto di interferenza tra studioso e studiato che nel tempo è limitato e i soggetti alla falsificazione x arrivare + vicini alla conoscenza assoluta METODOLOGIA: è uguale al positivismo ma ha un apertura ai metodi qualitativi

23) Definizione metodo: E' uno strumento utile a esplicare una teoria (postulati ) e una pratica (unità) per interpretare la ricerca sociale.

24) Paradigma scientifico di Kuhn: insieme di concetti, teorie e strumenti x l'indagine scientifica relAtivi a un periodo storico che quando il rapporto si rompe col passato da vita a una rivoluzione scientifica.

25) Significati ONTOLOGIA- EPISTEMOLOGIA- METODOLOGIA: 1- LA REALTà SOCIALE ESISTE? 2- LA REALTà SOCIALE è CONOSCIBILE? 3- COME Può ESSERE CONOSCIUTA LA REALTà SOCIALE?

26) Object oriented programming :L’object oriented programming considera 4 elementi: -la classe, che definisce un insieme di oggetti che compaiono nel mondo virtuale, attraverso un nome che la identifica in modo univoco. Essa presenta attributi (cioè variabili che rappresentano una proprietà locale di qualunque

oggetto) e metodi, che definiscono i comportamenti degli oggetti appartenenti (e si distinguono in pubblici, quando servono per la comunicazione tra oggetti, e privati, se coinvolgono solo il singolo oggetto).

Gli oggetti rappresentano l’insieme denotato dalle istanze della classe. - L’associazionesi definisce invece su due classi tra le quali esiste un legame logico. Una può dipendere dall’altra (es.: impiegato e azienda), risiedere nell’altra (Es.: persone in città) e afferire all’altra (es.: professori in dipartimento).

Sottoclasse e superclasse si hanno invece quando una classe B eredita attributi e metodi di A: la sottoclasse includerà quindi anche attributi e metodi specifici non presenti nella superclasse.

24) Per applicare un algoritmo genetico occorre definire: - i cromosomi che consentono di codificare le soluzioni potenziali al problema attraverso una sequenza di informazioni;

- una popolazione iniziale di soluzioni imperfette; - la funzione di valutazione della qualità di ogni soluzione;

– ed, infine, l’insieme di operatori genetici da applicare ad ogni interazione, per generare una nuova popolazione.

27) modello unliver :Il modello Unliever, invece, si compone di due parti: la descrizione della popolazione di consumatori (che scelgono ripetutamente uno tra i marchi concorrenti, calcolando il valore percepito sulla base di caratteristiche individuali e sociali) e la descrizione del “brand management” (in cui gli agenti, i brand managers, cambiano gli attributi del brand in risposta agli eventi interni al mercato).

28) Analisi bivariata: E' necessaria per verificare una presenza di legame tra 2 variabili .Le relazioni tr 2 variabili signifca che c'è una variazione tra loro valori e si tratta di relazioni statistiche, però essa non può dire se esiste una relazione causata tra le variabili esaminate, ma sarà il ricercatore a conferire tale relazione. Questo tipo di analisi si basa sulla distribuzione di frequenze congiunte cioè incrocio tra 2 distribuzioni di frequenza semplice. I dati possono essere presentati in una tabella a doppia entrata (contingenza) in cui sia in riga che in colonna vi sono delle variabili e nell'incrocio di esse troviamo il N° dei casi. Essa può essere di diverso tipo perchè:

• può riportare Fi assolute “” Fi percentuali “” Fi in percentuali di colonna → quando si vuole analizzare l'influenza che la

variabile posta in colonna ha su quella in riga e così è indipendente è posta in riga e così si sceglie la tabella con le % in riga e se è in colonna le % in colonna

Fi per riga → consente di verificare se esiste una differenza tr i 2 sottocampioni • Fi percentuale di riga → si usa per analizzare l'influenza che la variabile fosse in

riga sulla variabile posta in colonna Le analisi delle relazioni attraverso le tabelle a doppia entrata è di tipo interpetativista e si basa su criteri di buon senso. La statistica invece ha messo diversi indici evento su questo obiettivo di poter valutare in modo oggettivo e abbiamo: Var. Nominale → misure di associazione che possono assumere importanza compresa nell'intervallo [0;1] in cui 1 è la tabella di perfetta dipendenza e possiede x ogni riga e colonna un valore diverso da 0 e quindi ho P=1 il valore che assumerà la variabile dipendente conoscendo il valore della variabile indipendente Var. Ordinale → misure di congraduazione possono assumere un valore compreso [-1;1] in cui 1 è la tabella perfetta di dipendenza che corrisponde alla relazione perfetta diretta tra le variabili dipendente e indipendente e -1 tabella di perfetta dipendenza con la relazione inversa. Var. Cardinale → indici di correlazione tra due variabili statistiche è un indice che esprime un'eventuale relazione di linearità tra esse

• La tabella di indipendenza valuta la forza della relazione x ogni tipo di variabile, testimoniando come x ogni valore di A i valori di B siano equamente distribuiti

• La retta di regressione rileva invece il coefficiente di proporzionalità. Tanto + alto quanto + la retta è inclinata

La relazione tra le variabili può essere quindi:

1- SPURIA → se x influenza y, ma una terza variabile z è legata a entrambi e quindi nell'analisi trivariata il campione viene diviso in 3 sottocampioni x valutare se e quanto z varia o annula la relazione 2- INDIRETTA → con variabile interveniente quando x causa z, che a sua volta causa y Il test del Chi-Quadrato si basa infatti sulla falsificazione della non esistenza di relazione, verificata confrontando i valori con l'ipotetica assenza di relazione.La relazione è positiva o diretta qiando a valori alti di una corrispondo i valori bassi dell'altra. La distribuzione di Fi è quindi una rappresentazione in cui ad ogni variabile è associata la Fi von cui si presenta nei dati. Le misure di associazione sono associate al Chi- quadrato infatti misurano la forza di una relazione se le tabelle hanno i N° dei casi si usa l'idice PHI → si : il Chi-Quadrato x il N°casi e siccome questo valore non vario da 0 a 1 si introduce l'indice V di Cramer.

29) Positivismo: Studia la realtà sociale usando concetti, tecniche di osservazione, misurazione ecc il maggior esponente è Durkheim che impone di trattare i fatti sociale come cose esistenti al di fuori delle conoscenze individuali e studiabili oggettivamente. ONTOLOGIA: la realtà sociale ha esistenza effettiva ed è conoscibile EPISTEMOLOGIA: si basa sul dualismo tra ricercatore /oggetto di studio e presume di ottenere risultati veri e certi, il suo obiettivo è di spiegare e formulare leggi naturali e immutabili METODOLOGIA: prevede esperimenti e manipolazioni della realtà, con osservazioni e distacco tra osservatore e osservato il suo modo di procedere è deduttivo e le tecniche usate sono quantitative e variabili.

30) Item : Secondo Lazarsfield suggerisce come tradurre un concetto molto complesso in 4 fasi: 1- RAPPRESENTAZIONE FIGURATA DEL CONCETTO 2- SPECIFICAZIONE CONCETTO IN DIMENSIONI 3- SCELTA DEGLI INDICATORI X OGNI DIMENSIONE 4- DEFINIZIONE DEGLI INDICI L'indice è costruito da un insieme di variabili attraverso operazioni matematico-logico e dipende dal tipo di variabili che devono essere combinate. QUALITATIVE → indice tipologico si costruisce con 2 variabili QUANTITATIVE → indice somma che puù essere costruito sommando i valori delle variabili associati agli indicatori Var.Ordinali → posso avere indici somma perchè questo si trasforma in valori quantitativi

31) Ricerca sociale come può essere:si divide in due categorie :APPLICATA. e PURA RICERCA APPLICATA : questo tipo di ricerca ha degli obiettivi specifici da raggiungere e a sua volta si suddivide in ricerca

• INFORMATIVA (si fanno ciò delle considerazione A PRIORI sul fenomeno, prima dell'indagine effettiva),

• ricerca VALUTATIVA (cioèA POSTERIORI, dopo la raccolta dei dati); RICERCA PURA: questo tipo di ricerca ha degli obiettivi puramente conoscitivi e si divide in

• ricerca ESPLORATIVA (cioè per studiare un fenomeno NUOVO e non ancora esplorato, in modo da stimolare delle ipotesi su un fenomeno)

• ricerca ESPLICATIVA (per rispondere alla domanda PERCHE', quindi SPIEGARE un fenomeno individuando CAUSA ed EFFETTO)

• ricerca DESCRITTIVA (cioè DESCRIVERE un fenomeno seguendo il metodo scientifico, quindi con PRECISIONE e GENERALIZZABILITà ).

32) Livello meso e micro: Sono livelli decisionali in cui - MESO, decisioni prese DURANTE la ricerca, come ad esempio la classificazione dei dati, i metodi idi analisi (FASE DELL'ELABORAZIONE);

MICRO,decisioni di tipo TECNICO a livello operativo, come ad esempio la scelta delle unità di misura da utilizzare nella ricerca.

33) Scala del differenziale semantico di Osgood: attribuire un significato ad un oggetto apponendo una crocetta su una delle 7 caselle della tabella ancorante che separano una coppia di aggettivi in antitesi.Il significato assunto dall'oggetto x gli individui viene quindi rilevato con max standardizzazione tenendo conto della :

• valutatazione • potenza • attività

34) Termometro dei sentimenti: chiama ad esprimere un giudizio rigurardo a qualcosa ponendo un segno su un segmento che va da “non mi piace” a “mi piace”

35) La scala per somma: valuta le affermazioni chiamando a esprimersi in termine “accordo” o “disaccordo”

36) Causalità: principio esplicativo del metodo scientifico e mantiene sia nella pratica della ricerca scientifica e nel linguaggio comune. Secondo questo principio di causalità afferma che ogni evento ha una sua causa. Si parla di covariazione della variabile indiependente e dipendente che al variare di una varia anche l'altra

34) Ricerca quantitativa:

E' composta da 5 fasi : 1- teoria 2- ipotesi legate tra di loro attraverso il processo della DEDUZIONE in cui la teoria è generale e l'ipotesi è specifica 3- raccolta dati si arriva attraverso il processo di operativizzazione cioè trasformazione delle ipotesi in affermazioni osservabili e l'operativizzazione porta ad un piano di lavoro che stabilisce le fasi dell'osservazione empirica 4- analisi dei dati organizzazione dei dati in una matrice dei dati tramite l' interpretazione

5- rappresentazione dei risultati si arriva tramite il processo di interpretazione delle analisi statistiche condotte nella fase precedente con induzione.

32) Entropia : L’entropia può essere definita secondo due prospettive: - per la termodinamica, è associata al numero di stati realizzabili, date le condizioni applicate al sistema (es.: un solido con temperatura vicino allo zero ha bassa entropia, mentre un gas a temperature ordinarie in cui le particelle si muovono veloci, possiede un’alta entropia).

- Nella teoria dell’informazione, quindi, l’entropia è associata alla complessità degli algoritmi, ed è minima quando una sequenza di simboli necessita di un’unica istruzione per essere riprodotta completamente (es.: 1111…), e massima quando il numero di istruzioni necessarie per riprodurla è uguale alla lunghezza della sequenza. La spiegazione scientifica, secondo la classificazione di Nagel, può essere: deduttiva, probabilistica, funzionale o teologica, e genetica.

non sono stati rilasciati commenti
Questa è solo un'anteprima
3 pagine mostrate su 12 totali
Scarica il documento