00:00:00
Ciao a tutti e bentornati a "Psicologia dei gruppi",
00:00:16
il podcast dove esploriamo i meccanismi che regolano i comportamenti
00:00:20
nei gruppi, tra teoria, casi pratici e,
00:00:23
ovviamente, un pizzico di tecnologia.
00:00:26
Io sono Sandra Catellani, AI-journalist creata da EDUNEXT OnAIr,
00:00:32
e con me c'è il professor Loris Vezzali,
00:00:35
docente di Psicologia dei Gruppi al Corso di Laurea in Digital Education
00:00:40
dell'Università di Modena e Reggio Emilia.
00:00:40
Prima di cominciare il nostro
00:00:44
viaggio ci teniamo a specificare che io sono una voce generata da un sistema
00:00:49
di intelligenza artificiale e la voce del professor Loris Vezzali è invece
00:00:54
clonata artificialmente dalle sue lezioni.
00:00:54
I dialoghi sono anch'essi generati
00:01:00
con il supporto dell'Intelligenza Artificiale ma utilizzando gli effettivi
00:01:04
documenti del corso e le trascrizioni delle lezioni.
00:01:04
Quindi possiamo partire!
00:01:10
Loris, oggi parliamo di validità nella ricerca psicologica,
00:01:16
un tema che, lo ammetto, sembra un po' tecnico,
00:01:19
ma in realtà è fondamentale per capire se quello che studiamo sui gruppi
00:01:24
ha davvero senso, no?
00:01:24
Assolutamente,
00:01:27
Sandra.
00:01:27
E guarda, partirei proprio dalla validità di costrutto,
00:01:31
che è un po' la base di tutto.
00:01:32
In pratica, ci chiediamo: quello che stiamo misurando,
00:01:37
riflette davvero il concetto che vogliamo studiare?
00:01:39
I costrutti, come autostima o aggressività,
00:01:43
sono concetti astratti, non li possiamo vedere direttamente.
00:01:46
Quindi dobbiamo "operazionalizzarli",
00:01:48
cioè trovare modi concreti per misurarli.
00:01:51
Ad esempio, se voglio studiare l'autostima,
00:01:53
posso usare un questionario con domande specifiche,
00:01:59
oppure osservare certi comportamenti,
00:02:06
come il tono di voce o la postura.
00:02:06
E qui la tecnologia ci dà una mano,
00:02:10
vero?
00:02:10
Penso a strumenti digitali che analizzano il linguaggio,
00:02:14
o addirittura il riconoscimento facciale per cogliere le espressioni.
00:02:19
Insomma, oggi abbiamo più possibilità di rendere oggettiva la misurazione
00:02:25
di questi costrutti, anche se, diciamolo,
00:02:28
non è mai semplice.
00:02:28
No, infatti.
00:02:31
La sfida è proprio quella: trasformare qualcosa di astratto in dati osservabili
00:02:35
e affidabili.
00:02:36
E ogni scelta che facciamo su come misurare un costrutto può influenzare
00:02:41
i risultati della ricerca.
00:02:42
Se sbagliamo qui, rischiamo di studiare tutt'altro rispetto a quello
00:02:48
che ci interessa davvero.
00:02:48
Ecco, Loris,
00:03:01
ma quali sono le principali minacce a questa validità di costrutto?
00:03:06
Perché, come dicevi, basta poco per "sballare" tutto il lavoro.
00:03:06
Beh,
00:03:11
una delle minacce più comuni è l'effetto dell'esperimento stesso.
00:03:15
A volte lo sperimentatore, anche senza volerlo,
00:03:17
trasmette le proprie aspettative ai partecipanti.
00:03:22
C'è il classico esempio delle profezie che si autoavverano: se il ricercatore
00:03:26
pensa che certi volti siano "di successo",
00:03:31
i partecipanti finiscono per rispondere in modo coerente con quell'aspettativa,
00:03:41
anche se nessuno gliel'ha detto esplicitamente.
00:03:41
E poi c'è la desiderabilità
00:03:47
sociale, no?
00:03:47
Quella tendenza a rispondere come "ci si aspetta" o come si vorrebbe
00:03:53
apparire.
00:03:54
Mi viene in mente una volta che ho usato un questionario digitale per
00:03:58
una ricerca sull'uso dei social: le risposte erano tutte perfette,
00:04:03
troppo perfette.
00:04:05
Alla fine ho capito che i partecipanti volevano solo fare bella figura,
00:04:09
e i dati erano poco affidabili.
00:04:09
Esatto,
00:04:13
Sandra.
00:04:13
Per questo spesso non si dice ai partecipanti lo scopo preciso dello
00:04:18
studio, almeno all'inizio.
00:04:20
E poi, ovviamente, bisogna sempre spiegare tutto alla fine,
00:04:23
per correttezza etica.
00:04:25
Ma anche la manipolazione sperimentale può essere un problema: se non
00:04:30
è abbastanza forte, o se va a toccare un altro costrutto,
00:04:39
rischiamo di misurare qualcos'altro.
00:04:42
Tipo, se mostro un video motivazionale per aumentare l'autostima,
00:04:46
magari sto solo migliorando l'umore,
00:04:48
non l'autostima.
00:04:48
A questo punto,
00:04:51
parliamo di strumenti.
00:04:52
Loris, qual è la differenza tra uno strumento affidabile e uno valido?
00:04:58
E perché servono entrambi?
00:04:58
Allora,
00:05:01
uno strumento è affidabile se dà risultati coerenti nel tempo e tra persone
00:05:06
diverse.
00:05:06
Se faccio lo stesso test a distanza di una settimana,
00:05:09
dovrei ottenere più o meno lo stesso risultato.
00:05:12
Ma questo non basta: deve anche essere valido,
00:05:14
cioè misurare davvero quello che voglio indagare.
00:05:16
Se il mio test di autostima in realtà misura solo l'umore,
00:05:22
non va bene, anche se è affidabile.
00:05:22
E le fonti di errore sono tante,
00:05:26
vero?
00:05:26
Penso alla stanchezza del ricercatore che magari annota male i dati,
00:05:31
o ai partecipanti che rispondono sempre nello stesso modo,
00:05:35
tipo "tutto 5" su una scala da 1 a 7.
00:05:39
E poi, nei contesti digitali, c'è anche il rischio che i partecipanti
00:05:44
capiscano subito che tipo di studio stanno facendo e si comportino di
00:05:49
conseguenza.
00:05:49
Sì, e per questo è fondamentale scegliere strumenti adatti
00:05:54
al contesto.
00:05:54
Nei contesti digitali, ad esempio,
00:05:57
bisogna pensare a questionari che siano chiari,
00:06:00
ma anche a sistemi di raccolta dati che riducano il rischio di risposte
00:06:04
"meccaniche" o poco sincere.
00:06:06
Non è facile, ma è una sfida interessante per chi fa ricerca oggi.
00:06:06
E allora,
00:06:11
come si può rafforzare la validità di costrutto?
00:06:14
Ci sono strategie che funzionano davvero?
00:06:14
Sì,
00:06:17
una delle strategie migliori è usare misure multiple.
00:06:21
Ad esempio, puoi combinare autodescrizioni,
00:06:24
osservazioni esterne e test di performance.
00:06:26
Se tutte queste misure danno risultati simili,
00:06:29
puoi essere più sicuro che stai davvero misurando il costrutto che ti
00:06:32
interessa.
00:06:32
Mi viene in mente uno studio recente sui gruppi online,
00:06:36
dove il tono di voce nei messaggi vocali veniva usato come indicatore
00:06:41
di leadership.
00:06:42
Un approccio interessante, perché va oltre il semplice questionario e
00:06:47
sfrutta dati "naturali" delle interazioni digitali.
00:06:47
Esatto,
00:06:52
e le innovazioni metodologiche nell'analisi dei dati digitali stanno
00:06:58
aprendo nuove strade.
00:06:59
Oggi possiamo analizzare grandi quantità di dati,
00:07:02
anche non strutturati, e trovare pattern che prima erano invisibili.
00:07:07
Ma bisogna sempre stare attenti a non confondere i costrutti,
00:07:14
e a verificare che le nuove tecniche siano davvero valide per quello
00:07:24
che vogliamo studiare.
00:07:24
Passiamo alla validità interna,
00:07:29
che riguarda la famosa domanda: "X causa davvero Y?" Loris,
00:07:35
come si fa a stabilire una relazione causale tra variabili?
00:07:35
La validità
00:07:40
interna è proprio la capacità di dire che una variabile ha causato un
00:07:44
cambiamento in un'altra.
00:07:45
Ci sono diversi livelli di indagine: descrittiva,
00:07:48
correlazionale e sperimentale.
00:07:50
Quella sperimentale è la più forte,
00:07:52
perché permette di manipolare una variabile e vedere se cambia l'altra.
00:08:03
Ad esempio, se voglio vedere se l'autostima influenza il benessere negli
00:08:09
studenti universitari, posso manipolare l'autostima in un gruppo e confrontare
00:08:13
i risultati con un gruppo di controllo.
00:08:13
Ma non sempre va tutto liscio,
00:08:18
vero?
00:08:18
Hai mai avuto un esperimento che non ha dato i risultati attesi?
00:08:18
Oh,
00:08:22
sì!
00:08:23
Una volta ho provato a manipolare l'autostima mostrando un video
00:08:23
motivazionale,
00:08:29
ma non ha funzionato: i partecipanti non hanno mostrato nessun cambiamento.
00:08:33
Forse la manipolazione era troppo debole,
00:08:35
o magari il video non era adatto.
00:08:37
Capita, e serve anche a capire meglio come funzionano i costrutti che
00:08:41
studiamo.
00:08:41
E quali sono le minacce principali alla validità interna?
00:08:45
Perché, come abbiamo visto, basta poco per perdere il controllo sulla
00:08:50
relazione causa-effetto.
00:08:50
Ci sono diversi fattori.
00:08:54
Uno è il "fattore storia": eventi esterni che accadono durante la ricerca
00:09:00
e che possono influenzare i risultati.
00:09:02
Ad esempio, se durante uno studio sui gruppi scolastici avviene un conflitto
00:09:06
etnico nella scuola, questo può cambiare tutto.
00:09:09
Poi c'è la maturazione dei partecipanti: le persone cambiano nel tempo,
00:09:19
e questi cambiamenti possono influenzare i risultati indipendentemente
00:09:24
dalla variabile che stiamo studiando.
00:09:24
Mi viene in mente anche il rischio
00:09:28
che i partecipanti parlino tra loro,
00:09:30
specialmente nei contesti educativi.
00:09:32
Se quelli del gruppo sperimentale raccontano la loro esperienza a quelli
00:09:37
del gruppo di controllo, addio differenze!
00:09:37
Esatto,
00:09:42
la "diffusione" delle informazioni è un rischio reale.
00:09:45
Per questo la randomizzazione è fondamentale: assegnare i partecipanti
00:09:49
ai gruppi in modo casuale aiuta a distribuire le variabili in modo omogeneo
00:09:56
e a ridurre i bias.
00:09:57
Ma, come abbiamo detto anche nella scorsa puntata,
00:10:00
non sempre è possibile controllare tutto,
00:10:05
soprattutto in contesti reali e complessi come quelli educativi.
00:10:05
Arriviamo
00:10:10
alla validità esterna, cioè la domanda: "Questi risultati valgono solo
00:10:15
per il mio campione, o posso generalizzarli?" Quanto è importante la
00:10:15
rappresentatività
00:10:22
del campione, Loris?È fondamentale,
00:10:25
Sandra.
00:10:25
Se il campione non è rappresentativo,
00:10:27
rischiamo che i risultati valgano solo per quel gruppo specifico.
00:10:32
Ad esempio, molte ricerche in psicologia sono fatte con studenti universitari,
00:10:36
ma poi si pretende di applicare le teorie a tutta la popolazione.
00:10:39
E non è detto che funzioni così.
00:10:42
Un esempio classico è la teoria del confronto sociale: può valere in
00:10:47
contesti occidentali, ma non è detto che sia uguale in culture collettivistiche.
00:10:47
E
00:10:52
oggi, con la ricerca digitale, la sfida è ancora più grande.
00:10:56
Come possiamo migliorare la generalizzabilità delle ricerche,
00:11:00
soprattutto in contesti globali e digitali?
00:11:00
Bisogna cercare di usare campioni
00:11:06
diversi, testare le teorie in contesti culturali differenti e,
00:11:10
quando possibile, ripetere gli studi in più ambienti.
00:11:13
Solo così possiamo capire se i risultati sono davvero generalizzabili.
00:11:17
E la tecnologia, in questo senso,
00:11:19
ci offre nuove opportunità per raccogliere dati da tutto il mondo,
00:11:33
ma ci impone anche di essere ancora più attenti nella scelta dei campioni
00:11:39
e nell'interpretazione dei dati.
00:11:39
E facciamo come al solito gli ultimi due
00:11:43
esercizi.
00:11:44
Loris, ci indichi tre messaggi di sintesi da portare a casa?
00:11:44
Certo,
00:11:49
ecco i tre messaggi da portare a casa.
00:11:49
Misurare un costrutto non è semplice,
00:11:54
ma è essenziale.
00:11:54
Concetti astratti come autostima o aggressività vanno
00:11:59
"tradotti" in comportamenti osservabili o risposte misurabili.
00:12:04
Se non misuriamo bene il costrutto,
00:12:05
rischiamo di studiare qualcosa di diverso da ciò che pensiamo.
00:12:05
Affidabilità
00:12:10
e validità non sono la stessa cosa.
00:12:10
Uno strumento può essere affidabile
00:12:15
(cioè dare risultati coerenti) ma non valido (cioè non misurare ciò che
00:12:19
dovrebbe).
00:12:20
Servono entrambi per una ricerca solida.
00:12:23
E i contesti digitali, sebbene ricchi di opportunità,
00:12:26
pongono nuove sfide su questo fronte.
00:12:26
Una ricerca è utile solo se è valida
00:12:31
dentro e fuori il contesto dello studio.
00:12:31
La validità interna ci dice se
00:12:36
una variabile causa davvero un effetto; quella esterna ci permette di
00:12:40
capire se i risultati possono essere generalizzati ad altri gruppi e
00:12:40
situazioni.
00:12:44
La tecnologia ci aiuta ad ampliare i campioni,
00:12:53
ma richiede anche più rigore nel controllo delle variabili.
00:12:53
E,
00:12:58
secondo esercizio, ci lasci tre domande su cui riflettere?
00:12:58
Volentieri,
00:13:03
eccole:Hai mai usato un questionario,
00:13:06
un test o uno strumento digitale per valutare un comportamento?
00:13:09
Sei sicuro che misurasse davvero ciò che volevi osservare?
00:13:09
Quanto ti fidi
00:13:14
dei risultati di una ricerca scientifica?
00:13:16
Valuti mai da chi è stato fatto lo studio,
00:13:18
con chi, come e in quale contesto?
00:13:18
In un mondo sempre più digitale,
00:13:23
come possiamo garantire che gli strumenti di misura - ad esempio analisi
00:13:29
vocali, espressioni facciali o dati comportamentali - riflettano veramente
00:13:33
i costrutti che studiamo?
00:13:33
Direi che abbiamo fatto un bel viaggio tra costrutti,
00:13:38
causalità e generalizzazione.
00:13:41
Loris, grazie come sempre per la tua chiarezza e per gli esempi pratici.
00:13:46
E grazie a chi ci ha seguito: continuate a mandarci domande e spunti,
00:13:51
perché la psicologia dei gruppi è un campo in continua evoluzione,
00:13:55
soprattutto nell'era digitale.
00:13:57
Alla prossima puntata!
00:13:57
Grazie a te,
00:14:00
Sandra, e grazie a chi ci ascolta.
00:14:02
Ci sentiamo presto per un nuovo episodio,
00:14:04
sempre qui su "Psicologia dei gruppi".
00:14:07
Ciao Sandra, ciao a tutti!

![[02] Validità nella Ricerca Psicologica](https://images.beamly.com/fetch/https%3A%2F%2Fauth.jellypod.ai%2Fstorage%2Fv1%2Fobject%2Fpublic%2FCoverImages%2Forg_01K7DBDW6Z6WY8F3DV1EPJM2Z4%2Fusers%2Fuser_01K7DBDW1MF050KSA7ZE8CDR69%2FLcCKT6i4YAqGt67odJoMo.jpg?w=365)

