00:00:00
Ciao a tutti e bentornati a "Didattica delle New Literacies"!
00:00:16
Io sono Sandra Catellani, e come sempre sono qui con Valentino Curreri.
00:00:21
Oggi ci addentriamo in un capitolo davvero centrale del libro di Pier
00:00:26
Cesare Rivoltella e Chiara Panciroli,
00:00:29
"AI Literacy: alfabeti, pensiero critico,
00:00:34
spiegabilità", scritto proprio da Chiara Panciroli e pubblicato da Mondadori
00:00:39
Università nel 2025.
00:00:39
Ciao Sandra,
00:00:43
ciao a tutti!
00:00:44
Sì, oggi parliamo di AI Literacy,
00:00:46
ma partendo da molto lontano, cioè dalle prime forme simboliche dell'umanità.
00:00:51
Mi ha colpito come Panciroli sottolinei che la vera rivoluzione non sia
00:00:55
stata la ruota o la spada, ma la capacità di rappresentare concetti attraverso
00:01:00
simboli.
00:01:01
Quei primi segni sulle rocce, 75.
00:01:01
000 anni fa,
00:01:05
sono stati il primo passo verso la condivisione della conoscenza.
00:01:05
Esatto,
00:01:09
e questa evoluzione dei simboli,
00:01:12
degli alfabeti, è sempre stata legata al bisogno umano di appartenere
00:01:17
a una comunità, come diceva anche Maslow.
00:01:20
Oggi, però, con le tecnologie digitali,
00:01:23
il concetto di alfabetizzazione si è ampliato tantissimo.
00:01:27
Valentino, secondo te, come stanno cambiando le nuove tecnologie il nostro
00:01:32
modo di intendere l'alfabetizzazione?
00:01:32
Guarda,
00:01:35
secondo me la tecnologia ha proprio stravolto il concetto.
00:01:39
Non basta più saper leggere e scrivere: ora bisogna saper decifrare codici,
00:01:44
immagini, dati, algoritmi...
00:01:46
E come abbiamo già discusso in una puntata precedente,
00:01:49
la literacy oggi è sempre più polialfabetizzazione.
00:01:53
L'AI Literacy, di cui parla Panciroli,
00:01:56
è un tassello fondamentale di questa evoluzione.
00:01:56
Entriamo allora nel cuore
00:02:01
del capitolo: che cos'è questa AI Literacy?
00:02:05
Panciroli, riprendendo anche Yi (2021),
00:02:09
la definisce come la capacità di comprendere,
00:02:13
utilizzare e interagire criticamente con l'Intelligenza Artificiale.
00:02:17
Non è solo una questione tecnica,
00:02:20
ma anche sociale e culturale.
00:02:20
Sì,
00:02:23
e il framework che propone distingue tre sottoaree: quella funzionale,
00:02:28
cioè le competenze di base come lettura,
00:02:30
scrittura, calcolo; quella sociale,
00:02:32
che riguarda il pensiero critico e la comprensione del contesto; e quella
00:02:36
tecnica, cioè la conoscenza dei media e delle tecnologie.
00:02:40
Devo dire che quando ho dovuto preparare un nuovo corso universitario
00:02:44
sull'AI, mi sono reso conto di quanto fosse necessario aggiornare le mie
00:02:49
competenze in tutte e tre queste aree.
00:02:51
Non bastava saper spiegare come funziona un algoritmo: serviva anche
00:02:56
capire le implicazioni sociali e saperle trasmettere agli studenti.
00:02:56
Ecco,
00:03:01
questa è una cosa che spesso si sottovaluta.
00:03:04
L'AI Literacy non è solo per gli informatici,
00:03:07
ma per tutti.
00:03:08
E come dice anche Long e Magerko,
00:03:11
è la capacità di valutare criticamente,
00:03:14
utilizzare e comunicare con l'IA.
00:03:17
C'è una forte connessione con la Data Literacy,
00:03:20
perché senza capire i dati, non si può davvero capire l'AI.
00:03:20
Un aspetto
00:03:25
che mi ha colpito molto è l'importanza del pensiero critico e della
00:03:25
metacognizione.
00:03:30
Panciroli insiste sul fatto che non basta proteggere i propri dati,
00:03:34
cioè avere abilità passive, ma bisogna anche saper usare l'AI in modo
00:03:39
creativo, quindi sviluppare abilità attive.
00:03:42
La metacognizione, cioè la capacità di riflettere sul proprio pensiero,
00:03:47
è fondamentale per anticipare i cambiamenti e imparare in modo autonomo.
00:03:47
Sì,
00:03:52
e qui mi viene da chiederti: quali strategie possiamo adottare,
00:03:57
secondo te, per promuovere davvero il pensiero critico tra studenti e
00:04:01
cittadini?
00:04:02
Perché spesso si parla di pensiero critico,
00:04:05
ma poi nella pratica...Eh, bella domanda.
00:04:09
Io credo che servano attività che mettano le persone di fronte a problemi
00:04:13
reali, dove devono analizzare dati,
00:04:15
discutere, magari anche sbagliare e riflettere sugli errori.
00:04:19
Lavorare su casi concreti, come abbiamo visto anche nella robotica educativa
00:04:24
di cui parlavamo qualche episodio fa,
00:04:26
aiuta a sviluppare questa consapevolezza.
00:04:28
E poi, fondamentale, è insegnare a riconoscere i bias,
00:04:33
sia nei dati che negli algoritmi.
00:04:33
Sono d'accordo.
00:04:36
E aggiungerei che serve anche un ambiente che favorisca il dialogo e
00:04:40
la collaborazione, perché il pensiero critico si costruisce insieme,
00:04:45
non da soli.
00:04:45
A proposito di consapevolezza,
00:04:49
il capitolo dedica molto spazio alla Critical Data Literacy.
00:04:54
Cioè, la capacità di leggere, interpretare e valutare dati e algoritmi,
00:04:59
ma anche di riconoscere il potere che hanno le grandi aziende tech nella
00:05:04
raccolta e nell'uso dei dati.
00:05:04
Sì,
00:05:07
qui si entra in un terreno delicato.
00:05:09
Spiranec, Kos e George parlano di Critical Data Literacy come la capacità
00:05:15
di interrogarsi sulle origini, sugli usi e sugli impatti dei dati.
00:05:19
Non basta saper usare Excel, insomma.
00:05:22
Bisogna capire chi controlla i dati,
00:05:24
come vengono usati, quali sono le implicazioni etiche e sociali.
00:05:24
Guarda,
00:05:29
mi viene in mente il dibattito che c'è stato qualche tempo fa sulla raccolta
00:05:34
dati nei social network scolastici.
00:05:37
Molti genitori non avevano idea di quante informazioni venissero raccolte
00:05:42
e come potessero essere usate.
00:05:44
È un esempio perfetto di quanto sia urgente sviluppare una Critical Data
00:05:50
Literacy diffusa.
00:05:50
Assolutamente.
00:05:53
E come dice Panciroli, solo integrando AI Literacy e Critical Data Literacy
00:05:58
possiamo davvero emanciparci dalle logiche economiche e politiche che
00:06:02
stanno dietro la datificazione della società.Un altro tema chiave del
00:06:06
capitolo è la spiegabilità dell'AI,
00:06:09
la cosiddetta XAI.
00:06:11
Oggi si parla tanto di black box,
00:06:13
cioè di sistemi che prendono decisioni ma nessuno sa bene come.
00:06:17
La XAI serve proprio a rendere trasparenti questi processi,
00:06:21
per costruire fiducia e responsabilità,
00:06:23
sia a livello educativo che sociale.
00:06:23
Sì,
00:06:27
e la spiegabilità non è solo una questione tecnica.
00:06:30
È anche una questione di agentività,
00:06:33
come dice Panciroli: cioè, dare a studenti,
00:06:37
insegnanti e genitori gli strumenti per capire e decidere consapevolmente
00:06:43
se e come usare l'AI.
00:06:45
Ma ti chiedo: secondo te, l'utente medio può davvero comprendere le scelte
00:06:50
di un algoritmo?
00:06:50
Mah, non è facile.
00:06:53
Alcuni modelli, come gli alberi decisionali,
00:06:56
sono abbastanza trasparenti, ma altri,
00:06:58
tipo le reti neurali profonde o i Large Language Models,
00:07:02
sono molto più complessi.
00:07:04
Però credo che si possa lavorare su strumenti di visualizzazione,
00:07:07
simulazioni, spiegazioni interattive... Non tutti diventeranno esperti,
00:07:12
ma almeno si può dare una base per capire quando fidarsi e quando no.
00:07:12
Ecco,
00:07:17
e qui entra in gioco anche la formazione degli insegnanti,
00:07:21
che devono essere in grado di spiegare questi concetti e di scegliere
00:07:26
quando e come usare l'AI in classe.
00:07:26
Parlando di responsabilità,
00:07:30
non possiamo non citare il quadro normativo europeo.
00:07:34
L'AI Act, proposto dalla Commissione Europea nel 2021,
00:07:39
introduce regole precise per l'uso dell'AI,
00:07:42
soprattutto per i sistemi ad alto rischio.
00:07:44
Prevede requisiti di trasparenza,
00:07:47
controlli umani, valutazioni di conformità... e anche sanzioni,
00:07:52
se non si rispettano le regole.
00:07:52
Sì,
00:07:54
e introduce anche le cosiddette sandbox regolamentari,
00:07:58
cioè spazi di sperimentazione dove aziende e autorità possono testare
00:08:02
nuove soluzioni in modo controllato.
00:08:05
Recentemente, parlando con alcuni colleghi,
00:08:08
è emersa proprio la necessità di una formazione continua per i docenti:
00:08:12
le regole cambiano, le tecnologie evolvono,
00:08:15
e non si può pensare che la formazione sia una tantum.
00:08:18
Bisogna aggiornarsi costantemente,
00:08:21
anche per capire come applicare queste normative nella didattica.
00:08:21
E qui
00:08:26
l'Europa sta cercando di trovare un equilibrio tra tutela dei cittadini
00:08:30
e promozione dell'innovazione.
00:08:32
Non è semplice, ma è fondamentale per costruire un ecosistema di AI affidabile
00:08:39
e in linea con i valori democratici.
00:08:39
Arriviamo così ai Large Language Models,
00:08:44
come GPT, che sono ormai ovunque.
00:08:46
Sono modelli basati su reti neurali profonde,
00:08:49
addestrati su miliardi di dati,
00:08:51
e sono in grado di generare testi,
00:08:54
rispondere a domande, tradurre... Ma pongono anche enormi sfide etiche,
00:08:58
dai bias al consumo di risorse.
00:08:58
Sì,
00:09:01
e qui il capitolo di Panciroli è molto chiaro: per affrontare queste
00:09:06
sfide serve sviluppare non solo competenze tecniche,
00:09:09
ma anche etiche e sociali.
00:09:11
L'AI deve essere human-centered,
00:09:15
cioè centrata sull'uomo, e migliorare grazie all'input umano.
00:09:19
Solo così possiamo progettare un'educazione inclusiva e continua,
00:09:24
come chiedono anche le strategie europee.
00:09:24
Esatto.
00:09:28
E questo significa ripensare i curricoli,
00:09:31
offrire percorsi formativi che si aggiornano costantemente,
00:09:34
e garantire che tutti, anche le ragazze e le giovani donne,
00:09:38
abbiano accesso alle competenze digitali avanzate.
00:09:41
È una sfida enorme, ma anche un'opportunità per costruire una società
00:09:45
più consapevole e giusta.
00:09:45
E con questa riflessione chiudiamo la puntata
00:09:50
di oggi.
00:09:51
Grazie a tutti per averci seguito in questo viaggio tra simboli,
00:09:55
pensiero critico e spiegabilità dell'AI,
00:09:58
sempre guidati dal capitolo di Chiara Panciroli.
00:10:01
Valentino, grazie come sempre per le tue idee e la tua passione.
00:10:01
Grazie
00:10:07
a te Sandra, e grazie a chi ci ascolta.
00:10:09
Continuate a seguirci, perché il viaggio nelle New Literacies non è certo
00:10:13
finito qui!
00:10:13
Alla prossima puntata di "Didattica delle New Literacies"!
00:10:18
Un saluto da Sandra Catellani......e da Valentino Curreri.
00:10:22
Ciao a tutti!

![[06] AI Literacy tra Simboli, Spiegabilità e Pensiero Critico](https://images.beamly.com/fetch/https%3A%2F%2Fauth.jellypod.ai%2Fstorage%2Fv1%2Fobject%2Fpublic%2FCoverImages%2Forg_01K7DBDW6Z6WY8F3DV1EPJM2Z4%2Fusers%2Fuser_01K7DBDW1MF050KSA7ZE8CDR69%2FBF51ETbV15f_DvPI2u1Rd.jpg?w=365)

