[06] AI Literacy tra Simboli, Spiegabilità e Pensiero Critico
Didattica delle New Literacies06 luglio 2025
15
00:10:38

[06] AI Literacy tra Simboli, Spiegabilità e Pensiero Critico

Un'esplorazione approfondita sull'AI Literacy: come alfabeti digitali, pensiero critico e spiegabilità plasmano le nuove competenze fondamentali nell'era dell'intelligenza artificiale. Sandra e Valentino commentano spunti tratti dal capitolo di Chiara Panciroli, con esempi concreti e riflessioni sulle sfide educative.
Un'esplorazione approfondita sull'AI Literacy: come alfabeti digitali, pensiero critico e spiegabilità plasmano le nuove competenze fondamentali nell'era dell'intelligenza artificiale. Sandra e Valentino commentano spunti tratti dal capitolo di Chiara Panciroli, con esempi concreti e riflessioni sulle sfide educative.

00:00:00
Ciao a tutti e bentornati a "Didattica delle New Literacies"!

00:00:16
Io sono Sandra Catellani, e come sempre sono qui con Valentino Curreri.

00:00:21
Oggi ci addentriamo in un capitolo davvero centrale del libro di Pier

00:00:26
Cesare Rivoltella e Chiara Panciroli,

00:00:29
"AI Literacy: alfabeti, pensiero critico,

00:00:34
spiegabilità", scritto proprio da Chiara Panciroli e pubblicato da Mondadori

00:00:39
Università nel 2025.

00:00:39
Ciao Sandra,

00:00:43
ciao a tutti!

00:00:44
Sì, oggi parliamo di AI Literacy,

00:00:46
ma partendo da molto lontano, cioè dalle prime forme simboliche dell'umanità.

00:00:51
Mi ha colpito come Panciroli sottolinei che la vera rivoluzione non sia

00:00:55
stata la ruota o la spada, ma la capacità di rappresentare concetti attraverso

00:01:00
simboli.

00:01:01
Quei primi segni sulle rocce, 75.

00:01:01
000 anni fa,

00:01:05
sono stati il primo passo verso la condivisione della conoscenza.

00:01:05
Esatto,

00:01:09
e questa evoluzione dei simboli,

00:01:12
degli alfabeti, è sempre stata legata al bisogno umano di appartenere

00:01:17
a una comunità, come diceva anche Maslow.

00:01:20
Oggi, però, con le tecnologie digitali,

00:01:23
il concetto di alfabetizzazione si è ampliato tantissimo.

00:01:27
Valentino, secondo te, come stanno cambiando le nuove tecnologie il nostro

00:01:32
modo di intendere l'alfabetizzazione?

00:01:32
Guarda,

00:01:35
secondo me la tecnologia ha proprio stravolto il concetto.

00:01:39
Non basta più saper leggere e scrivere: ora bisogna saper decifrare codici,

00:01:44
immagini, dati, algoritmi...

00:01:46
E come abbiamo già discusso in una puntata precedente,

00:01:49
la literacy oggi è sempre più polialfabetizzazione.

00:01:53
L'AI Literacy, di cui parla Panciroli,

00:01:56
è un tassello fondamentale di questa evoluzione.

00:01:56
Entriamo allora nel cuore

00:02:01
del capitolo: che cos'è questa AI Literacy?

00:02:05
Panciroli, riprendendo anche Yi (2021),

00:02:09
la definisce come la capacità di comprendere,

00:02:13
utilizzare e interagire criticamente con l'Intelligenza Artificiale.

00:02:17
Non è solo una questione tecnica,

00:02:20
ma anche sociale e culturale.

00:02:20
Sì,

00:02:23
e il framework che propone distingue tre sottoaree: quella funzionale,

00:02:28
cioè le competenze di base come lettura,

00:02:30
scrittura, calcolo; quella sociale,

00:02:32
che riguarda il pensiero critico e la comprensione del contesto; e quella

00:02:36
tecnica, cioè la conoscenza dei media e delle tecnologie.

00:02:40
Devo dire che quando ho dovuto preparare un nuovo corso universitario

00:02:44
sull'AI, mi sono reso conto di quanto fosse necessario aggiornare le mie

00:02:49
competenze in tutte e tre queste aree.

00:02:51
Non bastava saper spiegare come funziona un algoritmo: serviva anche

00:02:56
capire le implicazioni sociali e saperle trasmettere agli studenti.

00:02:56
Ecco,

00:03:01
questa è una cosa che spesso si sottovaluta.

00:03:04
L'AI Literacy non è solo per gli informatici,

00:03:07
ma per tutti.

00:03:08
E come dice anche Long e Magerko,

00:03:11
è la capacità di valutare criticamente,

00:03:14
utilizzare e comunicare con l'IA.

00:03:17
C'è una forte connessione con la Data Literacy,

00:03:20
perché senza capire i dati, non si può davvero capire l'AI.

00:03:20
Un aspetto

00:03:25
che mi ha colpito molto è l'importanza del pensiero critico e della

00:03:25
metacognizione.

00:03:30
Panciroli insiste sul fatto che non basta proteggere i propri dati,

00:03:34
cioè avere abilità passive, ma bisogna anche saper usare l'AI in modo

00:03:39
creativo, quindi sviluppare abilità attive.

00:03:42
La metacognizione, cioè la capacità di riflettere sul proprio pensiero,

00:03:47
è fondamentale per anticipare i cambiamenti e imparare in modo autonomo.

00:03:47
Sì,

00:03:52
e qui mi viene da chiederti: quali strategie possiamo adottare,

00:03:57
secondo te, per promuovere davvero il pensiero critico tra studenti e

00:04:01
cittadini?

00:04:02
Perché spesso si parla di pensiero critico,

00:04:05
ma poi nella pratica...Eh, bella domanda.

00:04:09
Io credo che servano attività che mettano le persone di fronte a problemi

00:04:13
reali, dove devono analizzare dati,

00:04:15
discutere, magari anche sbagliare e riflettere sugli errori.

00:04:19
Lavorare su casi concreti, come abbiamo visto anche nella robotica educativa

00:04:24
di cui parlavamo qualche episodio fa,

00:04:26
aiuta a sviluppare questa consapevolezza.

00:04:28
E poi, fondamentale, è insegnare a riconoscere i bias,

00:04:33
sia nei dati che negli algoritmi.

00:04:33
Sono d'accordo.

00:04:36
E aggiungerei che serve anche un ambiente che favorisca il dialogo e

00:04:40
la collaborazione, perché il pensiero critico si costruisce insieme,

00:04:45
non da soli.

00:04:45
A proposito di consapevolezza,

00:04:49
il capitolo dedica molto spazio alla Critical Data Literacy.

00:04:54
Cioè, la capacità di leggere, interpretare e valutare dati e algoritmi,

00:04:59
ma anche di riconoscere il potere che hanno le grandi aziende tech nella

00:05:04
raccolta e nell'uso dei dati.

00:05:04
Sì,

00:05:07
qui si entra in un terreno delicato.

00:05:09
Spiranec, Kos e George parlano di Critical Data Literacy come la capacità

00:05:15
di interrogarsi sulle origini, sugli usi e sugli impatti dei dati.

00:05:19
Non basta saper usare Excel, insomma.

00:05:22
Bisogna capire chi controlla i dati,

00:05:24
come vengono usati, quali sono le implicazioni etiche e sociali.

00:05:24
Guarda,

00:05:29
mi viene in mente il dibattito che c'è stato qualche tempo fa sulla raccolta

00:05:34
dati nei social network scolastici.

00:05:37
Molti genitori non avevano idea di quante informazioni venissero raccolte

00:05:42
e come potessero essere usate.

00:05:44
È un esempio perfetto di quanto sia urgente sviluppare una Critical Data

00:05:50
Literacy diffusa.

00:05:50
Assolutamente.

00:05:53
E come dice Panciroli, solo integrando AI Literacy e Critical Data Literacy

00:05:58
possiamo davvero emanciparci dalle logiche economiche e politiche che

00:06:02
stanno dietro la datificazione della società.Un altro tema chiave del

00:06:06
capitolo è la spiegabilità dell'AI,

00:06:09
la cosiddetta XAI.

00:06:11
Oggi si parla tanto di black box,

00:06:13
cioè di sistemi che prendono decisioni ma nessuno sa bene come.

00:06:17
La XAI serve proprio a rendere trasparenti questi processi,

00:06:21
per costruire fiducia e responsabilità,

00:06:23
sia a livello educativo che sociale.

00:06:23
Sì,

00:06:27
e la spiegabilità non è solo una questione tecnica.

00:06:30
È anche una questione di agentività,

00:06:33
come dice Panciroli: cioè, dare a studenti,

00:06:37
insegnanti e genitori gli strumenti per capire e decidere consapevolmente

00:06:43
se e come usare l'AI.

00:06:45
Ma ti chiedo: secondo te, l'utente medio può davvero comprendere le scelte

00:06:50
di un algoritmo?

00:06:50
Mah, non è facile.

00:06:53
Alcuni modelli, come gli alberi decisionali,

00:06:56
sono abbastanza trasparenti, ma altri,

00:06:58
tipo le reti neurali profonde o i Large Language Models,

00:07:02
sono molto più complessi.

00:07:04
Però credo che si possa lavorare su strumenti di visualizzazione,

00:07:07
simulazioni, spiegazioni interattive... Non tutti diventeranno esperti,

00:07:12
ma almeno si può dare una base per capire quando fidarsi e quando no.

00:07:12
Ecco,

00:07:17
e qui entra in gioco anche la formazione degli insegnanti,

00:07:21
che devono essere in grado di spiegare questi concetti e di scegliere

00:07:26
quando e come usare l'AI in classe.

00:07:26
Parlando di responsabilità,

00:07:30
non possiamo non citare il quadro normativo europeo.

00:07:34
L'AI Act, proposto dalla Commissione Europea nel 2021,

00:07:39
introduce regole precise per l'uso dell'AI,

00:07:42
soprattutto per i sistemi ad alto rischio.

00:07:44
Prevede requisiti di trasparenza,

00:07:47
controlli umani, valutazioni di conformità... e anche sanzioni,

00:07:52
se non si rispettano le regole.

00:07:52
Sì,

00:07:54
e introduce anche le cosiddette sandbox regolamentari,

00:07:58
cioè spazi di sperimentazione dove aziende e autorità possono testare

00:08:02
nuove soluzioni in modo controllato.

00:08:05
Recentemente, parlando con alcuni colleghi,

00:08:08
è emersa proprio la necessità di una formazione continua per i docenti:

00:08:12
le regole cambiano, le tecnologie evolvono,

00:08:15
e non si può pensare che la formazione sia una tantum.

00:08:18
Bisogna aggiornarsi costantemente,

00:08:21
anche per capire come applicare queste normative nella didattica.

00:08:21
E qui

00:08:26
l'Europa sta cercando di trovare un equilibrio tra tutela dei cittadini

00:08:30
e promozione dell'innovazione.

00:08:32
Non è semplice, ma è fondamentale per costruire un ecosistema di AI affidabile

00:08:39
e in linea con i valori democratici.

00:08:39
Arriviamo così ai Large Language Models,

00:08:44
come GPT, che sono ormai ovunque.

00:08:46
Sono modelli basati su reti neurali profonde,

00:08:49
addestrati su miliardi di dati,

00:08:51
e sono in grado di generare testi,

00:08:54
rispondere a domande, tradurre... Ma pongono anche enormi sfide etiche,

00:08:58
dai bias al consumo di risorse.

00:08:58
Sì,

00:09:01
e qui il capitolo di Panciroli è molto chiaro: per affrontare queste

00:09:06
sfide serve sviluppare non solo competenze tecniche,

00:09:09
ma anche etiche e sociali.

00:09:11
L'AI deve essere human-centered,

00:09:15
cioè centrata sull'uomo, e migliorare grazie all'input umano.

00:09:19
Solo così possiamo progettare un'educazione inclusiva e continua,

00:09:24
come chiedono anche le strategie europee.

00:09:24
Esatto.

00:09:28
E questo significa ripensare i curricoli,

00:09:31
offrire percorsi formativi che si aggiornano costantemente,

00:09:34
e garantire che tutti, anche le ragazze e le giovani donne,

00:09:38
abbiano accesso alle competenze digitali avanzate.

00:09:41
È una sfida enorme, ma anche un'opportunità per costruire una società

00:09:45
più consapevole e giusta.

00:09:45
E con questa riflessione chiudiamo la puntata

00:09:50
di oggi.

00:09:51
Grazie a tutti per averci seguito in questo viaggio tra simboli,

00:09:55
pensiero critico e spiegabilità dell'AI,

00:09:58
sempre guidati dal capitolo di Chiara Panciroli.

00:10:01
Valentino, grazie come sempre per le tue idee e la tua passione.

00:10:01
Grazie

00:10:07
a te Sandra, e grazie a chi ci ascolta.

00:10:09
Continuate a seguirci, perché il viaggio nelle New Literacies non è certo

00:10:13
finito qui!

00:10:13
Alla prossima puntata di "Didattica delle New Literacies"!

00:10:18
Un saluto da Sandra Catellani......e da Valentino Curreri.

00:10:22
Ciao a tutti!

EDUNEXT - Next Education Italia

Telefono: +39 0522 522521
E-Mail: info@edunext.eu

© EDUNEXT - Next Education Italia | Tutti i diritti riservati