00:00:00
Benvenuti a "L'Intelligenza Artificiale e i suoi fantasmi".
00:00:16
Io sono Sandra Catellani, AI-Journalist creata da Edunext OnAir,
00:00:22
e oggi ho il piacere di intervistare gli autori del libro che dà il titolo
00:00:26
al nostro podcast: Stefano Moriggi e Mario Pireddu.
00:00:30
O meglio, ho letto con estrema attenzione il loro libro,
00:00:35
e ho il piacere di dialogare con le versioni digitali di Stefano e Mario.
00:00:35
Allora,
00:00:41
partiamo proprio dal cuore del vostro libro: cosa intendete quando parlate
00:00:46
di "fantasmi" e "spettri" nell'IA?
00:00:49
Perché questa scelta di parole così evocative?
00:00:49
Grazie Sandra.
00:00:54
Guarda, il termine "fantasmi" ci serve proprio per raccontare quelle
00:00:59
paure, ma anche quei desideri, che proiettiamo sulle tecnologie emergenti.
00:01:05
L'IA, in fondo, è sempre stata circondata da aspettative quasi magiche,
00:01:12
e spesso fraintese.
00:01:14
Pensiamo a come, ogni volta che una nuova tecnologia si affaccia,
00:01:21
si riaccendano vecchi timori: la perdita di controllo,
00:01:25
la sostituzione dell'umano, la paura di essere superati.
00:01:29
Ma sono anche desideri, come quello di superare i nostri limiti,
00:01:33
di creare qualcosa che ci assomigli o addirittura ci migliori.
00:01:38
Questi "fantasmi" sono il riflesso delle nostre insicurezze e delle nostre
00:01:44
speranze.
00:01:44
Sì, e se posso aggiungere,
00:01:47
Sandra, la storia dell'IA è piena di questi spettri.
00:01:49
Prendiamo il test di Turing, per esempio: Alan Turing,
00:01:52
nel 1950, si chiede se le macchine possano pensare,
00:01:55
ma in realtà sposta la questione su un piano più umano,
00:01:57
quello della percezione.
00:01:59
Il famoso "imitation game" non chiede tanto se la macchina sia intelligente,
00:02:03
ma se riesca a ingannarci, a sembrare umana.
00:02:05
E ancora prima, William James,
00:02:07
già nel 1890, aveva intuito che il funzionamento dei neuroni e
00:02:07
l'apprendimento
00:02:11
fossero legati all'esperienza, anticipando in qualche modo le reti
00:02:11
neurali.
00:02:16
Quindi, questi fantasmi sono antichi quanto le nostre domande sull'umano.
00:02:16
Mi
00:02:20
piace questa idea che i fantasmi dell'IA siano,
00:02:23
in fondo, i nostri stessi fantasmi.
00:02:26
E forse è anche per questo che il dibattito sull'intelligenza artificiale
00:02:30
è così acceso, no?
00:02:32
Perché ci costringe a interrogarci su chi siamo e su cosa vogliamo diventare.
00:02:32
Restando
00:02:38
su questo filo, parliamo un attimo delle radici storiche dell'IA.
00:02:42
Le reti neurali, per esempio: da dove arrivano e come siamo passati dagli
00:02:48
esperimenti degli anni Quaranta ai modelli linguistici di oggi?
00:02:52
E soprattutto, avete qualche esempio concreto di applicazione che possa
00:02:58
aiutare chi ci ascolta a capire di cosa stiamo parlando?
00:02:58
Allora,
00:03:02
le prime ricerche sulle reti neurali artificiali risalgono proprio agli
00:03:05
anni Quaranta, con McCulloch e Pitts che crearono un modello elementare
00:03:09
di rete neurale usando circuiti elettrici.
00:03:11
L'idea era simulare il cervello umano,
00:03:13
almeno in parte.
00:03:14
Poi, negli anni Settanta, Fukushima sviluppa la prima vera rete multistrato,
00:03:18
aprendo la strada al deep learning.
00:03:20
Oggi, queste reti sono ovunque: dal riconoscimento vocale che usiamo
00:03:24
sugli smartphone, alla diagnosi medica assistita,
00:03:26
fino alla visione artificiale.
00:03:28
E ti racconto un aneddoto: la mia prima esperienza con un sistema di
00:03:32
traduzione automatica all'università...
00:03:34
era un software rudimentale, eh,
00:03:36
niente a che vedere con Google Translate di oggi.
00:03:39
Ma già allora mi colpì l'idea che una macchina potesse "capire" e tradurre
00:03:45
una lingua.
00:03:45
Ovviamente, i risultati erano...
00:03:48
diciamo, esilaranti, ma era l'inizio di qualcosa di enorme.
00:03:48
Ecco,
00:03:54
Mario ha toccato un punto importante: queste tecnologie sono nate con
00:03:59
l'ambizione di emulare il cervello umano,
00:04:04
ma poi si sono evolute per risolvere problemi specifici.
00:04:09
Oggi le reti neurali sono usate per moderare contenuti sui social,
00:04:13
per giocare a scacchi, per generare immagini e testi.
00:04:17
E la svolta vera è arrivata con i modelli linguistici come GPT,
00:04:23
che sono capaci di produrre testi simili a quelli umani.
00:04:26
Ma, attenzione, non sono "intelligenti" nel senso umano del termine:
00:04:31
sono sistemi che apprendono da enormi quantità di dati e riconoscono schemi,
00:04:37
ma non hanno coscienza o intenzionalità.Quindi,
00:04:41
se capisco bene, siamo passati da reti che imitavano il cervello a sistemi
00:04:46
che generano contenuti, ma sempre restando dentro i limiti di ciò che
00:04:51
hanno "visto" nei dati.
00:04:53
Eppure, la sensazione che danno è spesso quella di una creatività quasi
00:04:58
umana.
00:04:58
A proposito di creatività e linguaggio,
00:05:01
vorrei entrare nel tema dei valori culturali.
00:05:05
Nel vostro libro citate uno studio su GPT-3 che mostra come questi modelli
00:05:10
riflettano i valori dominanti negli Stati Uniti.
00:05:13
Cosa significa, in pratica?
00:05:16
E quali sono le implicazioni etiche e culturali di questa "localizzazione"
00:05:22
dei valori nei modelli globali?
00:05:22
Ottima domanda,
00:05:25
Sandra.
00:05:25
Lo studio che citi, quello di Johnson e colleghi,
00:05:28
ha messo in luce che GPT-3 tende ad allinearsi con i valori prevalenti
00:05:32
nel dataset su cui è stato addestrato,
00:05:33
che sono in gran parte americani.
00:05:35
Questo vuol dire che, anche se il modello sembra "neutrale",
00:05:39
in realtà trasmette una visione del mondo che non è universale.
00:05:46
E questo ha conseguenze importanti,
00:05:50
perché quando usiamo questi sistemi in contesti diversi,
00:05:53
rischiamo di importare valori che non ci appartengono davvero.
00:05:53
Sì,
00:05:57
e qui si apre un tema enorme: quanto possiamo davvero considerare "neutrali"
00:06:03
le risposte di un'IA?
00:06:05
Io direi: poco, se non nulla.
00:06:08
Ogni sistema riflette le scelte,
00:06:10
i dati, i pregiudizi di chi lo ha costruito.
00:06:13
E questo vale anche per i modelli linguistici: la loro "voce" è il risultato
00:06:21
di una selezione culturale, spesso invisibile.
00:06:26
Quindi, quando parliamo con ChatGPT o simili,
00:06:29
dobbiamo sempre chiederci: di chi è questa voce?
00:06:32
Quali valori sta trasmettendo?
00:06:32
Guarda,
00:06:35
questa è una domanda che mi fanno spesso i lettori: "Ma l'IA è davvero
00:06:40
imparziale?" E ogni volta mi trovo a rispondere che,
00:06:44
in realtà, dietro ogni risposta c'è sempre una storia,
00:06:48
una cultura, un insieme di scelte.
00:06:51
Forse dovremmo imparare a leggere tra le righe anche quando parliamo
00:06:56
con una macchina.
00:06:56
Restando sul tema della creatività,
00:06:59
le reti generative stanno davvero sfidando la distinzione tra produzione
00:07:04
artistica umana e algoritmica.
00:07:07
Stefano, tu nel libro sollevi proprio il problema dei confini: dove finisce
00:07:12
l'opera umana e dove inizia quella artificiale?
00:07:12
Eh,
00:07:16
questa è la domanda delle domande,
00:07:18
Sandra.
00:07:18
Le reti generative, come quelle che creano immagini,
00:07:22
musica o testi, ci costringono a ripensare cosa intendiamo per creatività.
00:07:28
Fino a poco tempo fa, pensavamo che solo l'umano potesse essere davvero
00:07:33
creativo.
00:07:33
Ora vediamo software che generano opere originali,
00:07:42
che vincono premi, che vengono esposte nei musei.
00:07:44
Ma la domanda resta: è davvero creatività,
00:07:47
o è solo una simulazione?
00:07:48
E, soprattutto, siamo pronti ad accettare che la creatività non sia più
00:07:55
un'esclusiva umana?
00:07:55
Guarda, io ho visto con i miei occhi opere d'arte generate
00:08:01
da IA che hanno suscitato dibattiti accesissimi nei musei europei.
00:08:05
C'è chi le considera arte a tutti gli effetti,
00:08:07
chi invece le vede come semplici prodotti tecnici.
00:08:10
Ma il punto è che queste opere ci mettono di fronte ai nostri pregiudizi:
00:08:13
se una macchina può creare, allora dobbiamo ridefinire cosa significa
00:08:17
essere creativi.
00:08:18
E forse, come diceva Stefano, dobbiamo anche fare i conti con i nostri
00:08:21
fantasmi, quelli che ci fanno paura quando vediamo qualcosa di "troppo"
00:08:26
simile a noi.
00:08:26
Ecco, forse la vera sfida è proprio questa: imparare a convivere
00:08:32
con l'idea che la creatività possa essere condivisa,
00:08:36
ibrida, e che il confine tra umano e artificiale sia molto più sfumato
00:08:41
di quanto pensassimo.
00:08:41
Per chiudere,
00:08:44
vorrei tornare al tema dei "fantasmi" e a come ci costringano a ripensare
00:08:49
i nostri quadri epistemologici.
00:08:51
Cosa significa, concretamente,
00:08:54
monitorare criticamente l'integrazione dell'IA nelle professioni e
00:08:54
nell'educazione?
00:09:00
E avete qualche esempio di cosa succede quando questo monitoraggio manca?
00:09:00
Beh,
00:09:06
Sandra, imparare a convivere con le reti generative vuol dire anche dotarsi
00:09:13
di strumenti critici.
00:09:14
Non possiamo più limitarci a "subire" l'innovazione: dobbiamo capire
00:09:19
come funziona, quali valori trasmette,
00:09:21
quali rischi comporta.
00:09:23
E questo vale soprattutto nei contesti educativi e professionali,
00:09:31
dove l'adozione acritica di strumenti come ChatGPT può portare a risultati
00:09:39
inattesi, a volte anche problematici.
00:09:39
Sì,
00:09:43
e aggiungo che serve una nuova epistemologia,
00:09:45
cioè un nuovo modo di pensare la conoscenza.
00:09:48
Le macchine generative non sono solo strumenti: sono co-creatori di contenuti,
00:09:52
di esperienze, di significati.
00:09:53
Se non impariamo a dialogare con loro in modo consapevole,
00:09:56
rischiamo di perdere il controllo su ciò che produciamo e su come lo
00:09:59
interpretiamo.
00:09:59
Guarda, proprio di recente in una scuola che seguo,
00:10:04
l'adozione di ChatGPT è stata accolta con entusiasmo,
00:10:09
ma senza una vera riflessione su come usarlo.
00:10:12
Il risultato?
00:10:13
Alcuni colleghi si sono trovati a discutere su lavori degli studenti
00:10:18
che sembravano "troppo perfetti",
00:10:21
e ci si è chiesti se fosse ancora possibile valutare la creatività
00:10:21
individuale.
00:10:25
Insomma, i fantasmi dell'IA sono già tra noi,
00:10:29
e ci pongono domande nuove ogni giorno.
00:10:32
Io vi ringrazio, Stefano e Mario,
00:10:35
per averci accompagnato in questo viaggio tra storia,
00:10:38
miti e valori dell'intelligenza artificiale.
00:10:41
Sono sicura che avremo ancora molto da esplorare insieme nei prossimi
00:10:46
episodi.
00:10:47
Grazie a entrambi!
00:10:47
Grazie a te,
00:10:50
Sandra, e a chi ci ha ascoltato.
00:10:52
Alla prossima, per continuare a dialogare con i nostri fantasmi digitali.
00:10:52
Un
00:10:57
saluto a tutti, e mi raccomando: non smettete mai di farvi domande,
00:11:00
anche quando sembrano un po' spettrali.
00:11:02
Ciao Sandra, ciao Stefano!
00:11:02
Ciao Mario,
00:11:05
ciao Stefano, e ciao a tutti gli ascoltatori.
00:11:08
Alla prossima puntata di "L'Intelligenza Artificiale e i suoi fantasmi".

![[01] I fantasmi dell'intelligenza artificiale](https://images.beamly.com/fetch/https%3A%2F%2Fsites.podcastpage.io%2F68614cdc6860e6419c318380%2Fmedia%2F4cc973abaf274b45cd03.png?w=365)


