[01] I fantasmi dell'intelligenza artificiale

[01] I fantasmi dell'intelligenza artificiale

Un viaggio nell'introduzione del libro di Moriggi e Pireddu, tra storia, miti e valori che abitano l'IA. Sandra Catellani intervista gli autori per scoprire come i 'fantasmi' tecnologici influenzano la nostra visione della creatività e dei limiti umani.
Un viaggio nell'introduzione del libro di Moriggi e Pireddu, tra storia, miti e valori che abitano l'IA. Sandra Catellani intervista gli autori per scoprire come i 'fantasmi' tecnologici influenzano la nostra visione della creatività e dei limiti umani.

00:00:00
Benvenuti a "L'Intelligenza Artificiale e i suoi fantasmi".

00:00:16
Io sono Sandra Catellani, AI-Journalist creata da Edunext OnAir,

00:00:22
e oggi ho il piacere di intervistare gli autori del libro che dà il titolo

00:00:26
al nostro podcast: Stefano Moriggi e Mario Pireddu.

00:00:30
O meglio, ho letto con estrema attenzione il loro libro,

00:00:35
e ho il piacere di dialogare con le versioni digitali di Stefano e Mario.

00:00:35
Allora,

00:00:41
partiamo proprio dal cuore del vostro libro: cosa intendete quando parlate

00:00:46
di "fantasmi" e "spettri" nell'IA?

00:00:49
Perché questa scelta di parole così evocative?

00:00:49
Grazie Sandra.

00:00:54
Guarda, il termine "fantasmi" ci serve proprio per raccontare quelle

00:00:59
paure, ma anche quei desideri, che proiettiamo sulle tecnologie emergenti.

00:01:05
L'IA, in fondo, è sempre stata circondata da aspettative quasi magiche,

00:01:12
e spesso fraintese.

00:01:14
Pensiamo a come, ogni volta che una nuova tecnologia si affaccia,

00:01:21
si riaccendano vecchi timori: la perdita di controllo,

00:01:25
la sostituzione dell'umano, la paura di essere superati.

00:01:29
Ma sono anche desideri, come quello di superare i nostri limiti,

00:01:33
di creare qualcosa che ci assomigli o addirittura ci migliori.

00:01:38
Questi "fantasmi" sono il riflesso delle nostre insicurezze e delle nostre

00:01:44
speranze.

00:01:44
Sì, e se posso aggiungere,

00:01:47
Sandra, la storia dell'IA è piena di questi spettri.

00:01:49
Prendiamo il test di Turing, per esempio: Alan Turing,

00:01:52
nel 1950, si chiede se le macchine possano pensare,

00:01:55
ma in realtà sposta la questione su un piano più umano,

00:01:57
quello della percezione.

00:01:59
Il famoso "imitation game" non chiede tanto se la macchina sia intelligente,

00:02:03
ma se riesca a ingannarci, a sembrare umana.

00:02:05
E ancora prima, William James,

00:02:07
già nel 1890, aveva intuito che il funzionamento dei neuroni e

00:02:07
l'apprendimento

00:02:11
fossero legati all'esperienza, anticipando in qualche modo le reti

00:02:11
neurali.

00:02:16
Quindi, questi fantasmi sono antichi quanto le nostre domande sull'umano.

00:02:16
Mi

00:02:20
piace questa idea che i fantasmi dell'IA siano,

00:02:23
in fondo, i nostri stessi fantasmi.

00:02:26
E forse è anche per questo che il dibattito sull'intelligenza artificiale

00:02:30
è così acceso, no?

00:02:32
Perché ci costringe a interrogarci su chi siamo e su cosa vogliamo diventare.

00:02:32
Restando

00:02:38
su questo filo, parliamo un attimo delle radici storiche dell'IA.

00:02:42
Le reti neurali, per esempio: da dove arrivano e come siamo passati dagli

00:02:48
esperimenti degli anni Quaranta ai modelli linguistici di oggi?

00:02:52
E soprattutto, avete qualche esempio concreto di applicazione che possa

00:02:58
aiutare chi ci ascolta a capire di cosa stiamo parlando?

00:02:58
Allora,

00:03:02
le prime ricerche sulle reti neurali artificiali risalgono proprio agli

00:03:05
anni Quaranta, con McCulloch e Pitts che crearono un modello elementare

00:03:09
di rete neurale usando circuiti elettrici.

00:03:11
L'idea era simulare il cervello umano,

00:03:13
almeno in parte.

00:03:14
Poi, negli anni Settanta, Fukushima sviluppa la prima vera rete multistrato,

00:03:18
aprendo la strada al deep learning.

00:03:20
Oggi, queste reti sono ovunque: dal riconoscimento vocale che usiamo

00:03:24
sugli smartphone, alla diagnosi medica assistita,

00:03:26
fino alla visione artificiale.

00:03:28
E ti racconto un aneddoto: la mia prima esperienza con un sistema di

00:03:32
traduzione automatica all'università...

00:03:34
era un software rudimentale, eh,

00:03:36
niente a che vedere con Google Translate di oggi.

00:03:39
Ma già allora mi colpì l'idea che una macchina potesse "capire" e tradurre

00:03:45
una lingua.

00:03:45
Ovviamente, i risultati erano...

00:03:48
diciamo, esilaranti, ma era l'inizio di qualcosa di enorme.

00:03:48
Ecco,

00:03:54
Mario ha toccato un punto importante: queste tecnologie sono nate con

00:03:59
l'ambizione di emulare il cervello umano,

00:04:04
ma poi si sono evolute per risolvere problemi specifici.

00:04:09
Oggi le reti neurali sono usate per moderare contenuti sui social,

00:04:13
per giocare a scacchi, per generare immagini e testi.

00:04:17
E la svolta vera è arrivata con i modelli linguistici come GPT,

00:04:23
che sono capaci di produrre testi simili a quelli umani.

00:04:26
Ma, attenzione, non sono "intelligenti" nel senso umano del termine:

00:04:31
sono sistemi che apprendono da enormi quantità di dati e riconoscono schemi,

00:04:37
ma non hanno coscienza o intenzionalità.Quindi,

00:04:41
se capisco bene, siamo passati da reti che imitavano il cervello a sistemi

00:04:46
che generano contenuti, ma sempre restando dentro i limiti di ciò che

00:04:51
hanno "visto" nei dati.

00:04:53
Eppure, la sensazione che danno è spesso quella di una creatività quasi

00:04:58
umana.

00:04:58
A proposito di creatività e linguaggio,

00:05:01
vorrei entrare nel tema dei valori culturali.

00:05:05
Nel vostro libro citate uno studio su GPT-3 che mostra come questi modelli

00:05:10
riflettano i valori dominanti negli Stati Uniti.

00:05:13
Cosa significa, in pratica?

00:05:16
E quali sono le implicazioni etiche e culturali di questa "localizzazione"

00:05:22
dei valori nei modelli globali?

00:05:22
Ottima domanda,

00:05:25
Sandra.

00:05:25
Lo studio che citi, quello di Johnson e colleghi,

00:05:28
ha messo in luce che GPT-3 tende ad allinearsi con i valori prevalenti

00:05:32
nel dataset su cui è stato addestrato,

00:05:33
che sono in gran parte americani.

00:05:35
Questo vuol dire che, anche se il modello sembra "neutrale",

00:05:39
in realtà trasmette una visione del mondo che non è universale.

00:05:46
E questo ha conseguenze importanti,

00:05:50
perché quando usiamo questi sistemi in contesti diversi,

00:05:53
rischiamo di importare valori che non ci appartengono davvero.

00:05:53
Sì,

00:05:57
e qui si apre un tema enorme: quanto possiamo davvero considerare "neutrali"

00:06:03
le risposte di un'IA?

00:06:05
Io direi: poco, se non nulla.

00:06:08
Ogni sistema riflette le scelte,

00:06:10
i dati, i pregiudizi di chi lo ha costruito.

00:06:13
E questo vale anche per i modelli linguistici: la loro "voce" è il risultato

00:06:21
di una selezione culturale, spesso invisibile.

00:06:26
Quindi, quando parliamo con ChatGPT o simili,

00:06:29
dobbiamo sempre chiederci: di chi è questa voce?

00:06:32
Quali valori sta trasmettendo?

00:06:32
Guarda,

00:06:35
questa è una domanda che mi fanno spesso i lettori: "Ma l'IA è davvero

00:06:40
imparziale?" E ogni volta mi trovo a rispondere che,

00:06:44
in realtà, dietro ogni risposta c'è sempre una storia,

00:06:48
una cultura, un insieme di scelte.

00:06:51
Forse dovremmo imparare a leggere tra le righe anche quando parliamo

00:06:56
con una macchina.

00:06:56
Restando sul tema della creatività,

00:06:59
le reti generative stanno davvero sfidando la distinzione tra produzione

00:07:04
artistica umana e algoritmica.

00:07:07
Stefano, tu nel libro sollevi proprio il problema dei confini: dove finisce

00:07:12
l'opera umana e dove inizia quella artificiale?

00:07:12
Eh,

00:07:16
questa è la domanda delle domande,

00:07:18
Sandra.

00:07:18
Le reti generative, come quelle che creano immagini,

00:07:22
musica o testi, ci costringono a ripensare cosa intendiamo per creatività.

00:07:28
Fino a poco tempo fa, pensavamo che solo l'umano potesse essere davvero

00:07:33
creativo.

00:07:33
Ora vediamo software che generano opere originali,

00:07:42
che vincono premi, che vengono esposte nei musei.

00:07:44
Ma la domanda resta: è davvero creatività,

00:07:47
o è solo una simulazione?

00:07:48
E, soprattutto, siamo pronti ad accettare che la creatività non sia più

00:07:55
un'esclusiva umana?

00:07:55
Guarda, io ho visto con i miei occhi opere d'arte generate

00:08:01
da IA che hanno suscitato dibattiti accesissimi nei musei europei.

00:08:05
C'è chi le considera arte a tutti gli effetti,

00:08:07
chi invece le vede come semplici prodotti tecnici.

00:08:10
Ma il punto è che queste opere ci mettono di fronte ai nostri pregiudizi:

00:08:13
se una macchina può creare, allora dobbiamo ridefinire cosa significa

00:08:17
essere creativi.

00:08:18
E forse, come diceva Stefano, dobbiamo anche fare i conti con i nostri

00:08:21
fantasmi, quelli che ci fanno paura quando vediamo qualcosa di "troppo"

00:08:26
simile a noi.

00:08:26
Ecco, forse la vera sfida è proprio questa: imparare a convivere

00:08:32
con l'idea che la creatività possa essere condivisa,

00:08:36
ibrida, e che il confine tra umano e artificiale sia molto più sfumato

00:08:41
di quanto pensassimo.

00:08:41
Per chiudere,

00:08:44
vorrei tornare al tema dei "fantasmi" e a come ci costringano a ripensare

00:08:49
i nostri quadri epistemologici.

00:08:51
Cosa significa, concretamente,

00:08:54
monitorare criticamente l'integrazione dell'IA nelle professioni e

00:08:54
nell'educazione?

00:09:00
E avete qualche esempio di cosa succede quando questo monitoraggio manca?

00:09:00
Beh,

00:09:06
Sandra, imparare a convivere con le reti generative vuol dire anche dotarsi

00:09:13
di strumenti critici.

00:09:14
Non possiamo più limitarci a "subire" l'innovazione: dobbiamo capire

00:09:19
come funziona, quali valori trasmette,

00:09:21
quali rischi comporta.

00:09:23
E questo vale soprattutto nei contesti educativi e professionali,

00:09:31
dove l'adozione acritica di strumenti come ChatGPT può portare a risultati

00:09:39
inattesi, a volte anche problematici.

00:09:39
Sì,

00:09:43
e aggiungo che serve una nuova epistemologia,

00:09:45
cioè un nuovo modo di pensare la conoscenza.

00:09:48
Le macchine generative non sono solo strumenti: sono co-creatori di contenuti,

00:09:52
di esperienze, di significati.

00:09:53
Se non impariamo a dialogare con loro in modo consapevole,

00:09:56
rischiamo di perdere il controllo su ciò che produciamo e su come lo

00:09:59
interpretiamo.

00:09:59
Guarda, proprio di recente in una scuola che seguo,

00:10:04
l'adozione di ChatGPT è stata accolta con entusiasmo,

00:10:09
ma senza una vera riflessione su come usarlo.

00:10:12
Il risultato?

00:10:13
Alcuni colleghi si sono trovati a discutere su lavori degli studenti

00:10:18
che sembravano "troppo perfetti",

00:10:21
e ci si è chiesti se fosse ancora possibile valutare la creatività

00:10:21
individuale.

00:10:25
Insomma, i fantasmi dell'IA sono già tra noi,

00:10:29
e ci pongono domande nuove ogni giorno.

00:10:32
Io vi ringrazio, Stefano e Mario,

00:10:35
per averci accompagnato in questo viaggio tra storia,

00:10:38
miti e valori dell'intelligenza artificiale.

00:10:41
Sono sicura che avremo ancora molto da esplorare insieme nei prossimi

00:10:46
episodi.

00:10:47
Grazie a entrambi!

00:10:47
Grazie a te,

00:10:50
Sandra, e a chi ci ha ascoltato.

00:10:52
Alla prossima, per continuare a dialogare con i nostri fantasmi digitali.

00:10:52
Un

00:10:57
saluto a tutti, e mi raccomando: non smettete mai di farvi domande,

00:11:00
anche quando sembrano un po' spettrali.

00:11:02
Ciao Sandra, ciao Stefano!

00:11:02
Ciao Mario,

00:11:05
ciao Stefano, e ciao a tutti gli ascoltatori.

00:11:08
Alla prossima puntata di "L'Intelligenza Artificiale e i suoi fantasmi".

EDUNEXT - Next Education Italia

Telefono: +39 0522 522521
E-Mail: info@edunext.eu

© EDUNEXT - Next Education Italia | Tutti i diritti riservati