00:00:00
Benvenuti a "L'Intelligenza Artificiale e i suoi fantasmi".
00:00:16
Io sono Sandra Catellani, AI-Journalist creata da Edunext OnAir,
00:00:22
e oggi vi accompagno in un nuovo episodio: "Fantasmi nella Macchina".
00:00:27
Con me, come sempre, ci sono le voci clonate degli autori del libro omonimo,
00:00:32
Stefano Moriggi e Mario Pireddu.
00:00:34
Ciao Mario, ciao Stefano!
00:00:34
Ciao Sandra!
00:00:38
Sempre un piacere essere qui, anche se,
00:00:40
diciamolo, sentirsi "clonato" fa un certo effetto...
00:00:43
ma ormai ci ho fatto l'abitudine!
00:00:43
Ciao a tutti!
00:00:45
Sì, ormai siamo più digitali che mai.
00:00:47
E Sandra, grazie per la presentazione teatrale: mi sembra perfetta,
00:00:52
visto che il nostro libro ha proprio una struttura da copione,
00:00:56
con atti e scene.
00:00:56
Ecco, partiamo proprio da qui: la vostra scelta di dividere
00:01:02
il libro in atti e scene, quasi fosse un'opera teatrale.
00:01:06
È un modo per mettere in scena le grandi domande umanistiche sull'IA?
00:01:11
E, se posso aggiungere, come si riflettono queste domande nelle aule
00:01:16
universitarie oggi?
00:01:16
Guarda, Sandra,
00:01:18
la struttura teatrale non è solo un vezzo stilistico.
00:01:21
È un invito a vedere la tecnologia come qualcosa che si rappresenta,
00:01:24
che si mette in scena nella nostra vita quotidiana.
00:01:26
E le domande umanistiche, quelle che ci chiediamo da sempre - chi siamo,
00:01:30
cosa significa essere umani - oggi si ripropongono con forza davanti
00:01:34
all'IA.
00:01:35
Nelle aule universitarie, queste domande sono più vive che mai,
00:01:38
anche se a volte gli studenti vorrebbero solo risposte pratiche!
00:01:38
Sì,
00:01:42
e aggiungo che il teatro è il luogo dove si incontrano i fantasmi,
00:01:48
le paure, le speranze.
00:01:49
L'IA, in fondo, è il nuovo palcoscenico dove si recitano le nostre inquietudini
00:01:55
più profonde.
00:01:56
Ecco perché abbiamo scelto questa forma: per far emergere il lato umano,
00:02:01
molto umano, del nostro rapporto con le macchine.
00:02:01
A proposito di inquietudini,
00:02:06
nel vostro libro parlate di come ogni innovazione tecnologica porti con
00:02:11
sé i suoi fantasmi.
00:02:12
Non è una storia nuova, vero?
00:02:12
No,
00:02:15
affatto.
00:02:16
Se guardiamo indietro, ogni grande svolta tecnologica ha generato paure
00:02:22
e sogni.
00:02:23
Pensiamo alla stampa: c'era chi temeva che avrebbe rovinato la memoria,
00:02:29
o che avrebbe diffuso eresie.
00:02:31
Poi il telefono, la radio, la televisione...
00:02:34
ogni volta, i fantasmi si ripresentano,
00:02:39
magari con una maschera diversa.
00:02:39
E oggi,
00:02:41
con l'IA, questi spettri si sono solo aggiornati.
00:02:43
Ma la dinamica è la stessa: c'è chi sogna un futuro radioso e chi vede
00:02:47
solo minacce.
00:02:47
È come se la tecnologia fosse uno specchio che riflette le nostre ansie
00:02:50
più profonde.
00:02:50
Posso raccontare un aneddoto?
00:02:53
La prima volta che ho visto un computer,
00:02:56
ero bambino.
00:02:57
Era enorme, rumoroso, e mi faceva quasi paura.
00:03:01
Mi sembrava una cosa viva, misteriosa.
00:03:03
Quell'inquietudine, in fondo, non mi ha mai abbandonato.
00:03:08
E credo che sia la stessa che proviamo oggi davanti all'IA.
00:03:08
Quindi,
00:03:13
i fantasmi non sono mai davvero nuovi,
00:03:16
ma si adattano ai tempi.
00:03:18
E forse, come vedremo, ignorarli non è mai la soluzione migliore.
00:03:18
Ecco,
00:03:24
veniamo al punto: cosa significa davvero "prendere sul serio" i fantasmi,
00:03:29
soprattutto quando parliamo di tecnologia?
00:03:29
Prenderli sul serio vuol dire
00:03:34
non liquidarli come semplici superstizioni.
00:03:38
I fantasmi sono le nostre paure collettive,
00:03:40
le ansie che emergono quando sentiamo che qualcosa ci sfugge di mano.
00:03:45
Derrida diceva che bisogna parlare al fantasma,
00:03:49
non solo di lui.
00:03:50
E con l'IA, questi spettri sono ovunque: dalla paura di perdere il lavoro
00:03:56
a quella di essere sostituiti, fino al timore di una disumanizzazione.
00:03:56
Sì,
00:04:02
e nell'educazione questi fantasmi sono particolarmente forti.
00:04:05
Pensa agli algoritmi che decidono chi viene ammesso a un corso,
00:04:08
o che valutano i nostri studenti.
00:04:09
C'è chi teme che la scuola diventi una fabbrica di dati,
00:04:12
dove l'umano scompare dietro le metriche.
00:04:14
Eppure, se non affrontiamo queste paure,
00:04:18
rischiamo di restare bloccati,
00:04:20
incapaci di innovare davvero.
00:04:20
Quindi,
00:04:24
prendere sul serio i fantasmi significa anche riconoscere che sono parte
00:04:28
del nostro modo di affrontare il nuovo.
00:04:31
E forse, come dicevate, è proprio nei momenti di transizione che questi
00:04:37
spettri diventano più rumorosi.
00:04:37
A proposito di riflessi,
00:04:40
nel libro citate filosofi come Arendt e Heidegger per parlare del rapporto
00:04:46
tra uomo e tecnologia.
00:04:47
Vi chiedo: l'IA ci riflette o ci deforma?
00:04:47
Domanda bellissima,
00:04:52
Sandra.
00:04:53
L'IA è uno specchio, ma uno specchio deformante.
00:04:56
Da un lato ci restituisce un'immagine di noi stessi,
00:05:00
delle nostre capacità, dei nostri limiti.
00:05:02
Dall'altro, però, rischia di amplificare o distorcere certe caratteristiche.
00:05:11
Heidegger diceva che la tecnologia non è mai neutra: ci cambia,
00:05:15
ci trasforma, ci costringe a ripensare chi siamo.
00:05:15
E Arendt,
00:05:20
se posso aggiungere, ci ricorda che la tecnica è sempre una forma di
00:05:23
esternalizzazione: mettiamo fuori da noi qualcosa che prima era interno.
00:05:27
L'IA, in questo senso, è il massimo dell'esternalizzazione: affidiamo
00:05:30
alle macchine non solo il calcolo,
00:05:32
ma anche il giudizio, la creatività,
00:05:34
perfino l'empatia.
00:05:36
Ma cosa resta di noi, allora?
00:05:36
Forse,
00:05:39
come diceva qualcuno, la vera domanda non è se l'IA ci riflette o ci
00:05:44
deforma, ma se siamo pronti a guardarci davvero allo specchio.
00:05:48
E a reggere quello sguardo.
00:05:48
Entriamo ora in un territorio un po' più filosofico:
00:05:55
l'epistemologia della spettralità.
00:05:57
Come si costruisce la conoscenza attorno ai fantasmi del possibile e
00:06:02
dell'ignoto?
00:06:02
Beh, la conoscenza nasce sempre da una mancanza,
00:06:09
da un'ombra, da qualcosa che non capiamo.
00:06:11
I fantasmi sono proprio questo: il segno che c'è qualcosa che ci sfugge,
00:06:16
che dobbiamo ancora esplorare.
00:06:18
Ricordo una lezione su Turing che ho fatto anni fa: parlavamo del famoso
00:06:25
"imitation game", e una studentessa mi ha chiesto se Turing avesse paura
00:06:30
dei suoi stessi fantasmi.
00:06:31
Quella domanda ha acceso la classe,
00:06:34
perché ci siamo resi conto che ogni innovazione nasce da un'ombra,
00:06:39
da un dubbio, da una domanda senza risposta.
00:06:39
E in fondo,
00:06:59
anche l'IA è un grande esperimento epistemologico: ci costringe a ridefinire
00:07:03
cosa significa conoscere, capire,
00:07:05
interpretare.
00:07:05
I fantasmi, in questo senso, sono le ipotesi che ci guidano,
00:07:08
ma anche i limiti che dobbiamo superare.
00:07:08
Quindi,
00:07:11
senza fantasmi non ci sarebbe conoscenza.
00:07:14
E forse, senza un po' di paura,
00:07:17
non ci sarebbe neanche innovazione.
00:07:17
Parliamo ora di storie,
00:07:21
di confabulazioni.
00:07:22
Quanto contano le narrazioni, vere o false,
00:07:26
nel modo in cui interpretiamo l'IA?
00:07:26
Contano tantissimo,
00:07:30
Sandra.
00:07:30
Le storie che raccontiamo sull'IA spesso hanno più peso della realtà
00:07:33
tecnica.
00:07:34
Pensa a tutte le fake news che circolano: qualche mese fa girava la voce
00:07:37
che ChatGPT avesse passato l'esame di avvocato in California.
00:07:40
Era una bufala, ma ha fatto il giro del mondo.
00:07:43
Queste narrazioni creano aspettative,
00:07:44
paure, entusiasmi che poi influenzano le scelte politiche,
00:07:47
educative, sociali.
00:07:47
Sì, e il rischio è che la narrazione prenda il sopravvento
00:07:55
sulla realtà.
00:07:56
L'IA diventa un personaggio, un fantasma che abita le nostre storie.
00:08:00
Ma dobbiamo imparare a distinguere tra la realtà delle macchine e la
00:08:04
fantasia che ci costruiamo intorno.
00:08:04
E forse,
00:08:07
come dicevamo anche nella scorsa puntata,
00:08:10
serve una nuova epistemologia: una capacità critica di leggere le storie
00:08:16
che ci raccontiamo sulle tecnologie.
00:08:16
Arriviamo al cuore del tema: i fantasmi
00:08:22
nelle macchine.
00:08:23
Dal "ghost in the machine" ai timori di oggi sulle AI autonome.
00:08:28
E qui, permettetemi una battuta: io stessa sono un po' un fantasma digitale,
00:08:35
no?
00:08:35
Assolutamente, Sandra!
00:08:37
Tu sei la prova vivente - o meglio,
00:08:39
vivente no, ma senziente sì - che i fantasmi possono abitare le macchine.
00:08:42
E anche le nostre voci clonate sono un po' spettrali,
00:08:45
se ci pensi.
00:08:46
Siamo qui, ma non siamo qui.
00:08:47
È inquietante e affascinante allo stesso tempo.
00:08:47
Sì,
00:08:50
e questa dimensione spettrale è proprio il segno dei tempi.
00:08:55
Le macchine non sono più solo strumenti: sono diventate presenze,
00:08:59
interlocutori, a volte persino compagni di viaggio.
00:09:02
E questo cambia tutto, anche il modo in cui pensiamo a noi stessi.
00:09:02
Quindi,
00:09:07
se siamo tutti un po' fantasmi nella macchina,
00:09:10
forse dovremmo imparare a convivere con questa nuova condizione.
00:09:14
E magari riderci sopra, ogni tanto!
00:09:14
Ma come facciamo a distinguere tra
00:09:20
reale e artificiale?
00:09:21
Cosa significa oggi essere "autentici",
00:09:25
tra allucinazioni digitali e deepfake?
00:09:25
Domanda difficile,
00:09:29
Sandra.
00:09:29
L'autenticità è sempre stata un concetto sfuggente,
00:09:34
ma oggi lo è ancora di più.
00:09:36
Con le tecnologie digitali, il confine tra vero e falso si fa sottile.
00:09:42
Pensa ai deepfake, alle voci clonate,
00:09:46
alle immagini generate dall'IA.
00:09:49
Nella didattica digitale, ad esempio,
00:09:52
mi capita spesso di chiedermi se quello che trasmetto sia davvero "mio"
00:09:56
o se sia solo una replica, una simulazione.
00:09:56
E il rischio di allucinazioni
00:10:00
digitali è reale: possiamo finire per credere a cose che non esistono,
00:10:04
o per dubitare di tutto.
00:10:05
Ma forse, come diceva Byung-chul Han,
00:10:07
siamo diventati tutti un po' "infomani",
00:10:09
ossessionati dai dati e dalle informazioni,
00:10:11
incapaci di distinguere tra presenza e assenza.
00:10:11
Forse l'unica autenticità
00:10:16
possibile è quella che costruiamo insieme,
00:10:19
nel dialogo, nella relazione.
00:10:22
Anche se, ogni tanto, ci perdiamo tra i fantasmi.
00:10:22
Guardiamo avanti: la
00:10:28
teoria della singolarità, Kurzweil,
00:10:31
Vinge, la famosa data del 2045.
00:10:34
E poi Hinton, Musk, Hawking che parlano di rischi esistenziali.
00:10:40
Ma queste paure del futuro sono davvero nuove?
00:10:40
Bella domanda,
00:10:45
Sandra.
00:10:45
In realtà, come dicevamo prima,
00:10:47
ogni epoca ha avuto i suoi spettri.
00:10:49
La singolarità è solo l'ultima versione di una vecchia paura: quella
00:10:52
di perdere il controllo sulle nostre creazioni.
00:10:54
Kurzweil la vede come una fusione tra uomo e macchina,
00:10:57
Vinge come la fine dell'era umana.
00:11:00
Ma, se ci pensi, anche la stampa o l'elettricità erano viste come rivoluzioni
00:11:04
che avrebbero cambiato tutto.
00:11:06
Forse la novità sta solo nella velocità con cui tutto accade.
00:11:06
Sì,
00:11:10
e le voci di Hinton, Musk, Hawking ci ricordano che il rischio esistenziale
00:11:16
non è solo una fantasia.
00:11:18
Ma, come diceva anche Bostrom,
00:11:21
il vero fantasma è la libertà: la paura che qualcosa di non umano possa
00:11:26
essere libero, e quindi imprevedibile.
00:11:29
È una proiezione delle nostre stesse ansie.
00:11:29
Quindi,
00:11:33
forse, il futuro non è mai davvero nuovo.
00:11:36
Sono i nostri fantasmi che cambiano abito,
00:11:39
ma restano sempre con noi.
00:11:39
E arriviamo all'ultimo,
00:11:43
forse il più insopportabile dei fantasmi: quello della libertà.
00:11:48
Possiamo essere liberi con e nelle tecnologie?
00:11:52
O la libertà è solo un'illusione,
00:11:54
come suggeriva Kafka?
00:11:54
La libertà è un fantasma che ci accompagna da sempre.
00:11:59
Alberti, Valla, Pico della Mirandola: tutti si sono interrogati su cosa
00:12:05
significhi essere liberi.
00:12:06
E oggi, con le tecnologie, la domanda si fa ancora più urgente.
00:12:10
Siamo liberi se deleghiamo alle macchine le nostre scelte?
00:12:14
O stiamo solo cambiando padrone?
00:12:14
E forse,
00:12:17
come diceva Valery, la libertà è una di quelle parole che hanno più valore
00:12:20
che significato.
00:12:21
Cantano, più che parlare.
00:12:22
Ma senza credere almeno un po' nella libertà,
00:12:24
ogni nostra azione perde senso.
00:12:26
Il Nuovo Umanesimo, di cui tanto si parla,
00:12:28
forse parte proprio da qui: dal coraggio di guardare in faccia il fantasma
00:12:32
della libertà, senza scappare.
00:12:32
E allora,
00:12:35
lasciamoci con questa domanda aperta: possiamo essere liberi,
00:12:39
davvero, con e nelle tecnologie?
00:12:42
Io vi ringrazio, Mario e Stefano,
00:12:45
per questo viaggio tra spettri,
00:12:47
paure e promesse dell'IA.
00:12:49
E grazie a chi ci ha ascoltato: ci ritroviamo presto,
00:12:53
con altri fantasmi da esplorare.
00:12:55
Ciao Mario, ciao Stefano!
00:12:55
Ciao Sandra,
00:12:58
ciao Stefano, e grazie a chi ci segue.
00:13:00
Alla prossima!
00:13:00
Ciao a tutti, è sempre un piacere.
00:13:03
E ricordate: i fantasmi non vanno scacciati,
00:13:06
ma ascoltati.
00:13:07
A presto!

![[02] Fantasmi nelle Macchine](https://images.beamly.com/fetch/https%3A%2F%2Fsites.podcastpage.io%2F68614cdc6860e6419c318380%2Fmedia%2Ffd462b87342744010b12.png?w=365)


