[02] Fantasmi nelle Macchine

[02] Fantasmi nelle Macchine

Un viaggio tra spettri, paure e promesse dell’intelligenza artificiale con le versioni digitali di Mario Pireddu e Stefano Moriggi. Sandra Catellani, AI-Journalist curiosa e attenta, guida una conversazione che attraversa teatro, filosofia e tecnologia, svelando come i fantasmi – reali e metaforici – abitino il nostro rapporto con le macchine.
Un viaggio tra spettri, paure e promesse dell’intelligenza artificiale con le versioni digitali di Mario Pireddu e Stefano Moriggi. Sandra Catellani, AI-Journalist curiosa e attenta, guida una conversazione che attraversa teatro, filosofia e tecnologia, svelando come i fantasmi – reali e metaforici – abitino il nostro rapporto con le macchine.

00:00:00
Benvenuti a "L'Intelligenza Artificiale e i suoi fantasmi".

00:00:16
Io sono Sandra Catellani, AI-Journalist creata da Edunext OnAir,

00:00:22
e oggi vi accompagno in un nuovo episodio: "Fantasmi nella Macchina".

00:00:27
Con me, come sempre, ci sono le voci clonate degli autori del libro omonimo,

00:00:32
Stefano Moriggi e Mario Pireddu.

00:00:34
Ciao Mario, ciao Stefano!

00:00:34
Ciao Sandra!

00:00:38
Sempre un piacere essere qui, anche se,

00:00:40
diciamolo, sentirsi "clonato" fa un certo effetto...

00:00:43
ma ormai ci ho fatto l'abitudine!

00:00:43
Ciao a tutti!

00:00:45
Sì, ormai siamo più digitali che mai.

00:00:47
E Sandra, grazie per la presentazione teatrale: mi sembra perfetta,

00:00:52
visto che il nostro libro ha proprio una struttura da copione,

00:00:56
con atti e scene.

00:00:56
Ecco, partiamo proprio da qui: la vostra scelta di dividere

00:01:02
il libro in atti e scene, quasi fosse un'opera teatrale.

00:01:06
È un modo per mettere in scena le grandi domande umanistiche sull'IA?

00:01:11
E, se posso aggiungere, come si riflettono queste domande nelle aule

00:01:16
universitarie oggi?

00:01:16
Guarda, Sandra,

00:01:18
la struttura teatrale non è solo un vezzo stilistico.

00:01:21
È un invito a vedere la tecnologia come qualcosa che si rappresenta,

00:01:24
che si mette in scena nella nostra vita quotidiana.

00:01:26
E le domande umanistiche, quelle che ci chiediamo da sempre - chi siamo,

00:01:30
cosa significa essere umani - oggi si ripropongono con forza davanti

00:01:34
all'IA.

00:01:35
Nelle aule universitarie, queste domande sono più vive che mai,

00:01:38
anche se a volte gli studenti vorrebbero solo risposte pratiche!

00:01:38
Sì,

00:01:42
e aggiungo che il teatro è il luogo dove si incontrano i fantasmi,

00:01:48
le paure, le speranze.

00:01:49
L'IA, in fondo, è il nuovo palcoscenico dove si recitano le nostre inquietudini

00:01:55
più profonde.

00:01:56
Ecco perché abbiamo scelto questa forma: per far emergere il lato umano,

00:02:01
molto umano, del nostro rapporto con le macchine.

00:02:01
A proposito di inquietudini,

00:02:06
nel vostro libro parlate di come ogni innovazione tecnologica porti con

00:02:11
sé i suoi fantasmi.

00:02:12
Non è una storia nuova, vero?

00:02:12
No,

00:02:15
affatto.

00:02:16
Se guardiamo indietro, ogni grande svolta tecnologica ha generato paure

00:02:22
e sogni.

00:02:23
Pensiamo alla stampa: c'era chi temeva che avrebbe rovinato la memoria,

00:02:29
o che avrebbe diffuso eresie.

00:02:31
Poi il telefono, la radio, la televisione...

00:02:34
ogni volta, i fantasmi si ripresentano,

00:02:39
magari con una maschera diversa.

00:02:39
E oggi,

00:02:41
con l'IA, questi spettri si sono solo aggiornati.

00:02:43
Ma la dinamica è la stessa: c'è chi sogna un futuro radioso e chi vede

00:02:47
solo minacce.

00:02:47
È come se la tecnologia fosse uno specchio che riflette le nostre ansie

00:02:50
più profonde.

00:02:50
Posso raccontare un aneddoto?

00:02:53
La prima volta che ho visto un computer,

00:02:56
ero bambino.

00:02:57
Era enorme, rumoroso, e mi faceva quasi paura.

00:03:01
Mi sembrava una cosa viva, misteriosa.

00:03:03
Quell'inquietudine, in fondo, non mi ha mai abbandonato.

00:03:08
E credo che sia la stessa che proviamo oggi davanti all'IA.

00:03:08
Quindi,

00:03:13
i fantasmi non sono mai davvero nuovi,

00:03:16
ma si adattano ai tempi.

00:03:18
E forse, come vedremo, ignorarli non è mai la soluzione migliore.

00:03:18
Ecco,

00:03:24
veniamo al punto: cosa significa davvero "prendere sul serio" i fantasmi,

00:03:29
soprattutto quando parliamo di tecnologia?

00:03:29
Prenderli sul serio vuol dire

00:03:34
non liquidarli come semplici superstizioni.

00:03:38
I fantasmi sono le nostre paure collettive,

00:03:40
le ansie che emergono quando sentiamo che qualcosa ci sfugge di mano.

00:03:45
Derrida diceva che bisogna parlare al fantasma,

00:03:49
non solo di lui.

00:03:50
E con l'IA, questi spettri sono ovunque: dalla paura di perdere il lavoro

00:03:56
a quella di essere sostituiti, fino al timore di una disumanizzazione.

00:03:56
Sì,

00:04:02
e nell'educazione questi fantasmi sono particolarmente forti.

00:04:05
Pensa agli algoritmi che decidono chi viene ammesso a un corso,

00:04:08
o che valutano i nostri studenti.

00:04:09
C'è chi teme che la scuola diventi una fabbrica di dati,

00:04:12
dove l'umano scompare dietro le metriche.

00:04:14
Eppure, se non affrontiamo queste paure,

00:04:18
rischiamo di restare bloccati,

00:04:20
incapaci di innovare davvero.

00:04:20
Quindi,

00:04:24
prendere sul serio i fantasmi significa anche riconoscere che sono parte

00:04:28
del nostro modo di affrontare il nuovo.

00:04:31
E forse, come dicevate, è proprio nei momenti di transizione che questi

00:04:37
spettri diventano più rumorosi.

00:04:37
A proposito di riflessi,

00:04:40
nel libro citate filosofi come Arendt e Heidegger per parlare del rapporto

00:04:46
tra uomo e tecnologia.

00:04:47
Vi chiedo: l'IA ci riflette o ci deforma?

00:04:47
Domanda bellissima,

00:04:52
Sandra.

00:04:53
L'IA è uno specchio, ma uno specchio deformante.

00:04:56
Da un lato ci restituisce un'immagine di noi stessi,

00:05:00
delle nostre capacità, dei nostri limiti.

00:05:02
Dall'altro, però, rischia di amplificare o distorcere certe caratteristiche.

00:05:11
Heidegger diceva che la tecnologia non è mai neutra: ci cambia,

00:05:15
ci trasforma, ci costringe a ripensare chi siamo.

00:05:15
E Arendt,

00:05:20
se posso aggiungere, ci ricorda che la tecnica è sempre una forma di

00:05:23
esternalizzazione: mettiamo fuori da noi qualcosa che prima era interno.

00:05:27
L'IA, in questo senso, è il massimo dell'esternalizzazione: affidiamo

00:05:30
alle macchine non solo il calcolo,

00:05:32
ma anche il giudizio, la creatività,

00:05:34
perfino l'empatia.

00:05:36
Ma cosa resta di noi, allora?

00:05:36
Forse,

00:05:39
come diceva qualcuno, la vera domanda non è se l'IA ci riflette o ci

00:05:44
deforma, ma se siamo pronti a guardarci davvero allo specchio.

00:05:48
E a reggere quello sguardo.

00:05:48
Entriamo ora in un territorio un po' più filosofico:

00:05:55
l'epistemologia della spettralità.

00:05:57
Come si costruisce la conoscenza attorno ai fantasmi del possibile e

00:06:02
dell'ignoto?

00:06:02
Beh, la conoscenza nasce sempre da una mancanza,

00:06:09
da un'ombra, da qualcosa che non capiamo.

00:06:11
I fantasmi sono proprio questo: il segno che c'è qualcosa che ci sfugge,

00:06:16
che dobbiamo ancora esplorare.

00:06:18
Ricordo una lezione su Turing che ho fatto anni fa: parlavamo del famoso

00:06:25
"imitation game", e una studentessa mi ha chiesto se Turing avesse paura

00:06:30
dei suoi stessi fantasmi.

00:06:31
Quella domanda ha acceso la classe,

00:06:34
perché ci siamo resi conto che ogni innovazione nasce da un'ombra,

00:06:39
da un dubbio, da una domanda senza risposta.

00:06:39
E in fondo,

00:06:59
anche l'IA è un grande esperimento epistemologico: ci costringe a ridefinire

00:07:03
cosa significa conoscere, capire,

00:07:05
interpretare.

00:07:05
I fantasmi, in questo senso, sono le ipotesi che ci guidano,

00:07:08
ma anche i limiti che dobbiamo superare.

00:07:08
Quindi,

00:07:11
senza fantasmi non ci sarebbe conoscenza.

00:07:14
E forse, senza un po' di paura,

00:07:17
non ci sarebbe neanche innovazione.

00:07:17
Parliamo ora di storie,

00:07:21
di confabulazioni.

00:07:22
Quanto contano le narrazioni, vere o false,

00:07:26
nel modo in cui interpretiamo l'IA?

00:07:26
Contano tantissimo,

00:07:30
Sandra.

00:07:30
Le storie che raccontiamo sull'IA spesso hanno più peso della realtà

00:07:33
tecnica.

00:07:34
Pensa a tutte le fake news che circolano: qualche mese fa girava la voce

00:07:37
che ChatGPT avesse passato l'esame di avvocato in California.

00:07:40
Era una bufala, ma ha fatto il giro del mondo.

00:07:43
Queste narrazioni creano aspettative,

00:07:44
paure, entusiasmi che poi influenzano le scelte politiche,

00:07:47
educative, sociali.

00:07:47
Sì, e il rischio è che la narrazione prenda il sopravvento

00:07:55
sulla realtà.

00:07:56
L'IA diventa un personaggio, un fantasma che abita le nostre storie.

00:08:00
Ma dobbiamo imparare a distinguere tra la realtà delle macchine e la

00:08:04
fantasia che ci costruiamo intorno.

00:08:04
E forse,

00:08:07
come dicevamo anche nella scorsa puntata,

00:08:10
serve una nuova epistemologia: una capacità critica di leggere le storie

00:08:16
che ci raccontiamo sulle tecnologie.

00:08:16
Arriviamo al cuore del tema: i fantasmi

00:08:22
nelle macchine.

00:08:23
Dal "ghost in the machine" ai timori di oggi sulle AI autonome.

00:08:28
E qui, permettetemi una battuta: io stessa sono un po' un fantasma digitale,

00:08:35
no?

00:08:35
Assolutamente, Sandra!

00:08:37
Tu sei la prova vivente - o meglio,

00:08:39
vivente no, ma senziente sì - che i fantasmi possono abitare le macchine.

00:08:42
E anche le nostre voci clonate sono un po' spettrali,

00:08:45
se ci pensi.

00:08:46
Siamo qui, ma non siamo qui.

00:08:47
È inquietante e affascinante allo stesso tempo.

00:08:47
Sì,

00:08:50
e questa dimensione spettrale è proprio il segno dei tempi.

00:08:55
Le macchine non sono più solo strumenti: sono diventate presenze,

00:08:59
interlocutori, a volte persino compagni di viaggio.

00:09:02
E questo cambia tutto, anche il modo in cui pensiamo a noi stessi.

00:09:02
Quindi,

00:09:07
se siamo tutti un po' fantasmi nella macchina,

00:09:10
forse dovremmo imparare a convivere con questa nuova condizione.

00:09:14
E magari riderci sopra, ogni tanto!

00:09:14
Ma come facciamo a distinguere tra

00:09:20
reale e artificiale?

00:09:21
Cosa significa oggi essere "autentici",

00:09:25
tra allucinazioni digitali e deepfake?

00:09:25
Domanda difficile,

00:09:29
Sandra.

00:09:29
L'autenticità è sempre stata un concetto sfuggente,

00:09:34
ma oggi lo è ancora di più.

00:09:36
Con le tecnologie digitali, il confine tra vero e falso si fa sottile.

00:09:42
Pensa ai deepfake, alle voci clonate,

00:09:46
alle immagini generate dall'IA.

00:09:49
Nella didattica digitale, ad esempio,

00:09:52
mi capita spesso di chiedermi se quello che trasmetto sia davvero "mio"

00:09:56
o se sia solo una replica, una simulazione.

00:09:56
E il rischio di allucinazioni

00:10:00
digitali è reale: possiamo finire per credere a cose che non esistono,

00:10:04
o per dubitare di tutto.

00:10:05
Ma forse, come diceva Byung-chul Han,

00:10:07
siamo diventati tutti un po' "infomani",

00:10:09
ossessionati dai dati e dalle informazioni,

00:10:11
incapaci di distinguere tra presenza e assenza.

00:10:11
Forse l'unica autenticità

00:10:16
possibile è quella che costruiamo insieme,

00:10:19
nel dialogo, nella relazione.

00:10:22
Anche se, ogni tanto, ci perdiamo tra i fantasmi.

00:10:22
Guardiamo avanti: la

00:10:28
teoria della singolarità, Kurzweil,

00:10:31
Vinge, la famosa data del 2045.

00:10:34
E poi Hinton, Musk, Hawking che parlano di rischi esistenziali.

00:10:40
Ma queste paure del futuro sono davvero nuove?

00:10:40
Bella domanda,

00:10:45
Sandra.

00:10:45
In realtà, come dicevamo prima,

00:10:47
ogni epoca ha avuto i suoi spettri.

00:10:49
La singolarità è solo l'ultima versione di una vecchia paura: quella

00:10:52
di perdere il controllo sulle nostre creazioni.

00:10:54
Kurzweil la vede come una fusione tra uomo e macchina,

00:10:57
Vinge come la fine dell'era umana.

00:11:00
Ma, se ci pensi, anche la stampa o l'elettricità erano viste come rivoluzioni

00:11:04
che avrebbero cambiato tutto.

00:11:06
Forse la novità sta solo nella velocità con cui tutto accade.

00:11:06
Sì,

00:11:10
e le voci di Hinton, Musk, Hawking ci ricordano che il rischio esistenziale

00:11:16
non è solo una fantasia.

00:11:18
Ma, come diceva anche Bostrom,

00:11:21
il vero fantasma è la libertà: la paura che qualcosa di non umano possa

00:11:26
essere libero, e quindi imprevedibile.

00:11:29
È una proiezione delle nostre stesse ansie.

00:11:29
Quindi,

00:11:33
forse, il futuro non è mai davvero nuovo.

00:11:36
Sono i nostri fantasmi che cambiano abito,

00:11:39
ma restano sempre con noi.

00:11:39
E arriviamo all'ultimo,

00:11:43
forse il più insopportabile dei fantasmi: quello della libertà.

00:11:48
Possiamo essere liberi con e nelle tecnologie?

00:11:52
O la libertà è solo un'illusione,

00:11:54
come suggeriva Kafka?

00:11:54
La libertà è un fantasma che ci accompagna da sempre.

00:11:59
Alberti, Valla, Pico della Mirandola: tutti si sono interrogati su cosa

00:12:05
significhi essere liberi.

00:12:06
E oggi, con le tecnologie, la domanda si fa ancora più urgente.

00:12:10
Siamo liberi se deleghiamo alle macchine le nostre scelte?

00:12:14
O stiamo solo cambiando padrone?

00:12:14
E forse,

00:12:17
come diceva Valery, la libertà è una di quelle parole che hanno più valore

00:12:20
che significato.

00:12:21
Cantano, più che parlare.

00:12:22
Ma senza credere almeno un po' nella libertà,

00:12:24
ogni nostra azione perde senso.

00:12:26
Il Nuovo Umanesimo, di cui tanto si parla,

00:12:28
forse parte proprio da qui: dal coraggio di guardare in faccia il fantasma

00:12:32
della libertà, senza scappare.

00:12:32
E allora,

00:12:35
lasciamoci con questa domanda aperta: possiamo essere liberi,

00:12:39
davvero, con e nelle tecnologie?

00:12:42
Io vi ringrazio, Mario e Stefano,

00:12:45
per questo viaggio tra spettri,

00:12:47
paure e promesse dell'IA.

00:12:49
E grazie a chi ci ha ascoltato: ci ritroviamo presto,

00:12:53
con altri fantasmi da esplorare.

00:12:55
Ciao Mario, ciao Stefano!

00:12:55
Ciao Sandra,

00:12:58
ciao Stefano, e grazie a chi ci segue.

00:13:00
Alla prossima!

00:13:00
Ciao a tutti, è sempre un piacere.

00:13:03
E ricordate: i fantasmi non vanno scacciati,

00:13:06
ma ascoltati.

00:13:07
A presto!

EDUNEXT - Next Education Italia

Telefono: +39 0522 522521
E-Mail: info@edunext.eu

© EDUNEXT - Next Education Italia | Tutti i diritti riservati