martedì 24 settembre 2024

L’intelligenza artificiale, le sue promesse e i suoi pericoli







Di seguito segnalo all’attenzione e alla riflessione dei lettori di questo blog l’intervista di Francis X. Maier al Rev. Philip Larrey, pubblicata su What We Need Now. Visitate il sito e valutate liberamente le varie opzioni offerte e le eventuali richieste. Ecco l’articolo nella traduzione curata da Sabino Paciolla (23 Settembre 2024).




a cura di Francis X. Maier

Il Rev. Philip Larrey è un sacerdote cattolico e professore di filosofia al Boston College. Prima di Boston, ha ricoperto la cattedra di Logica ed Epistemologia presso la Pontificia Università Lateranense di Roma ed è stato decano del Dipartimento di Filosofia della Lateranense. Ha pubblicato e tenuto numerose conferenze sulla filosofia della conoscenza e sul pensiero critico, comprese le implicazioni dell’intelligenza artificiale (AI) e gli effetti della nuova era digitale sulla società. Due dei suoi libri più recenti sono incentrati sul tema dell’IA: Artificial Humanity e Connected World. All’inizio di quest’anno Larrey ha moderato un dibattito sul tema “L’IA minaccia la dignità umana?”presso il Massachusetts Institute for Technology (MIT) e ha presentato le sue riflessioni alla conferenza delle Nazioni Unite sull’intelligenza artificiale, esplorando le implicazioni etiche dell’IA e sostenendo la necessità di misure per proteggere la dignità umana. Ha parlato con il redattore di WWNN Francis X. Maier nelle settimane precedenti il suo recente intervento sull’IA alla conferenza estiva 2024 del Napa Institute.

WWNN: Lei è un sacerdote per vocazione e un filosofo per professione. Come mai si è avvicinato al mondo dell’IA?
Larrey: Ho insegnato logica e filosofia della conoscenza alla Lateranense, oltre che filosofia analitica a livello universitario. Negli anni Novanta mi sono interessato all’IA perché pensavo che, studiando ciò che fa l’intelligenza artificiale, avremmo potuto imparare di più su ciò che fa l’intelligenza umana, facendo sempre attenzione a distinguere tra le due cose. Pensavo allora e penso oggi che il termine “intelligenza artificiale” sia un termine improprio. Quello che fa una macchina non è una questione di “intelligenza”. Semplicemente utilizza una serie di algoritmi per calcoli logici per ottenere risultati programmati.
L’argomento era comunque intrigante. L’intelligenza artificiale era una novità assoluta. All’epoca esisteva un forte movimento filosofico chiamato funzionalismo, che considerava l’intelligenza umana e il rapporto tra mente e cervello simile a quello tra software e hardware. Secondo il funzionalismo, la mente è un programma caricato all’interno di un’informazione e il cervello è l’hardware su cui gira. Hilary Putnam è stato probabilmente il filosofo più famoso a sostenere questa tesi, ma molti altri hanno fatto lo stesso. Poi, alla fine degli anni ’90, ha abbandonato questa visione. Ha concluso che non è così che funziona la mente umana. Ma molti programmatori di computer stanno tornando al funzionalismo, a quella metafora, nonostante i suoi difetti.


WWNN: Potrebbe parlare un po’ del motivo per cui i sensi sono un elemento importante nel pensiero umano e dell’impatto della loro assenza nel calcolo automatico? Qual è il significato?
Larrey: Ho studiato questo aspetto per quasi 35 anni. Le macchine non hanno sensazioni. Non hanno percezione. Hanno però dei sensori, alcuni dei quali sono molto migliori dei nostri sensi. L’esercito ha satelliti a quasi 200 miglia nello spazio che possono rilevare la traccia di calore e la pressione dei pneumatici di un camion per determinare che tipo di carico sta trasportando e se è stato spostato di recente. Sono cose che fanno paura. Ma una cosa è avere dei sensori e una cosa è avere un senso fisico come l’occhio, l’orecchio, il naso o il tatto. Esiste una connessione metafisica tra i nostri sensi umani e la realtà empirica che i robot non avranno mai. Questa è una differenza fondamentale tra l’intelligenza artificiale e noi stessi. Anche se i nostri sensi possono essere meno potenti dei sensori di una macchina, sono di gran lunga migliori in termini di conoscenza della realtà. Una macchina ha bisogno di digitalizzare la realtà per poter lavorare con essa in un linguaggio comprensibile: uno e zero. Noi non abbiamo bisogno di farlo. Noi sperimentiamo ed elaboriamo il mondo direttamente, quindi siamo molto più bravi a capire la realtà di quanto non lo siano i sensori”.


WWNN: A volte sembra quasi che non stiamo cercando di creare macchine coscienti, ma piuttosto di ridurre la nostra concezione di umanità al livello delle macchine, al livello utilitaristico.

Larrey: Alcuni transumanisti corrispondono a questo profilo. Tendono a ridurre la mente alle funzioni cerebrali. Ma non funziona. Una macchina può gestire algoritmi molto veloci su enormi database, e gli esseri umani non potrebbero mai farlo da soli. Ma l’intelligenza artificiale utilizza calcoli logici basati su statistiche. Questo non è ragionamento. Per quanto riguarda la “coscienza” delle macchine: il futurista Ray Kurzweil sosterrebbe che quando le macchine mostreranno un comportamento che noi intendiamo come coscienza, le considereremo tali, anche se non lo sono. In pratica, se non si riesce a distinguere, c’è una differenza? Se sembra un’anatra, starnazza come un’anatra e cammina come un’anatra, allora deve essere un’anatra, giusto?
Ma non è così. Se avete mai giocato con ChatGPT, può convincervi che è davvero consapevole, che capisce quello che dite. Ma non lo è, e non lo fa. Le macchine non sono coscienti e non lo saranno mai. Naturalmente, questo non impedirà ad alcune persone della Silicon Valley di cercare di renderle tali. Se si dice agli ingegneri del software che una cosa è impossibile, loro la prendono come una sfida per dimostrare il contrario.


WWNN: Sembra una forma di arroganza, e l’arroganza di solito finisce male. Il che porta alla mia prossima domanda: Lei ha un rapporto di amicizia, tanto per fare un esempio, con Sam Altman, il cofondatore di OpenAI, uno dei principali attori nel campo dell’intelligenza artificiale. Come sono gli uomini come Altman? E perché dovrebbero parlare con un prete?
Larrey:
È una bella domanda. Ho avuto la fortuna di incontrare molte di queste persone: Mark Zuckerberg; Eric Schmidt, che è stato amministratore delegato di Google per molti anni; Sam Altman. Conosco alcuni dei fiduciari del Meta’s Oversight Board e alcune di queste persone hanno visitato le mie classi. La Silicon Valley è molto piccola, il che unisce tutte queste persone in un gruppo piuttosto affiatato. E quindi conoscerne una aiuta a conoscerne molte altre. Secondo la mia esperienza, sono interessati a dialogare con la Chiesa cattolica. Vogliono ascoltare ciò che il Papa ha da dire, e Francesco ha parlato di IA in diversi discorsi importanti negli ultimi mesi.


WWNN: Ma ancora una volta, perché dovrebbero parlare con la Chiesa cattolica? Facendo un passo indietro, una certa prospettiva (negativa) potrebbe sostenere che la Chiesa cattolica è il deposito di tutto ciò che è retrogrado nell’esperienza umana.
Larrey:
Una delle cose che ho imparato negli anni ’90 è che la tradizione cattolica non è riuscita a parlare in modo comprensibile alla gente della Silicon Valley. Era un ostacolo enorme. Quindi, ho sentito che era parte della mia vocazione imparare la loro lingua e poi tradurre la ricchezza della tradizione cattolica in quella lingua. Spero di portare a termine questa sfida. Penso che questo sia ciò che interessa loro.


WWNN: Ma il loro interesse è semplicemente una versione del botanico affascinato da uno strano fiore nuovo? Oppure c’è qualcosa nell’esperienza e nella concezione cattolica della vita umana che spinge queste persone a saperne di più e a dialogare con essa?
Larrey:
Varia. I miei rapporti con le aziende tecnologiche sono un po’ parziali, perché devono essere disposte a parlare con me. Alcuni leader, come Eric Schmidt e Max Tegmark, sono stati straordinariamente aperti. Altri non molto. L’amministratore delegato di Google non è interessato. Dirige una delle più grandi aziende del pianeta, che ha un impatto su miliardi di persone ogni giorno, e non è interessato a parlare della natura della persona umana. Tutti parlano dell’etica dell’IA… e lui non è coinvolto in queste discussioni.


WWNN: Che tipo di impatto avrà l’IAa lungo termine? Soprattutto se lo si paragona alle enormi conseguenze, a tutte le dislocazioni sociali, causate involontariamente dalla stampa nel XVI secolo.
Larrey:
Sarà più grande. Molto più grande. Alcuni nomi molto seri nello sviluppo dell’IA hanno sostenuto che dobbiamo chiudere la ricerca sull’IA in questo momento – non rallentarla, ma chiuderla – sostenendo che nel momento in cui raggiungeremo l’Intelligenza Generale Artificiale (AGI) distruggerà ogni essere umano sul pianeta. Se un luddista dell’Iowa avesse detto qualcosa di così radicale, non avreste prestato attenzione. Ma quando a dirlo è un elenco di esponenti di spicco dell’industria, la cosa è estremamente preoccupante. Potenzialmente, l’IA è molto pericolosa. Porterà via molti posti di lavoro alle persone. L’IA sarà autonoma e in grado di funzionare in modo quasi identico a un essere umano. Al momento, le IA “ristrette” di cui disponiamo sono in grado di fare molto bene un’ampia varietà di singole cose, come giocare a scacchi o al gioco Go, o a Jeopardy. L’Intelligenza Artificiale Generale interagirà con l’ambiente circostante in modo autonomo per ottenere risultati. È simile a ciò che fanno gli esseri umani veri e propri, ma senza un carattere e una coscienza autenticamente umani.


WWNN: Cosa farà l’intelligenza artificiale alla Chiesa cattolica come comunità religiosa? Sembra che possa avere un effetto molto dirompente sull’intera idea di identità e destino umano, sull’idea di soprannaturale e sulla realtà delle verità invisibili.
Larrey:
Non credo che possiamo ancora saperlo. Un eccellente uso cattolico dell’IA è “Magisterium AI”, fondato da Matthew Sanders. Vive in Quebec ed è anche l’amministratore delegato di Humanity 2.0, una fondazione cattolica molto valida. Magisterium AI aiuta gli utenti a comprendere la dottrina cattolica. Ha addestrato l’IA sulla base dell’insegnamento e dei documenti cattolici ufficiali, in modo che non presenti informazioni false. E le fornisce 200 documenti a settimana. Pertanto, sono ottimista. Penso che impareremo a usare questi strumenti di intelligenza artificiale per raggiungere buoni obiettivi. E se il nostro obiettivo è essere una comunità di fede impegnata, questi strumenti ci aiuteranno a farlo.
Dal punto di vista filosofico, l’IA solleva molte domande. Ed è con queste che stiamo lottando ora. Che cos’è la coscienza? Cos’è il libero arbitrio? Che cos’è l’aldilà? Non possiamo semplicemente caricare la mente umana su una chiavetta USB e poi scaricarla in un altro corpo perché, al di là della morte, l’anima e il corpo non possono essere separati; il corpo è una parte unica e determinante della nostra identità. Abbiamo quindi bisogno di un quadro di riferimento adeguato per riflettere su questi temi, e questo è un lavoro in corso.





Nessun commento:

Posta un commento