Dialogo dell’Anima del Mondo con l’intelligenza artificiale
Foto Storyblocks
Presentiamo l’ottavo episodio dei dialoghi distopici del nostro amico Mario Carmelo Cirillo, già direttore del Dipartimento per la Valutazione, i controlli e la sostenibilità ambientale dell’ISPRA, che trattano alcune questioni a noi molto a cuore come l’ambiente, il cambiamento climatico e la sostenibilità. L’ottavo episodio affronta una questione di grande attualità e cioè l’impatto che l’Intelligenza Artificiale avrà sulle nostre vite e nei rapporti nord sud.
Il primo episodio è apparso il 23 Agosto 2022 qui: Dialogo dell’Anima del Mondo con un pensionato – FOCSIV; il secondo episodio il 27 Settembre 2022 qui: Dialogo dell’Anima del Mondo con un perplesso – FOCSIV; il terzo episodio il 25 ottobre 2022 in Dialogo dell’Anima del Mondo con un’addetta ai lavori – FOCSIV; il quarto episodio il 29 novembre 2022 in Dialogo dell’Anima del Mondo con una mamma – FOCSIV; il quinto episodio il 9 gennaio 2023 in Dialogo dell’Anima del Mondo con un tecnofilo – FOCSIV; il sesto episodio l’otto marzo in Dialogo dell’Anima del Mondo con un pessimista – FOCSIV; il settimo episodio sulDialogo tra l’Anima del Mondo, una Migrante e un Passante – FOCSIV, il 27 Marzo 2023.
Un parco cittadino, una fanciulla alle soglie dell’adolescenza è seduta su una panchina ombreggiata da un platano monumentale, di fronte a un laghetto artificiale; grandi occhi verdi, pelle ambrata e capelli scuri coperti da un foulard ocra che le scende sulle spalle, contempla i cigni che nuotano pigramente, il verde rigoglioso e i fiori variopinti che attorniano lo specchio d’acqua.
Un uomo e una donna, ambedue giovani, si avvicinano discutendo animatamente e si siedono sulla panchina vicina a quella della fanciulla.
Carmela: È inutile che insisti Mario, questa decisione del Garante della Privacy di bloccare ChatGpt è una cosa di una stupidità enorme, oltre che dannosa! Poi tu lo sai benissimo, noi giornalisti la utilizziamo, e tanti altri lo fanno nelle loro attività. Pensa che nel mio giornale ultimamente abbiamo fatto scrivere a ChatGpt interi articoli brevi; ovviamente poi gli davamo una letta e mettevamo a posto qualche verbo o qualche altra cosa, ma ti assicuro che i risultati sono più che soddisfacenti[1]. Certo va usata cum grano salis, come ogni cosa del resto, ma veramente non capisco tutto questo danno, quando poi i social che utilizziamo chissà quante informazioni raccolgono su di noi, e neanche ne siamo consapevoli! L’ho detto e lo ripeto, questa decisione di bloccare ChatGpt non ha né capo né coda, e poi così l’Italia si unisce a un club molto discutibile nello stop al servizio: Cina, Iran, Corea del Nord, Russia, Venezuela e Bielorussia[2]. Ma ti rendi conto che figura ci facciamo?
Mario: Forse quella del Garante è una cautela eccessiva, ma – e tu lo sai – io ci lavoro su queste cose e ti assicuro: l’Intelligenza Artificiale può nascondere pericoli molto seri. Anch’io ho firmato la lettera aperta che invoca uno stop di sei mesi al training di tutti i sistemi di IA più potenti di GPT-4[3], giusto il tempo per implementare dei protocolli condivisi in modo da consentire ai decisori di disporre di sistemi di governance di robustezza adeguata. Bisogna far fronte ai rischi di una Intelligenza Artificiale che sta diventando sempre più competitiva con gli umani; e non solo su compiti o su materie specifiche, ma su compiti di valenza generale: menti non umane che sono in gara con noi e potrebbero renderci obsoleti, addirittura sostituirci[4].
Carmela: Ma dai, sei troppo pessimista! Ti fissi su rischi e pericoli che hanno una probabilità praticamente nulla di verificarsi, e sì che sarebbe tuo interesse che questi sistemi di IA si sviluppino e si diffondano, visto che ci lavori!
Mario: Guarda che io credo fermamente che l’Intelligenza Artificiale sarà preziosa per l’umanità e le garantirà un futuro radioso, ma dobbiamo essere preparati a convivere con questa magnifica stagione in cui la IA dispiegherà tutte le sue potenzialità. Dobbiamo godere di tutti i frutti che l’Intelligenza Artificiale ci darà, e non precipitare in un baratro perché non riusciamo a controllarla![5]
E comunque, a proposito del tuo cruccio di non poter usare ChatGpt, se vuoi ti posso mettere nelle condizioni di utilizzarla aggirando la proibizione del Garante; alla fine basta una VPN, Virtual Private Network, per simulare di essere fuori dall’Italia e continuare a utilizzarla.[6]
Fanciulla (continuando a contemplare il laghetto): La lettera è un grosso pasticcio.[7]
Mario e Carmela si guardano stupiti.
Mario (rivolto alla fanciulla): Come scusa? Parli con noi?
Fanciulla (questa volta girandosi verso Mario e Carmela, con un tono più forte): Ho detto che la lettera che ha sottoscritto anche lui (indica Mario) è un grosso pasticcio.
Mario (piccato): Ma come fai a dire questo, ragazzina? Lo sai che la lettera è stata firmata da personalità come Elon Musk, proprietario di Twitter, Steve Wozniak, co-fondatore di Apple, Jaan Tallinn, che ha partecipato allo sviluppo di Skype, Evan Sharp, co-fondatore di Pinterest,[8] oltre a migliaia di specialisti di IA? E tutte queste personalità sottoscrivono i timori per i rischi di una tecnologia che – lo dicevo prima – sta diventando sempre più competitiva con gli umani e può renderci obsoleti, puntando a sostituirsi in tutto a noi!
Fanciulla: Tutte fandonie, non è possibile.
Mario (aggressivo): Ma cosa ne sai tu di queste cose? Hai mai sentito parlare di superintelligenza, di macchine che in un prossimo futuro potrebbero surclassare, e in misura immensa, le nostre capacità intellettive? E che queste superintelligenze potrebbero letteralmente scapparci di mano, con un rischio esistenziale per l’umanità tutta se non per il mondo intero?[9]
Carmela (con tono più accomodante): Beh, anch’io credo che qualche rischio ci sia mia cara … non ti sembra di esagerare con l’affermazione che sono tutte sciocchezze? Mario è uno specialista in IA, e se ha firmato la lettera aperta ci sono sicuramente dei rischi da cui dobbiamo guardarci.
Fanciulla: La disgiunzione di Gödel suggerisce che non è possibile che macchine costruite dagli umani li superino con l’intelligenza artificiale generale[10], ovvero con la capacità di apprendere e capire un qualsiasi compito intellettuale che può imparare un essere umano.
Carmela e Mario strabuzzano gli occhi. Attimi di silenzio, poi Carmela si rivolge alla fanciulla:
Carmela: Come? E chi è Gödel?
Fanciulla (rivolgendosi a Mario, con un sorrisetto che fa trapelare una punta di ironia): Spiegagliela tu la faccenda, visto che sei uno specialista di Intelligenza Artificiale.
Mario (in evidente imbarazzo): Beh … Gödel … certo … quello dei teoremi sull’incompletezza della matematica …
con tono più assertivo, rivolto alla fanciulla:
Non pretenderai mica che vi faccia un corso di logica superiore e dimostri i teoremi di Gödel qui, su due piedi …
Fanciulla: Intanto Gödel parla di ”inesauribilità” dell’aritmetica, e quindi della matematica tutta. Detto in parole povere, il primo teorema asserisce che, qualunque sia il sistema ben costruito per derivare le proposizioni dell’aritmetica (ossia i suoi teoremi), esistono sempre proposizioni (ovvero teoremi) di cui non si può decidere se sono veri o falsi: non sono “decidibili”. Questo significa che nessun sistema riesce a generare tutta l’aritmetica: ecco perché Gödel parla di inesauribilità dell’aritmetica.
Carmela: E il secondo teorema?
Fanciulla: Il secondo teorema afferma che ogni sistema ben costruito per generare i teoremi dell’aritmetica, non può dimostrare la propria consistenza, cioè non può dimostrare che non cada in qualche contraddizione.[11] Detto questo, per esporre la disgiunzione di Gödel in maniera elementare non c’è nessun bisogno di dimostrare i teoremi di Gödel; basta precisare che è una conseguenza dei due teoremi, in particolare del secondo.
Mario e Carmela sono ammutoliti, la fanciulla prosegue:
Kurt Gödel nel 1951, in una conferenza alla American Mathematical Society, affermò in buona sostanza che, come conseguenza del suo secondo teorema, ci sono due possibilità:
o l’abilità matematica prodotta dagli umani, e quindi la mente umana, non è meccanizzabile, ossia non esistono macchine che la possono riprodurre;
oppure, se la mente umana è riconducibile a una macchina, esistono problemi matematici assolutamente insolubili per tale macchina, e quindi per la mente umana; in particolare la mente umana non può dimostrare la propria consistenza, cioè non si può escludere con assoluta certezza che essa consideri vera sia una qualche proposizione che la sua negazione.
Carmela: In pratica la mente umana, se è meccanizzabile … che brutto termine! Ma visto che l’hai utilizzato tu … allora dicevo, se la mente umana è meccanizzabile allora può cadere in contraddizione.
Fanciulla: Esatto. Le due possibilità appena dette costituiscono la “disgiunzione di Gödel”.[12]
Carmela: Ma … voglio dire … non ci può essere anche una terza possibilità?
Mario (confuso): Cioè?
Carmela: Cioè che la mente umana non può essere riprodotta da qualsivoglia macchina, e al tempo stesso esistono problemi insolubili per la stessa mente?
Fanciulla: Certamente.
Mario (sempre più confuso): Oh … Beh … Sì, ora che mi ci fate pensare queste cose ce l’hanno raccontate in qualche corso durante il dottorato, non ricordo quale … e comunque … scusate, ma che c’entra tutta questa roba col fatto che non è possibile che macchine costruite dagli uomini superino gli umani nell’intelligenza generale?
Fanciulla: Se la mente umana non è meccanizzabile, in forza del primo corno della disgiunzione di Gödel non possono esistere macchine che la riproducono; a maggior ragione non possono esistere macchine che la sopravanzano.
Se invece la nostra mente è equivalente a una ipotetica macchina, in forza del secondo corno della disgiunzione allora vi sono problemi matematici, e dunque problemi in generale, che sono assolutamente insolubili per noi, e in particolare il secondo teorema di Gödel afferma che non saremmo in grado di provare la consistenza della nostra mente. In altre parole se siamo macchine, allora siamo ostacolati dalla nostra stessa natura a dare seguito alla esortazione che campeggiava sul pronao del tempio del Dio Apollo a Delfi: “Conosci te stesso”. Come potremmo allora costruire una macchina identica alla nostra mente se, non conoscendo la nostra vera natura, non possiamo nemmeno conoscere la vera natura di questa ipotetica macchina?[13]
Carmela: Mi viene in mente che la terza possibilità, ossia che la mente umana sia ben più di una macchina, e che al tempo stesso esistano verità inattingibili per la stessa mente, è la situazione implicitamente o esplicitamente contemplata in tanti credo religiosi.
Fanciulla (con aria assorta): Chiesa o moschea, altare o bosco sacro, ortodossia o eresia, tanti sono i modi per sentire lo stesso profumo… “Nella città non vidi alcun tempio, perché il Signore Dio, l’Onnipotente e l’Agnello sono il suo tempio.”[14]
Mario e Carmela tacciono per qualche secondo, disorientati dall’uscita della fanciulla, poi Mario interviene:
Mario (rivolto alla fanciulla): Io non so chi tu sia né da dove vieni, ma ti voglio dire che non mi convincerai mai che non ci sono rischi provenienti dalla IA.
Fanciulla: Non ho mai affermato questo. È che guardate il dito quando dovreste guardare la luna, e quando dovreste occuparvi del dito v’illudete che sta indicando la luna!
Carmela (rivolta alla fanciulla): Che vuoi dire?
Fanciulla: Voglio dire che nel caso dei cambiamenti climatici o delle migrazioni, che necessitano di una visione di lungo periodo, vi affannate a parlare di emergenza. Sui modelli di IA paventate rischi di superintelligenze al di là da venire, quando gli effetti deleteri di questi strumenti sono già presenti. Ci sono tantissimi rischi connessi all’utilizzo di quella che voi chiamate Intelligenza Artificiale, ma non sono collegati alla possibilità di essere soggiogati da ipotetiche superintelligenze che verranno da voi costruite chissà quando; sono pericoli reali, presenti nei sistemi già da voi sviluppati e utilizzati.
Carmela (con aria preoccupata): E quali sarebbero questi pericoli?
Fanciulla: Negli ultimi anni i vostri modelli di processamento del linguaggio naturale hanno spinto i confini del possibile in maniera impressionante …
Carmela (interrompendola): Lo so bene, io con ChatGpt ci faccio articoli, e non sono la sola …
Fanciulla: Il punto è che i risultati eccellenti forniti da questi modelli favoriscono la propensione della gente, anche di cultura medio-alta e che magari fa opinione, e persino di presunti esperti della materia …
Fa una pausa teatrale e punge con lo sguardo Mario che nel frattempo si è alzato in piedi per il nervoso e, mani dietro la schiena e testa per aria, fissa qualche nuvoletta vagabonda:
… dicevo che gli eccezionali risultati di questi strumenti spingono la gente comune, e persino tanti sedicenti esperti, a scambiare i guadagni prestazionali di questi modelli per l’effettiva comprensione del linguaggio naturale! In realtà all’origine di questi eccellenti risultati di ChatGpt e modelli analoghi vi sono architetture sempre più sofisticate con un numero crescente di parametri, parallelizzazione e velocizzazione dei calcoli e disponibilità di immense basi di dati da dar loro in pasto. Ma non si tratta di menti artificiali, come artatamente si vorrebbe dare a intendere anche tramite l’utilizzo di espressioni fuorvianti come deep learning, training e via discorrendo; questi modelli sono in realtà semplici stocastic parrots, pappagalli stocastici![15]
Mario (rivolto alla fanciulla): Guarda che con la locuzione Stocastic Parrots si indica sinteticamente la prima pubblicazione menzionata nella lettera aperta che ho firmato anch’io, non capisco proprio perché ti accanisci tanto contro questa lettera!
Fanciulla: Ma gli estensori della lettera aperta hanno letto questo articolo che citano? Perché ho l’impressione che non l’abbiano letto, e se lo hanno fatto non lo hanno capito, al punto che gli autori di Stocastic Parrots hanno pubblicato un comunicato congiunto in cui prendono le distanze da alcune affermazioni contenute nella lettera – affermazioni che mescolano allarmismo con montature pubblicitarie sulla IA – circa ipotetici rischi provenienti da “potenti menti digitali” fornite di “intelligenza che compete con quella degli umani”[16]. In realtà i rischi sono ben altri, e sono già presenti e attuali.
Carmela: E quali sono? Dai, dicci! Non tenerci col fiato sospeso!
Mario tace, in evidente imbarazzo. La fanciulla riprende:
Fanciulla: Gli ultimi Large Language Models utilizzano una immensa quantità di parametri e di dati: GPT-3 per il suo cosiddetto training (addestramento) utilizza una base dati di 570 GigaByte e dispone di 175 miliardi di parametri per adattare le sue risposte alle esigenze degli utenti[17], ma vi sono sistemi ancor più mastodontici.
Le immense grandezze in gioco implicano consumi energetici per lo sviluppo, l’addestramento e l’utilizzo di questi megamodelli che sono ugualmente immensi: l’energia spesa per il solo addestramento di uno di questi modelli è dello stesso ordine di grandezza di quella spesa in un volo transoceanico. Invece di spendere tutta questa energia sarebbe il caso di ottimizzare questi modelli anche sotto il profilo del risparmio energetico, o quanto meno assicurarsi che l’energia utilizzata provenga da fonti rinnovabili: è tempo di parlare di “IA verde”, così come avviene per tanti altri prodotti e servizi.
Poi c’è da considerare che sviluppare, istruire, testare, e rendere fruibili questi strumenti dal pubblico in generale implica molto spesso pratiche poco pulite di sfruttamento del lavoro e il furto di grandi quantità di dati, il tutto a beneficio di una manciata di persone.
Tra l’altro non si capisce con quali basi di dati avviene l’addestramento: non ci vuole molto a immaginare che si privilegia la quantità alla qualità, e che il rastrellamento indiscriminato di immense quantità di dati da dare in pasto a questi meravigliosi e stupefacenti “pappagalli stocastici”, destinati ad un’amplissima diffusione, sottende una quantità di pericoli. In particolare l’informazione “appresa” da questi pappagalli recepisce la visione dominante dei Paesi dove questi sistemi vengono sviluppati, che è quella dell’uomo bianco occidentale, con tutte le discriminazioni di genere, razza, etnia, disabilità, inclinazioni sessuali, e con connesse ricadute di molestie, incitamento all’odio (hate speech) e via dicendo.
Mario (rivolto alla fanciulla): Tutto quello che dici può essere vero ma – visto che sei così brava e informata – dovresti sapere che noi esperti applichiamo sofisticatissimi sistemi di filtraggio dei dati usati per l’addestramento proprio per evitare questi problemi.
Fanciulla: Già, ma il rimedio spesso è peggiore del male: c’è il caso di qualcuno che, avendo ricevuto su Twitter minacce di morte, si è visto il suo account rimosso, cosa che non è stata fatta con chi lo ha minacciato. Inoltre la pratica di filtrare i dati in maniera automatica, e quindi “stupida”, può limitare ulteriormente in questi sistemi la già flebile voce di chi appartiene a gruppi marginali o marginalizzati. Ad esempio il filtraggio non consapevole di parole considerate sporche, oscene, o comunque inopportune, può penalizzare persone che nelle loro comunità utilizzano questi vocaboli come termini identitari: se tu cancelli la parola twink, che tra i gay denota un giovane gay o bisessuale con corporatura snella e aspetto giovanile, limiti ulteriormente gli spazi, già molto angusti in questi sistemi, per le persone LGBTQ+.
Carmela: Quello che dici è molto molto interessante mia cara, sto pensando di farci un bel articolo.
Fanciulla (ridendo): Per l’articolo che vuoi scrivere ti consiglio di non usare ChatGpt!
Ridiventa seria:
E comunque quelli che ho descritto sono solo un piccolo campionario dei possibili rischi; gli umani tendono a valutare gli interlocutori sulla base di come parlano, e il linguaggio particolarmente fluente e appropriato di questi sistemi li rende oltremodo insidiosi, nella misura in cui sono stati addestrati con la visione dominante, quella dell’Occidente. Questo significa che tutte le altre popolazioni, in particolare quelle del Sud del mondo, sono danneggiate dall’utilizzo sempre più massiccio di questi modelli, con rischi concreti sia nell’utilizzo diretto che nell’uso ad esempio in traduzioni: è capitato che un palestinese, dopo che un sistema di traduzione automatico utilizzato nei controlli aveva tradotto un suo post su Facebook che diceva “buon giorno” (in arabo) in “feriscili” (in inglese) e “attaccali” (in ebraico) è stato arrestato dalla polizia israeliana.
Senza contare che la sempre maggiore integrazione di questi strumenti in sistemi di simulazione integrale della realtà, come il “metaverso”, porterà a una maggiore alienazione degli individui, in quanto tende a isolarvi sempre più dalla realtà quotidiana. Un qualcosa di simile – per quanto non paragonabile neppure lontanamente alle “immersioni totali” preconizzate da qualcuno di voi già nel lontano 1974[18] – l’avete sperimentato con le devastanti conseguenze psicologiche, soprattutto sugli adolescenti, durante i lock down della pandemia da COVID19.
Carmela: Mamma mia che quadro! Ma … mi chiedo: cosa si può fare per evitare tutti questi rischi?
Fanciulla : Per evitare i rischi il primo, indispensabile passo da fare è prendere consapevolezza di tutto ciò, e su questo i giornalisti e tutti gli esperti di comunicazione hanno una responsabilità immensa. Bisogna tenere a mente che attualmente questi sistemi sono addestrati con insiemi di dati mastodontici poco o male controllati, ottenuti prevalentemente rastrellando internet, dati che in maniera implicita o esplicita codificano visioni egemoniche dell’individuo occidentale bianco e, spesso, maschilista. Queste basi di dati spesso penalizzano chi ha meno rappresentanza su internet, ovvero quelle parti delle popolazioni emarginate, o quelle parti della società che per vari motivi hanno meno voce; ad esempio è noto che il concetto di molestia ha un’accezione diversa per le donne e per gli uomini, e il movimento me too ha stimolato dibattiti sul comportamento non appropriato degli uomini di potere, e degli uomini in generale, nei confronti delle donne. Inoltre queste basi di dati riportano una visione statica, che non tiene conto in tempo reale delle veloci e complesse dinamiche in corso nelle nostre società.
I due giovani ascoltano, Carmela con genuino interesse, Mario un po’ insofferente.
Una volta divenuti consapevoli di ciò, è possibile mettere in pratica metodi e strumenti che assicurino una adeguata cura e documentazione dei dati utilizzati per l’addestramento; cruciale è inoltre la responsabilizzazione di chi raccoglie e valuta questi dati, in modo che possano rappresentare in maniera equilibrata le diverse visioni, sia dei gruppi maggioritari che minoritari, e a livello globale di tutti i Paesi e non solo dell’Occidente: bisogna “de-colonizzare” questi modelli! Chi lavora in questo campo delicatissimo deve essere tenuto a rendere conto di come opera. Certo questi approcci richiedono tempo, e danno risultati migliori se applicati durante lo sviluppo di questi sistemi che non ex-post, quando i danni sono oramai manifesti. Il tema è sempre lo stesso: la superiorità di un approccio preventivo rispetto a maldestri approcci riparativi. Insomma la ricerca e lo sviluppo di una tecnologia dei linguaggi che interagisce profondamente con gli umani in modo immediato, pervasivo e quanto mai efficace, come ChatGpt, devono essere condotti con estrema cura e previdenza. Tutto ciò senza considerare il grande problema della concentrazione crescente del potere: l’Intelligenza Artificiale è frutto della ricerca di grandi multinazionali dell’information technology, e chi arriverà per primo o tra i primi al gradino superiore accentrerà ancora di più il potere spazzando via la concorrenza e riducendo la democrazia economica … e non solo. Insomma è il pericolo del Grande Fratello. Cosa che sta già avvenendo con il capitalismo della sorveglianza[19]. Le comunità più svantaggiate sono già escluse con il digital divide, e lo saranno ancora di più con le intelligenze dei big data[20].
Carmela: Tu mi hai spalancato un universo mia cara, anzi un multiverso (non un metaverso, sia ben chiaro, non ci voglio avere niente a che fare!)… mi viene in mente che i gruppi di potere che gestiscono questi strumenti non saranno contenti di sottoporsi a procedure di controllo che certifichino che i dati vengano utilizzati secondo i criteri che hai detto …
Fanciulla: Certo che no, ti basti sapere che all’articolo Stocastic Parrots ci hanno lavorato in sette, ma tre di questi sono stati richiesti dai datori di lavoro di cancellare i propri nomi dalla pubblicazione, come viene esplicitato nei ringraziamenti (Acknowledgments) in coda al lavoro.
Carmela: È sempre così, chi ha il potere lo vuole mantenere e non esita a ricorrere a ricatti e altri metodi sporchi pur di perseguire lo scopo, e non tutti hanno spalle e testa e cuore tanto grandi da resistere al ricatto.
Fanciulla: Quanto è vero quello che dici! Epperò voi giornalisti, o quanto meno quelli tra voi che vogliono essere liberi, veramente liberi, avete l’enorme responsabilità di diffondere questa consapevolezza se volete che le cose vadano nel verso giusto. E non dimenticate di sottolineare fino alla noia che questi modelli, che pomposamente chiamate di Intelligenza Artificiale, altro non sono che sistemi per ricucire a casaccio sequenze di forme linguistiche incamerate nel corso delle fasi di addestramento, secondo informazioni probabilistiche su come si combinano, ma senza alcun riferimento al loro significato: pappagalli stocastici.
Mario (con l’aria stravolta, rivolto alla fanciulla): Ma … ma tu da dove vieni, che studi hai fatto, quanti anni hai …
Fanciulla (si alza): Da dove vengo lo so, dove vado … non ne ho la più pallida idea, ed è tutta colpa vostra!
Si allontana salutandoli con un gesto della mano.
Carmela: Che avrà voluto dire?
Mario (visibilmente contrariato): Non lo so e non me ne frega niente, torno in ufficio che tra poco ho una riunione, ciao.
Mario si allontana a grandi passi piantando in asso Carmela, che rimane interdetta, lo guarda allontanarsi e a passo lento si dirige verso la redazione scuotendo la testa.
Nota dell’autore
è possibile che qualche lettore trovi questo dialogo più impegnativo dei precedenti. Ciò può dipendere dalla complessità della materia trattata – la cosiddetta “Intelligenza Artificiale” (IA) – e dal tentativo di essere, oltre che divulgativo, rigoroso per quanto possibile.
L’autore prega di segnalare passaggi poco chiari, inesattezze ed errori con una mail indirizzata a: focsiv@focsiv.it, a cui si cercherà di rispondere e di rimediare per quanto possibile.
[1] Una esperienza simile a quella descritta da Carmela è stata fatta sul quotidiano Il Foglio, cfr. l’editoriale del direttore Claudio Cerasa su Il Foglio del 31 marzo 2023.
[2] Cfr. Beniamino Pagliaro, Se si vieta il futuro, Repubblica del 2 aprile 2023.
[3] https://futureoflife.org/open-letter/pause-giant-ai-experiments/ .
[4] [4] Cfr. il secondo paragrafo della “lettera aperta” di cui alla nota precedente.
[5] [5] Cfr. l’ultimo paragrafo della “lettera aperta” di cui alla nota 3.
[6] [6] Cfr. Filippo Santilli, La rivolta delle startup “Bloccare ChatGpt è una scelta talebana. Perdiamo soldi e lavoro”, Repubblica del 2 aprile 2023.
[7] [7] Cfr. Chloe Xiang, The Open Letter to Stop ‘Dangerous’ AI Race Is a Huge Mess. https://www.vice.com/en/article/qjvppm/the-open-letter-to-stop-dangerous-ai-race-is-a-huge-mess .
[8] [8] Cfr. Massimo Basile, “ChatGpt corre troppo” Musk e i guru hi-tech chiedono di fermarla. La Repubblica del 30 marzo 2023.
[9] [9] Nick Bostrom, Superintelligenza. Tendenze, pericoli, strategie, 2014, tr. it. 2018, Bollati Boringhieri.
[10] [10] Cfr. Enrico Bertino, Gödel disjunction and artificial intelligence, Master Thesis, Politecnico di Milano, Academic Year 2018-2019. ( https://www.politesi.polimi.it/bitstream/10589/148880/3/Godel_v4.pdf ).
[11] [11] Sui teoremi di Gödel e sulle loro implicazioni cfr. il dialogo: “Il teorema di Bell raccontato a un amico. Con altre amenità” dove le “altre amenità” sono i teoremi di Gödel ( https://www.researchgate.net/publication/360167475_Il_teorema_di_Bell_raccontato_a_un_amico_Con_altre_amenita_Dialogo_di_-_e_con_-Mario_Carmelo_Cirillo_REV_aprile_2022#fullTextFileContent ).
[12] [12] Cfr. per es. Francesco Beccuti, La disgiunzione di Gödel, APhEx, Portale Italiano di Filosofia Analitica, n.18, 2018. ( http://www.fbeccuti.it/pdfs/APHEX ).
[13] [13] Cfr. le conclusioni della tesi menzionata in nota 10.
[14] Apocalisse cap. 21, versetto 22.
[15] [15] Bender, E. M. , T. Gebru, A. McMillan-Major, S. Shmitchell. 2021. On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? In: Proceedings of the 2021 ACM conference on fairness, accountability, and transparency, pp. 610-623.(https://dl.acm.org/doi/pdf/10.1145/3442188.3445922 ).
[16] Timnit Gebru (DAIR), Emily M. Bender (University of Washington), Angelina McMillan-Major (University of Washington), Margaret Mitchell (Hugging Face), Statement from the listed authors of Stochastic Parrots on the “AI pause” letter, https://www.dair-institute.org/blog/letter-statement-March2023 .
[17] Cfr. tabella 1 della pubblicazione Stochastic Parrots menzionata alla nota 15. Molte considerazioni che seguono sono basate su questa pubblicazione.
- [18] Robert Nozick, Anarchia, stato e utopia, 1974, tr. it. 2008, Il Saggiatore, Milano.
[19] Shoshana Zuboff, Il capitalismo della sorveglianza, LUISS University Press 2019.
[20] Su questo tema si veda anche DISUGUAGLIANZE ALGORITMICHE – FOCSIV