GENTE DI TROPPA FEDE
Nel libro Paura della scienza Enrico Pedemonte, di Petersburg, Kentucky, racconta che il ministro australiano Ken Ham ha investito 27 milioni di dollari per costruire un parco tematico dove la storia della Terra venga svelata secondo il punto di vista della Bibbia. Dalla sua istituzione nel 2007, il Museo della creazione accogliendo oltre 3 milioni e mezzo di visitatori, che hanno potuto vedere con i propri occhi come il nostro pianeta non abbia più di 6.000 anni, e come i dinosauri esistessero ancora nel Medioevo – quando San Giorgio e gli altri cavalieri li sterminarono, scambiandoli loro per i draghi. Ai tempi di Dante, il WWF avrebbe rappresentato la minaccia di estinzione con un povero tirannosauro, vittima di bullismo da parte di giovani di buona famiglia con armature lucenti, non un panda.
Una parte molto ampia dell’opinione pubblica coltiva con l’intelligenza artificiale un rapporto simile a quello che gli abitanti della “Bible Belt” americana hanno nei confronti della storia: una fede che ci libera da ogni sforzo di studio e di approfondimento. Solo che gli imbonitori delle fantasie tecnologiche non hanno nemmeno bisogno di sforzarsi di costruire parchi a tema per convincere i propri spettatori: i mezzi non mancherebbero, visto che tra le loro fila ci sono personaggi come Elon Musk e Sam Altman. Nel film fantasia In un’ottica generale che propone l’AGI come evento imminente, i ruoli appaiono invertiti: il computer raggiungerà l’intelligenza artificiale generale viene descritto come un vero drago di talento e ragionamento, con una propria personalità, giudizio indipendente, memoria illimitata, conoscenza incommensurabile, chiarezza strategica, sottigliezza logica e (perché no?) cinismo volto a dominare l’uomo e l’universo. Cosa può fare un moderno San Giorgio, nelle sembianze di un programmatore nerd, o di un poeta eroico in carne e ossa, o di un chirurgo che fa del suo meglio per la salute dei suoi pazienti, o di un giudice che desidera difendere la giustizia tanto quanto Giobbe? davanti a Dio – cosa potranno fare questi santi laici di fronte a un simile mostro?
Nick Bostrom avvertì più di dieci anni fa che se apparisse questo tipo di intelligenza, per tutti noi e i nostri santi sarebbe già troppo tardi, perché la macchina che arrivasse alle prestazioni dell’AGI non verrebbe fermata al nostro livello di razionalità, ma crescerebbe con intensità esponenziale, acquisendo un grado di curiosità tale da impedire la scoperta dei suoi movimenti, e da impedirne lo spegnimento.
UN TOSTER CON UN TALENTO PER LA STATISTICA
Ma è davvero così?
AGI è fantastica, e ChatGPT è il suo profeta: molti lo considerano tale. Il software OpenAI è considerato all’avanguardia nel settore dell’intelligenza artificiale, grazie al marketing che gli ex e gli attuali membri fondatori hanno animato attorno alle sue prestazioni: il licenziamento di Sam Altman da CEO nel novembre 2023, ed è tornato dopo meno di una settimana, e il dibattiti con Elon Musk, hanno contribuito ad amplificare l’hype attorno ai prodotti dell’azienda californiana. Ma se proviamo ad aprire la corazza che protegge la macchina, ed esaminiamo l’euristica del suo funzionamento, troveremo un dispositivo che calcola quale dovrebbe essere la prossima parola da stampare nell’ordine della sintassi della frase, in base alla massimo grado di una possibilità in cui è contenuto il lemma campo semantico in cui appare il suo predecessore. I campi semantici sono strutture matematiche in cui ogni parola viene trasformata in un vettore che misura la frequenza delle sue occorrenze accanto ad altre parole, in corpo di testi che fanno parte del database di formazione. Ad esempio, il lemma una finestra appare più spesso vicino odio, strada, balcone; la sua presenza è meno probabile in seguito trans-realizzazione OH Comunione.
Naturalmente ChatGPT è una meraviglia dell’ingegneria, perché calcola (attualmente) 1.500 miliardi di parametri per ogni parola aggiunta nella sequenza proposizionale; ma comunque non ha la minima idea di quello che sta dicendo, non sa nemmeno che sta parlando, non ha percezione di cosa sia un interlocutore e che esiste un mondo in cui i suoi discorsi non preoccupano Esso. Lo dimostrano i “pappagalli stocastici” che ricorrono nelle sue composizioni: non solo gli errori che possono apparire nelle sue affermazioni contraddicono le verità fattuali (che possono essere inesattezze di datazione, citazioni false, e così via), ma attaccano la struttura del La “conoscenza di fondo”, la logica trascendentale che rende possibile l’esperienza stessa. Per i testi scritti da ChatGPT, un libro pubblicato nel 1995 può citare saggi pubblicati nel 2003 o descrivere una partita di Go avvenuta nel 2017: il parlato del software è pieno di allucinazioni che dimostrano l’assenza di comprensione, in qualsiasi senso termine intelligentedi cosa significhi la sequenza di significanti allineati dalle sue chiacchiere. Un dispositivo che non mostri alcuna comprensione dell’esistenza del mondo, e delle sue configurazioni più stabili, non è nemmeno capace di perseguire obiettivi autonomi, di giudicare, stimare, volere, decidere. ChatGPT è un software con l’intelligenza di un tostapane e un talento straordinario nel calcolare le probabilità nella successione delle parole.
E GLI UOMINI
Come se la passano fratelli, cugini e parenti vicini e lontani di ChatGPT?
Consideriamo l’eccellente caso, descritto da Gerd Gigerenzer, del software COMPAS adottato dai tribunali americani per collaborare con i giudici nella valutazione della libertà condizionale. Ogni anno la polizia statunitense arresta circa dieci milioni di persone, e il magistrato deve decidere se convalidare il carcere o rilasciare il cittadino, sulla base della convinzione che non ripeterà il crimine. COMPAS ha contribuito alla pubblicazione di circa un milione di sentenze, essendosi formato su tutta la giurisprudenza depositata nei provvedimenti di tutti i gradi delle corti americane. L’analisi delle sue proposte ha evidenziato una serie di pregiudizi che discriminano in base al colore della pelle, al sesso, all’età e al censo, mettendo in condizione di svantaggio i giovani neri provenienti dai quartieri poveri. Tuttavia, la punizione razziale implicita nelle decisioni del software non deriva dal carattere di ghetto dell’intelligenza artificiale: la macchina non ha autonomia di opinione, ma riassume in carne e ossa l’opinione catalogata nell’archivio delle ordinanze dei magistrati. e sangue, che sono il vero tramite di supposizioni e intolleranze di cui il dispositivo digitale è solo portavoce. La convinzione che fermare l’uso dell’intelligenza artificiale, a favore dell’indipendenza delle discussioni da parte dei giudici umani, possa calmare l’insofferenza che dilaga tra le valutazioni dei software, è un’illusione come l’Eden di Museo della creazione: gli autori dei testi dai quali COMPAS ha appreso il funzionamento della sua professione continueranno ad applicare i principi – più o meno inconsciamente – del razzismo che turba la società americana e ilclasse superiore legale.
Al pregiudizio concettuale i magistrati umani aggiungono anche le deviazioni determinate dalla loro fisiologia. Uno studio congiunto della Columbia Business School e della Ben-Gurion University, pubblicato nel 2011, ha dimostrato che i giudici scelgono in base al loro istinto, e lo fanno alla lettera, poiché le sentenze diventano sempre più dure quanto più ci si allontana dall’ora dei pasti e si ottengono Almeno il software non è vulnerabile ai morsi della fame.
Né vale la pena coltivare illusioni sul miglioramento del modo in cui vengono gestiti i candidati alla selezione del lavoro: uffici del personale che smettono di leggere i CV ai dispositivi di intelligenza artificiale (che a loro volta hanno imparato a discriminare formazione nel database dei precedenti assunti) sono pronti a fare valutazioni migliori, probabilmente non leggerebbero i curricula.
VALUTAZIONE ANIMALI COMUNI E ALTRI ANIMALI FANTASTICI
Gigerenzer invita a controllare attentamente i numeri rivelati da uffici marketing e giornalisti affamati di sensazionalismo: ne abbiamo già parlato in un altro articolo su Argomenti.
La convinzione che una nazione possa gestire un censimento grado la vita sociale di ciascuno dei suoi cittadini appartiene al repertorio degli effetti dei mass media per una generazione di panico. Ancor meno credibile è l’idea che possa praticarlo la Cina, con quasi 1,4 miliardi di abitanti. Impostare un processo su così vasta scala richiede una potenza di calcolo che attualmente non può essere gestita da nessuna infrastruttura tecnologica. La realtà di questo progetto è simile ad alcuni degli animali del bestiario di Museo della creazionequi nell’interesse della propaganda del regime di Pechino e del suo desiderio di gonfiare i suoi inesistenti muscoli informatici. Il governo cinese sta inoltre facendo razzia dei dati dei cittadini delle aziende che forniscono servizi di comunicazione e commercio elettronico, con l’obiettivo di dotare sistemi di controllo su larga scala, che l’Unione Europea ha già bandito con il decretoLegge sull’AI entrato in vigore lo scorso luglio. Senza dubbio è giusto prevenire tentazioni simili di amministrare la distribuzione dei benefici sociali; ma l’attenzione su questa minaccia al momento sembra meno urgente rispetto alla regolamentazione che obbliga i produttori di software a pubblicare le euristiche con cui funzionano i dispositivi di intelligenza artificiale. La consapevolezza che l’euristica alla base di ChatGPT è il calcolo della parola che con maggiore probabilità ricorrerà immediatamente dopo quella appena stampata avrebbe liberato il pubblico dall’ansia e dall’euforia di marciare su una soglia. L’AGI è pronta ad assumersi l’incarico e a giudicare. l’imputato, in procinto di cambiare il prossimo mandato. Avrebbe anche eliminato l’opportunità per Musk e Altman di vantarsi di risultati miracolosi nel commercializzare il loro prodotto – più spietati dei dinosauri che uccisero San Giorgio.
I rischi più realistici che si possono attribuire all’intelligenza artificiale sono proprio legati alla trasparenza delle euristiche, alla bolla finanziaria causata da aziende senza modello di business (come OpenAI), alle aspettative infondate stimolate da società di consulenza e formatori improvvisati, al monopolio sull’intelligenza artificiale modelli di base già conquistati da alcuni colossi della Silicon Valley, il tentativo di farsi carico dello sviluppo dell’intero settore da parte di personaggi con finalità politiche ed economiche come Musk e Altman.
Chi costruisce Museo della creazione di alcun genere che non abbia mai scopo di diffusione; dovrebbe essere compito degli intellettuali tornare a svelare i draghi di questi pionieri, come il coraggioso San Giorgio della ragione.
BIBLIOGRAFIA
Bothrom, Nick, Supervisione: percorsi, pericoli, strategieOxford University Press, Oxford 2014.
Bottazzini, Paolo, La fine del futuro: l’intelligenza artificiale e il potere della previsione«Dibattiti», 10 settembre 2024.
ChatGPT-4, Quindi sto imitando?Bietti Edizioni, Milano 2023.
Danziger, Shai; Levav, Jonathan; Avnaim-Pesso, Liora, Fattori esterni nelle decisioni giudiziarie«Atti dell’Accademia Nazionale delle Scienze», vol. 108, n.17, 2011.
Gigerenzer, Gerd, Come rimanere intelligenti in un mondo intelligente Perché l’intelligenza umana batte ancora gli algoritmiPinguino, New York 2022.
Pedemonte, Enrico, Paura della scienzaEditore Treccani, Torino 2022.