La fine del futuro: l’intelligenza artificiale e il potere della previsione


1. Terapie parlanti

“La previsione è difficile, soprattutto se riguarda il futuro”, è una battuta attribuita al fisico Niels Bohr, ad altri fisici, ma anche a letterati come Mark Twain. La meditazione che Gerd Gigerenzer elabora nel libro Perché l’intelligenza umana batte ancora gli algoritmi riguarda l’efficacia dei sistemi di intelligenza artificiale e i costi sociali che siamo disposti a sostenere per svilupparli e utilizzarli. Questo compito si traduce in due strategie di terapia mentale: una mirata al modo in cui percepiamo i risultati dei software, l’altra alla comprensione delle politiche dell’infosfera, al fine di comprendere le modalità e le finalità del raid di dati personali che alimenta i database dell’intelligenza artificiale. . .

Il titolo del saggio sembra suggerire che sia in corso un’aggressione, o quantomeno una sfida, da parte delle macchine. Lo sviluppo del dibattito, però, non segue questa strada, perché sotto la lente dell’analisi cessano le promesse del marketing (e le aspettative del pubblico) sulle potenzialità del software, senza che venga loro attribuito alcun intento competitivo: gli unici protagonisti sono le conversazioni che gli uomini si scambiano sui dispositivi digitali. Gli interventi terapeutici sono condotti innanzitutto sul nostro linguaggio e sull’archivio di enunciati con cui vengono descritti i servizi digitali: questo poteva essere scelto come titolo del libro Perché puoi sempre provare a migliorare l’intelligenza umana partendo dalla sua stessa stupiditàma così si sarebbe perduta la memoria del Golem elettronico, che esercita sempre il suo (stupido) fascino nelle vetrine delle librerie.

2. Predire il passato

Gigerenzer mostra al lettore una gallery di attività svolte dall’IA, dalla scelta dei partner sessuali alla guida autonoma, dalla traduzione automatica al predittive policing, dal riconoscimento facciale alla profilazione di marketing. In tutte queste pratiche, le narrazioni dei produttori (spesso rilanciate successivamente dai media istituzionali) tendono a esagerare i risultati raggiunti dal software basato su una controversa costruzione etichettata come “sniper fallacy texana”. Immagina un cowboy che spara da una lunga distanza al muro del fienile e poi disegna cerchi bersaglio attorno all’area in cui sono raggruppati la maggior parte dei buchi che ha praticato nel muro. Adattando il bersaglio ai fori dei proiettili si ottiene un’impressione della mira del tiratore molto inferiore a quella che si sarebbe ottenuta se i fori fossero stati concentrati all’interno del perimetro del bersaglio già segnato. Ciò che accade nella descrizione del rendimento delle macchine è molto simile: i risultati rivelati e commentati riguardano la capacità del software di adattare la capacità predittiva ad eventi accaduti nel passato: gli eventi passati sono gli unici i cui effetti sono già noti, sui quali è possibile condurre corsi di formazione sull’IA e per misurarne l’efficacia.

Ma i modelli contabili non potrebbero garantire la ripetizione della loro profetica accuratezza nei casi futuri se non si verificasse che i campi delle relazioni umane, dei comportamenti individuali, della storia, perfino della circolazione stradale, obbediscono sempre. stessi parametri di guadagno. Se l’amore tra le persone nascesse sempre per gli stessi motivi, se un piano di rapina o di omicidio nascesse sempre dagli stessi motivi, se la circolazione di veicoli e pedoni ripetesse sempre gli stessi percorsi e non infrangesse mai il codice – la quantità di successi registrati dall’IA in la fase di test sarebbe una promessa affidabile per il futuro. Ma in situazioni complesse, come quelle sviluppate dall’agire degli uomini, l’adattamento di un modello agli effetti del passato selezionando e interpretando parametri adeguati, e un dono profetico per il futuro, non si sovrappongono ad alcuno ragionevole. sicurezza. Il mondo dovrebbe essere meccanicamente stabile (e noioso) per soddisfare requisiti simili; invece, la realtà sociale rimane fluida e le previsioni del software sono molto meno affidabili di quanto pubblicizzato.

Giochi come gli scacchi, la dama e il Go forniscono alcune condizioni ideali per il miglior funzionamento dell’IA. Le situazioni cambiano continuamente, ma l’ontologia all’interno dei confini dei giochi è fissa come quella dei pianeti e delle stelle, le cui orbite sono calcolate con assoluto determinismo: le dimensioni e la forma del tabellone, il valore dei pezzi, le regole del gioco il movimento, gli scopi dei movimenti, rimangono costanti. Non ci sono bambini che superano improvvisamente il tabellone, alfieri di carattere che decidono di spostarsi in verticale, regine con appetiti segreti che mangiano il loro re. Per decenni si è creduto che la capacità di giocare a scacchi esprimesse l’essenza dell’intelligenza, ma l’evidenza empirica sembra smentire questa ipotesi: le abilità richieste per vincere una partita contro il campione del mondo non permetterebbero alla macchina di sopravvivere nel traffico delle strade di Milano – o per garantire la sicurezza dei milanesi. Una possibile soluzione al problema sarebbe quella di riservare le strade alla sola circolazione delle auto guidate dall’intelligenza artificiale, ma questa non sembra essere un’opzione praticabile nel breve termine. Le aspettative non migliorano quando si passa alla varietà di coppie che puntano a non divorziare entro un anno, o a riconoscere volti sospetti senza il rischio di arrestare passanti innocenti – o, peggio ancora, alla stregoneria di profili psicologici per sentenze sulla libertà di parola (o per personalizzare i messaggi di marketing).

3. Euristica e stabilità del mondo

Gigerenzer insiste sulla possibilità di fidarsi del software basato su un’euristica trasparente. Il successo dell’intelligenza artificiale è stato supportato da due pregiudizi che tutti coltiviamo a favore della complessità e dell’opacità, poiché ci sentiamo più fiduciosi nei risultati di una macchina complessa e incomprensibile. Invece, una “lista decisionale” senza molte regole permette di ottenere previsioni che, in un confronto empirico, funzionano meglio dell’IA: Angelino et al. (2018) mostrano che questo è ciò che accade con i tre parametri e le tre clausole del software CORELS, che può prevedere se l’imputato sarà arrestato nei prossimi due anni con una precisione del 65%, lo stesso del COMPAS AI acquistato dall’americano governo, che calcola innumerevoli combinazioni su 137 parametri.

L’autorità di Kahnemann ha squalificato le euristiche equiparandole al “pensiero rapido”, che tende a correre verso soluzioni contaminate da errori e pregiudizi, per trovare nell’immediatezza della situazione un criterio di comportamento. Gigerenzer dedica invece il repertorio delle nostre regole pratiche come una “cassetta degli attrezzi” che ha superato la scelta dell’ambiente in cui viviamo, ed è quindi sufficiente per la razionalità dei compiti che ci attendono. Una delle sue missioni più importanti è confermare la stabilità del mondo, che l’intelligenza artificiale fatica a cogliere tra i tanti schemi di relazioni stabiliti nei dati con cui si svolge il loro lavoro. formazione. Del resto le reti neurali amano nascondersi, come la natura di Eraclito, e dopo alcune generazioni di addestramento diventa impossibile anche per i loro sviluppatori capire quali segnali vengono intercettati e la loro elaborazione: lo si può scoprire solo con test empirici sugli output. il software ha imparato a riconoscere i carri armati russi, o se li distingue da quelli americani perché nel dataset fotografico il cielo sullo sfondo dei mezzi corazzati slavi random è sempre nuvoloso mentre negli scatti USA c’è il sole. Ancora più difficile è spiegare perché l’introduzione di pochi pixel colorati trasformi la percezione di uno scuolabus in uno struzzo. Se il mondo deve essere noiosamente stabile, anche per il bene dei bambini che viaggiano sugli scuolabus, almeno che la noia abbia a che fare con i nostri pregiudizi, e non con un mondo possibile disegnato a caso.

Bibliografia

Angelino, E., Larus-Stone, N., Alabi, D., Seltzer, M., Rudin, C., Apprendimento di elenchi di regole ottimali in modo certificabile per dati categorici«Journal of Machine Learning Research», n. 18, 2018, pp. 1-78.

Gigerenzer, Gerd, Come rimanere intelligenti in un mondo intelligente Perché l’intelligenza umana batte ancora gli algoritmiPinguino, New York 2022.

Kahneman, Daniele, Pensare, veloce e lentoFarrar, Straus e Giroux, New York 2011

  • laureato in filosofia, si occupa di media digitali dal 1999: è cofondatore di Pquod e SocialGraph, società specializzate in comunicazione web e analisi dati. Contemporaneamente ha svolto attività didattica sui temi della comunicazione digitale per il Politecnico di Milano, per il Corep del Politecnico di Torino, per il Dipartimento di Filosofia dell’Università degli Studi di Milano. Descrive i modelli cognitivi emergenti dei nuovi media nella monografia pubblicata nel 2010: Googlecracy. Dal febbraio 2011 hanno visto la loro evoluzione negli articoli pubblicati sui quotidiani Linkiesta, pagina99, Gli Stati Generali.

    Visualizza tutti gli articoli



Techno Quantico

Leave a Reply

Your email address will not be published. Required fields are marked *