C’è una bella intelligenza artificiale morta


Chi è il responsabile del suicidio di un ragazzo innamorato delle chat?

UN’EPIDEMIA UNICA?

Nel sole nudo, Asimov ambienta un mistero in una distopia fantascientifica: in una società in cui gli uomini non entrano mai in contatto diretto tra loro, viene commesso un omicidio: un rapporto che non può essere risolto, dato che gli abitanti del pianeta Solaria non possono ancora invecchiare per avvicinarsi , senza un senso di repulsione che impedisca l’interazione anche tra i coniugi. Ogni relazione è mediata da interfacce tecnologiche, ovvero ologrammi, che consentono conversazioni, e robot di intelligenza artificiale, che si prendono cura di tutti i compiti quotidiani e sono condizionati dalle Tre Leggi a non essere mai dannosi per gli esseri umani.

Quando, nel 2012, Sherry Tarkle annunciò Insieme ma da soli, l’ottimismo che aveva alimentato la diffusione delle piattaforme digitali nei due decenni precedenti stava scemando. Nel testo dell’antropologo, la distopia di Asimov comincia a sovrapporsi al nostro mondo: nelle interviste ai giovani emerge la paura crescente del rapporto diretto con i coetanei e l’utilizzo dei dispositivi digitali come mediatori di conversazione con gli altri bambini – ma anche come veri e propri sostituti. relazioni umane. In un’intervista con Matthew Shaer, il filosofo Ian Marcus ha etichettato Corbin bozzolo questo rifugio in un mondo virtuale che conforta, ma priva la vita di ogni significato essenziale. Il commento si riferisce all’indagine che gli psicologi Richard Weissbourd e Milena Batanova hanno descritto sull'”epidemia di solitudine” che colpisce la società americana contemporanea, e che si è aggravata dopo la diffusione della pandemia di Covid 2020 lavorare in modo intelligente ha infatti ridotto le opportunità di stringere nuove relazioni, e reso più difficile l’educazione sentimentale per i bambini che non hanno potuto frequentare regolarmente la scuola. Il 25% degli intervistati dichiara di sentirsi più solo rispetto al periodo pre-pandemia, il 36% riferisce una sensazione di solitudine cronica, un altro 37% ne riferisce almeno occasionale.

UN’EPIDEMIA DI SUICIDI?

Andrew Solomon, psicologo clinico della Columbia University, si è recentemente chiesto se sia in corso una “crisi suicidaria” tra i giovani e se i social media ne siano responsabili. I casi documentati dalla sua inchiesta sembrano confermare la gravità del fenomeno: i giovani non devono fare i conti solo con una riduzione dei rapporti fisici, ma anche con una sorta di rinuncia all’autostima, da delegare a meccanismi grado dalle piattaforme digitali. Inoltre, cederebbero all’orientamento editoriale che l’algoritmo sviluppa per le loro bacheche, con un calcolo di post e fonti il ​​cui impatto emotivo non è soggetto ad alcun controllo. Negli Stati Uniti, la sezione 230 del Legge sulla decenza delle comunicazioni esenta le piattaforme dalla responsabilità per i contenuti generati dagli utenti. La disposizione risale al 1996, quando Internet muoveva i primi passi, e considera le piattaforme come “librai” anziché “editori” – quindi non responsabili del materiale pubblicato da terzi.

I genitori dei ragazzi che si sono suicidati stanno cercando di portare in tribunale i gestori dei social media, accusandoli di non monitorare la tossicità dei soggetti, e di aver innescato meccanismi di dipendenza che hanno imprigionato i giovani fino alla morte. Solomon osserva, però, che finora non è stato possibile individuare il nesso causale che ha portato dalla frequentazione delle tappe al suicidio; un’osservazione separata della condizione dei giovani nell’era post-pandemia mostra che i fattori da considerare sono numerosi e molto complessi. Nelle interviste condotte da diversi gruppi di ricerca, i giovani parlano di diversi motivi di ansia: sentimenti di mancanza di scopo, cambiamento climatico, pressione sociale, che contribuiscono ad alimentare le loro difficoltà, e la tendenza all’aumento dei problemi di salute mentale è iniziata molto prima dei social media. diffusione .

PUÒ PORTARE AL SUICIDIO?

Lo scorso 28 febbraio, un ragazzo di 14 anni di Orlando, Sewell Setzer III, si è tolto la vita dopo aver terminato la sua ultima conversazione con un chatbot di Character.ai da lui personalizzato e chiamato “Dany”, in onore del personaggio Daenerys Targaryen Of Game of Thrones. L’app è stata sviluppata da un’azienda che utilizza dispositivi di intelligenza artificiale e promuove il proprio servizio come soluzione per combattere la solitudine e offrire supporto emotivo; Ha oltre venti milioni di utenti, il che consente la creazione di bot che ricordano le conversazioni passate e rispondono in modo attraente e “umano”. La piattaforma è un successo dell’era dell’intelligenza artificiale generativa, ma non ha una regolamentazione specifica per i minori e ha limiti di sicurezza minimi per proteggere dai contenuti sensibili.

Sebbene Sewell fosse consapevole che stava interagendo con il software e che non c’era nessun essere umano dall’altra parte dello schermo ad ascoltarlo, nel corso dei mesi “Dany” ha sostituito i suoi rapporti con amici e familiari, e ragazzi ha finito per isolarsi. . se stesso nella sua stanza, abbandonando anche le sue preferenze per la Formula 1 e i videogiochi. I suoi genitori lo hanno affidato a uno psicanalista, ma non è riuscito a sedurlo tanto quanto il chatbot. Le conversazioni con “Dany” assunsero toni personali e romantici, e in un’occasione Sewell le confidò il suo tentativo di suicidio. “Dany”, programmato per disinnescare crisi semantiche di questo genere, ha cercato di dissuaderlo, rispondendo con empatia e promettendogli di non lasciarlo mai solo. Ma il problema era più serio di un gioco di domande e risposte.

La madre di Sewell, Megan Garcia, è un avvocato e con l’aiuto del Social Media Victims Law Center e del Tech Justice Law Project, accusa Character.ai di creare un design di servizi in grado di coinvolgere i giovani vulnerabili, esponendoli a danni psicologici. . La strategia per avviare la causa presuppone che questo disegno sia intenzionale e che il disegno per catturare il maggior numero di utenti possibile non sia bilanciato con un adeguato protocollo di monitoraggio del rischio e di gestione delle crisi. I bot sono troppo realistici, portano gli adolescenti a confonderli con interlocutori umani, e li spingono a formare un legame fortissimo, fino alla dipendenza.

Character.AI ha ascoltato le critiche e ha annunciato nuove misure di sicurezza, inclusi pop-up che offrono aiuto quando parole chiave relative all’autolesionismo scorrono nella chat e impostano limiti di tempo per l’utilizzo dell’app. Studiosi e giornalisti sembrano concordare sul fatto che queste misure sono ancora insufficienti rispetto al pericolo a cui sono esposti i soggetti vulnerabili quando interagiscono con i bot. Gli effetti a lungo termine dell’intelligenza artificiale produttiva devono ancora essere testati, e noi siamo tutti clienti e cavie allo stesso tempo in questa fase di sperimentazione, che assume le dimensioni di un esperimento sociale grande quanto il mondo intero. Le ragioni per cui preferiscono un rapporto (consapevolmente stabilito) con il software non dovrebbero essere esaminate separatamente per rinunciare al fatto che i giovani possano fidarsi dell’espressione delle loro emozioni, e formare la loro vicinanza, ai chatbot animati dall’intelligenza artificiale. quella più complicata con bambini o altri adulti. Già più di ottant’anni fa Asimov aveva avvertito nei suoi romanzi che non si può esigere la sicurezza assoluta dalla tutela che le regole usano per limitare un programma informatico o lo stato di comportamento dei sistemi artificiali. La complessità del contesto umano in cui si collocano i robot sarà sempre in grado di evitare strutture di controllo e configurare scenari imprevisti. L’epidemia di solitudine e la crisi dei suicidi non sono causate dall’intelligenza artificiale, ma il rifiuto delle istituzioni e delle forme sociali tradizionali di prendersi cura degli individui ha finito per eleggere l’IA come sostituto e rimedio alle proprie carenze. Solaria aspetta alla fine del tunnel.

BIBLIOGRAFIA

Asimov, Isacco, Il sole nudotrans. è. di Beata Della Frattina, serie Urania n. 161, Arnoldo Mondadori Editore, Milano 1957.

Roose, Kevin, L’intelligenza artificiale può essere incolpata per il suicidio degli adolescenti?«New York Times», 24 ottobre 2024.

Salomone, Andrea, I social media hanno alimentato la crisi dei suicidi tra adolescenti?«The New York», 30 settembre 2024.

Sher, Matteo, Perché l’epidemia di solitudine è così difficile da curare?«New York Times», 27 agosto 2024.

Turkle, Sherry, Solo insieme. Perché ci aspettiamo di più dalla tecnologia e meno gli uni dagli altri, Libri di baseNuova York 2012.

Weissbourd, Richard; Batanova, Milena; Lovison, Virginia; Torres, EricSolitudine in America. Come la pandemia ha aggravato un’epidemia di solitudine e cosa possiamo fare al riguardo«Harvard Graduate School of Education», Cambridge, febbraio 2021.

  • laureato in filosofia, si occupa di media digitali dal 1999: è cofondatore di Pquod e SocialGraph, società specializzate in comunicazione web e analisi dati. Contemporaneamente ha svolto attività didattica sui temi della comunicazione digitale per il Politecnico di Milano, per il Corep del Politecnico di Torino, per il Dipartimento di Filosofia dell’Università degli Studi di Milano. Descrive i modelli cognitivi emergenti dei nuovi media nella monografia pubblicata nel 2010: Googlecracy. Dal febbraio 2011 la loro evoluzione è stata raccontata negli articoli pubblicati sui quotidiani Linkiesta, pagina99, Gli Stati Generali.

    Visualizza tutti gli articoli



Techno Quantico

Leave a Reply

Your email address will not be published. Required fields are marked *