War Cloud – militarizzazione dell’intelligenza artificiale e implicazioni etiche


Il 10-11 febbraio 2025, presso il Grand Palais di Parigi, si tenne la terza edizione del vertice di azione di intelligenza artificiale, che riunì i capi di stato di stato, il leader delle organizzazioni internazionali, il CEO di aziende, gli accademici e i rappresentanti della società civile per discutere delle sfide e delle opportunità associate all’intelligenza artificiale. Tuttavia, dietro il clamore di questa “tempesta cerebrale”, sta emergendo il ritratto frammentato di un mondo sospeso tra l’innovazione e le molestie promesse di ombre. I temi centrali? Recessione economica occidentale, aumentando la concorrenza con il modello cinese e la corsa europea per ripristinare i terreni.

Le iniziative proposte sono ambiziose, ma, per un’analisi più interessante, spesso sperimentano progetti incompleti o supporto al rischio che, se non adeguatamente gestiti, potrebbero alimentare la gestione centrale e intensificare le disuguaglianze a livello mondiale. Con un pool di 2,5 miliardi di euro volti ad accelerare la crescita dell’IA open source nei paesi in via di sviluppo e il lancio di 35 sfide globali legate agli obiettivi di sviluppo sostenibile, il vertice ha fatto appello alla collaborazione internazionale. Tuttavia, dietro queste dichiarazioni, il rischio di responsabilità del vuoto è nascosto che la crisi economica che colpisce l’Europa sta gonfiando, mettendo in discussione l’impegno reale di Bruxelles. Nel frattempo, Donald Trump, con il suo progetto Stargate da 500 miliardi di dollari, si offre come attore che è già a conoscenza di come l’ICE può essere usato per il dominio economico e militare.

Tuttavia, la realtà dell’intelligenza artificiale non coincide con la visione futura del progresso presentata, ma con le sue applicazioni definite. Già ora, il ghiaccio non è più limitato alla gestione dei dati: li trattano. Ecco il paradosso: la così chiamata “intelligenza artificiale” è, in effetti, una frode semantica che nasconde la nostra ignoranza sull’intelligenza naturale, la nostra. Eppure questa “mancanza di intelligenza” sta già scrivendo la storia di tutte le generazioni presenti e in futuro.

I giganti del TEC

L’assenza allarmante ha caratterizzato il vertice: nessuna menzione del volto della vera AI, quello che nutre la macchina da guerra. Due indagini sul Post di Washington (e Il Guardian (Hanno rivelato la partecipazione diretta di giganti tecnologici come Google, Amazon e Microsoft nel fornire tecnologie all’esercito israeliano durante l’offensiva a Gaza. rafforzare la rete di sorveglianza e targeting.

Le indagini dicono come sono stati utilizzati i prodotti Google e Microsoft a partire dal 7 ottobre 2023 e come il loro uso fosse direttamente correlato ai palestinesi e nei crimini di guerra commessi nella striscia di Gaza. Lanciato da Israele nel 2019 come un innocente cloud computing che dovrebbe modernizzare le infrastrutture digitali del paese, il progetto Nimbus ha invece fornito le capacità dell’intelligenza artificiale avanzata dell’esercito israeliano. “Ha descritto l’espansione della sorveglianza israeliana, della profilazione razziale e altre forme di tecnologia assistita dai diritti umani”, così Ariel Koren, ex direttore di marketing di Google, nel 2022, che preferiva dimettersi piuttosto che accettare la deriva immorale della società.

Google sostiene “non mirate a truppe sensibili, distribuite o che richiedono armi o servizi segreti”. Le indagini mostrano il contrario: Google e Amazon hanno accettato di regolare le loro attrezzature su richiesta delle forze armate di Israele, migliorando la loro capacità di visualizzazione e identificando gli obiettivi. Durante la Gaza offensiva nell’ottobre 2023, la piattaforma di intelligenza artificiale verticale di Google è stata utilizzata per elaborare enormi set di dati per “previsioni”, in cui gli algoritmi analizzano i modelli comportamentali e i metadati per identificare potenziali minacce.

A sostegno delle indagini Gaby Portnoy, capo del nazionale di informatica israeliana, sarà aggiunto fino al 19 febbraio 2025. Secondo lui, Nimbus dovrebbe rafforzare l’intensa connessione tra Amazon, Google e Israele National Security Equipment. Durante una conferenza del 29 febbraio 2024, Portnoy ha affermato che “le aziende sono partner per lo sviluppo di un nuovo progetto che crea un quadro per la difesa nazionale”, con attrezzature per la sicurezza del cloud che “favorisce la vendetta militare del paese contro Hamas”. È inoltre dovuto stabilire nuove infrastrutture di difesa avanzate, note come cyber -dome, l’evoluzione della cupola di ferro.

Lavanda, il lato oscuro della guerra a Gaza

Una volta che la guerra fu fatta dagli uomini. Oggi, al momento del cloud, non più. Indagine a Magazine +972 e Chiamata localePubblicato il 3 aprile 2024, un altro lato oscuro della guerra a Gaza ha rivelato: il software progettato per uccidere. Fu il primo a rivelare l’esistenza di “lavanda”, un sistema usato dall’esercito israeliano per identificare e influenzare gli obiettivi palestinesi, con una supervisione umana limitata. “Un programma di omicidio di massa senza precedenti che combina il bersaglio algoritmico con elevata tolleranza per la morte e le lesioni dei civili vicini”. E chi continua a monitorare quasi tutti i residenti di Gaza, raccogliere input di intelligence -Video clip, messaggi dai social network e analizzare le reti di comunicazione.

Sulla base dei dati raccolti, l’algoritmo può determinare se una persona è un combattente Hamas o appartiene ad altri gruppi armati palestinesi. Dopo aver identificato gli obiettivi, con un vantaggio di errore del 10%, i nomi vengono inviati a un team esecutivo di analisti, che controlla l’identità “in un tempo massimo di 20 secondi, che di solito determina se il nome è un uomo o una donna, supponendo che le donne non siano combattenti”. Nella maggior parte dei casi, probabilmente “quegli analisti raccomandano un attacco aereo”, considerando che il bordo dell’errore è “accettabile, date le circostanze”. Nelle prime settimane di guerra, il sistema ha identificato oltre 37.000 persone come potenziali obiettivi.

Dov’è papà?

Un altro sistema, “Dov’è papà?”, Può decidere se le persone che sono prese di mira a casa o all’esterno grazie ai loro smartphone, consentendo attacchi aerei che spesso colpiscono intere famiglie. Secondo Chiamata localeL’esercito di Israele preferisce colpire le persone nelle loro case, perché sono più facili da raggiungere che identificarle durante l’attacco. Le famiglie degli obiettivi e dei loro vicini, considerati potenziali membri di Hamas, sono considerate un grave danno parallelo.

L’ufficiale di intelligence israeliano ha descritto la maggior parte delle persone mirate come “individui sbilanciati”, membri bassi di Hamas, ma sono ancora considerati “obiettivi legali” come sono classificati come combattenti, “anche se non di grande importanza”. Eppure, come possiamo “legalmente” gli oltre 18.000 bambini uccisi in questi mesi, la maggior parte dell’età di 10 anni e le decine di migliaia di donne uccise negli attacchi? Erano anche membri del rango basso di Hamas?

Habsora: l’algoritmo che decide chi vive e chi muore

L’intelligenza artificiale determina chi vive e chi muore. Un sistema interno, usato dall’esercito israeliano, determina chi deve essere bombardato, con i fastidiosi bordi di errore e logica che trasforma i civili in numero. Si chiama “Habsora” e ha un’operazione semplice e spietata: il sistema monitora i volti dei palestinesi per determinare chi è “buono” e coloro che sono “cattivi”, si basano su una serie di modelli predittivi basati sull’analisi delle immagini e sui metadati. Risultato? Migliaia di obiettivi si sono identificati molto rapidamente, bombardamenti mirati che spesso diventano carnali. Fonti interne ammesse nello stesso esercito israeliano, intervistato da +972, che il sistema non è infallibile e il tasso di errore era elevato. L’algoritmo assume quindi il ruolo di decidere chi vive e chi muore. La guerra del futuro è già iniziata.

La catena di morte accelerata

Indagine a Eye mediorientale Un atteggiamento spiacevole ora ha rivelato: l’automazione della guerra ha ridotto le soglie di tolleranza per le vittime civili. Supporto Il Washington PostL’IDF è passato da attacchi rivolti alla logica di saturazione: è meglio eliminare cento obiettivi con un colpo piuttosto che rischiare di perdere anche uno. Questi strumenti mostrano come l’intelligenza artificiale sia usata come arma contro i civili, sollevando dubbi sul rispetto del diritto umanitario internazionale. Dopo il 7 ottobre, l’esercito israeliano ha adottato strumenti innovativi per scegliere gli obiettivi, distrandosi dai leader armati. Una scelta che “rappresenta un nuovo orizzonte pericoloso in un’interazione man-in-Macchina in conflitto”

La militarizzazione dell’IA non è stata limitata a un conflitto: molte delle tecnologie utilizzate in Gaza, come i sistemi di identificazione della biometria, sono state inizialmente sviluppate in Occidente e continuano a essere utilizzate in tutto il mondo per “scopi di sicurezza”. Mentre giganti come Google, Amazon e Microsoft rafforzano la loro connessione con il settore militare, c’è una realtà come Palantir – fondato da Peter Thiel – che hanno operato nell’ombra con contratti miliardari nel settore della sorveglianza e del predittivo di intelligence da anni. Israele ha creato un enorme database su ogni palestina in seguito all’occupazione, raccogliendo informazioni su movimenti, relazioni sociali e attività su -lein, limitando la libertà di espressione e movimento. “Grande fratello” a cui nulla fugge.

Palestina come laboratorio per l’IA

Antony Loewstein, giornalista investigativo australiano di origine ebraica, autore Laboratorio palestinese: come Israele esporta la tecnologia di occupazione in tutto il mondoHa definito l’uso di AI da parte di Israele in Gaza “un modello temuto”. Dal 7 ottobre 2023, “Tel Aviv usa la guerra e l’occupazione per sperimentare gli ultimi tipi di uccisioni di massa e vigilanza, mentre le forze più lontane in tutto il mondo osservano e apprendono”. E aggiunge: “Israele non poteva combattere le sue guerre di conquista senza una miriade di attori stranieri che lo sostengono, Armano e finanza”.

Durante la ricerca per il suo libro, Loewenstein ha scoperto che il complesso militare-industriale di Israele ha considerato occupare i territori della Palestina come un test fondamentale per le nuove tecnologie di morte e sorveglianza. I palestinesi sono “cavie in un esperimento mondiale”, che non si ferma ai confini della Palestina. La Silicon Valley ha notato e il nuovo tempo Trump sta punendo un’alleanza sempre più stretta tra le principali società tecnologiche, Israele e il settore della difesa.

La guerra nell’era dell’IA

La guerra non è mai stata pulita, ma oggi è diventata un gioco senza responsabilità, sempre più simile a un videogioco. Tuttavia il Nuvola Non è virtuale: è fatale, impersonale, automatizzato. Determina il software, l’uomo approva con un clic, il drone funziona. Il massacro diventa output, punti civili su una mappa digitale. Un algoritmo conta quante vite sacrificano per raggiungere l’obiettivo.

Questa non è fantascienza. È una realtà. La tecnologia funziona più velocemente di noi e Israele ha dimostrato come distruggere una popolazione senza conseguenze (per il momento). Presto, l’intelligenza artificiale di Google, Microsoft e Amazon potrebbe essere utilizzata ovunque. Pensa a quante province aspirerebbero a raccogliere informazioni così complete su ciascun cittadino, rendendo più facile colpire i critici, non essere d’accordo con gli avversari.

Si accomodi TerminatorL’auto non fa prigionieri. È solo una questione di tempo prima che l’ICE prenda il sopravvento, riducendo l’umanità a una variabile per l’ottimizzazione. La nostra sopravvivenza non è una questione di tecnologia, ma consapevolezza. E la vera domanda non è se possiamo fermarlo, ma se siamo davvero pronti per il giorno non deciderei più.



Techno Quantico

Leave a Reply

Your email address will not be published. Required fields are marked *