Su società disciplinari, tecnologie di sorveglianza e biopolitica di domani: come Israele sta testando il campo palestinese

Il potere, ha scritto il filosofo Michel Foucault nel suo Sorvegliare e Punire (1976), si articola direttamente sul tempo: ne assicura il controllo e ne garantisce l’uso. A questo, due dimensioni fondamentali vanno aggiunte: lo spazio, spesso angusto, e il controllo della visibilità. Scrive ancora Foucault: si esercita la forza della disciplina per mezzo dell’invisibilità.

Cinquant’anni dopo quella pubblicazione, durante il primo genocidio compiuto ai tempi dell’intelligenza artificiale, la società disciplinare israeliana può fare affidamento su un sistema di tecnologia della sorveglianza di un’accuratezza senza precedenti – insieme alla complicità delle potenze occidentali. Un apparato di strumenti altamente sofisticati ha reso possibile non tanto il compimento, quanto il mantenimento dell’occupazione per quasi sessant’anni. I cosiddetti smart walls, muri intelligenti, i sistemi di riconoscimento facciale, i dati biometrici, i droni, sono tutti strumenti utilizzati per controllare i palestinesi, per dividerli, sorvegliarli e punirli, infine.

Riflettendo sulla nascita delle prigioni come infrastrutture punitive alternative alla fustigazione pubblica – sempre basate sulla gestione biopolitica dei corpi criminali, ma sulla loro segregazione, più che sulla performance torturale – così Foucault attinge al Panopticon di Jeremy Bentham: mettendone la semplice e brutale architettura in relazione al concetto di potere e sorveglianza, e cioè conoscenza. Potere non è solo sapere, in ogni momento e in ogni luogo, cosa stia facendo il proprio obiettivo, la percentuale di rischio corribile per la sua eliminazione; ma è anche, e soprattutto, privare l’avversario dell’accesso al campo di visibilità: così che, se la vittima è certamente, minuziosamente identificata, il carnefice non lo sarà, diluito nella nebulosa complicità di un acronimo – IDF -, impossibile da perseguire per il crimine di cui è responsabile.

Conosciamo il principio su cui si basava il Panopticon: alla periferia, una costruzione ad anello; al centro, una torre tagliata da larghe finestre che si aprono verso la faccia interna dell’anello; la costruzione periferica è divisa in celle, ciascuna delle quali si estende per tutta la larghezza dell’edificio; le celle hanno due finestre, una interna, corrispondente alla torre; l’altra esterna, che permette alla luce di attraversare la stanza da un’estremità all’altra. Basta allora collocare un sorvegliante in una torre centrale e rinchiudere in ogni cella un pazzo, un malato, un condannato, un operaio o uno scolaretto. O qualsiasi palestinese. Per effetto del controluce, si potranno osservare dalla torre, stagliandosi come sagome, le piccole ombre prigioniere nelle celle della periferia.

Il Panopticon, così descritto, è una macchina per dissociare la coppia vedere-essere visto: nell’anello periferico si è visti totalmente, senza mai vedere; mentre nella torre centrale si vede tutto, senza essere mai visti.

Cinquant’anni dopo, anche se la tecnologia è cambiata, i principi ideologici della sorveglianza rimangono gli stessi. Così come gli effetti sui corpi monitorati e puniti: i corpi monitorati e puniti dei palestinesi.

Visibile e non verificabile

Questa visibilità permanente è diventata un modo per esercitare il potere in quelle che Foucault ha descritto come ‘società disciplinari’ – e ciò che Israele si ostina a chiamare ‘misure di sicurezza’: così facendo, l’ispettore israeliano induce nel detenuto palestinese uno stato di cosciente percettibilità. Il potere, quindi, anche nell’era dell’intelligenza artificiale, è sempre visibile e non verificabile.

Poichè visibile, il detenuto avrà costantemente davanti agli occhi l’alta sagoma della torre centrale da cui viene spiato; in quanto non verificabile, non dovrà mai sapere se in un dato momento è osservato: deve però essere sicuro di poterlo essere sempre, potenzialmente. Nessun bisogno di forzare: la pura osservazione è sufficiente, secondo Foucault, per “costringere il condannato alla buona condotta, il pazzo alla calma, l’operaio al lavoro, lo scolaro all’applicazione, il malato all’osservanza delle norme”. Il palestinese – alla capitolazione.

Teoricamente, chi è sottoposto a un campo di visibilità, e lo sa, si assume la responsabilità dei vincoli del potere; li fa suonare spontaneamente su se stesso; iscrive in sé il rapporto di disciplina in cui svolge contemporaneamente entrambi i ruoli – ispettore e detenuto; diventa il principio della propria sudditanza.

In quanto tale, l’organismo monitorato, disciplinato e punito, arriva ad esercitare l’autocontrollo. Perché non importa chi occupi la torre di guardia – chi, nella Gaza di oggi, controlli a distanza il drone -, e nemmeno se la prima sia abitata, e il secondo guidato in modo automatico: il potere non appartiene a nessuno; funziona automaticamente ed è costantemente presente attraverso lo sguardo penetrante della torre di guardia, del drone volante.

Il Panopticon così delineato si dimostra uno straordinario strumento di sorveglianza: i pochissimi mantenendo un occhio costante e vigile su ogni movimento dei molti. Proprio come il laboratorio Palestina insegna.

Laboratorio Palestina

L’elenco dei dispositivi spyware e dei sistemi di sorveglianza israeliani – mirati principalmente al controllo biopolitico dei corpi palestinesi e alla repressione del dissenso – è lungo e allarmante.

Pegasus, ad esempio, uno spyware israeliano estremamente sofisticato, realizzato dalla società NSO Group, consente ai dipartimenti governativi di tutto il mondo di catturare contenuti provenienti dai telefoni cellulari. Anche se disattivato, lo spyware ha comunque accesso al microfono e alla fotocamera del telefono, nonché alla galleria e alle e-mail: una versione 2.0 della sorveglianza predetta da Foucault, tascabile, eppure solo la punta dell’iceberg di ciò che Israele sta testando in Palestina da decenni. Secondo quanto riferito, tecnologie di sorveglianza sono state ripetutamente sperimentate in Palestina, collaudate sui corpi palestinesi.

Lo stesso allineamento ideologico che si è sviluppato tra regimi repressivi, nel Sud Africa dell’apartheid, nel Cile di Pinochet, nel Ruanda del 1994, o più recentemente in Birmania durante il genocidio dei Rohingya, o nell’India ultranazionalista di Modi, è stato ora elevato a una nuova dimensione: oltre la semplici vendite di armi che collegano questi paesi con lo stato sionista, all’esordio del ventunesimo secolo, Israele è diventato un’ispirazione chiave globale dell’etno-nazionalismo esercitato dalla coercizione attraverso l’IA.

Molti dei casi sopra menzionati, insieme all’Arabia Saudita, al Bangladesh, agli Emirati Arabi Uniti e persino all’Unione Europea, con la sua agenzia di guardia di frontiera e costiera Frontex, hanno acquistato ampiamente spyware da Israele: per controllare il dissenso, le minoranze o la cosiddetta ‘crisi migratoria’ del 2015: l’occhio celeste, che osserva ciò che accade sulla superficie dell’acqua. Lo stesso complesso industriale che domina il confine tra Stati Uniti e Messico, sotto forma di torri di sorveglianza realizzate da Elbit, la principale società di difesa israeliana, un muro digitale ad alta tecnologia testato per la prima volta in Palestina, in Cisgiordania e lungo la linea di confine tra Israele e la Striscia.

Per citare un altro dei suoi strumenti, una recente indagine congiunta della rivista online della sinistra israeliana +972 e del sito di notizie in lingua ebraica Local Call, ha rivelato l’esistenza di un programma basato sull’intelligenza artificiale chiamato Lavender, sviluppato dalle Forze di Difesa israeliane per identificare obiettivi umani. Lavender, tenuto nascosto fino a un paio di settimane fa, avrebbe avuto un ruolo significativo negli attacchi contro i palestinesi delle prime settimane della rappresaglia al 7 ottobre: secondo le fonti, la sua influenza sulle operazioni dei militari era tale che questi trattavano essenzialmente gli output della macchina “come se fossero decisioni umane”.

Durante le prime fasi dell’assalto a Gaza, l’esercito ha dato ampia approvazione agli ufficiali affinché adottassero le liste di uccisione di Lavender, senza alcun obbligo di verificare approfonditamente il motivo per cui la macchina ha fatto quelle scelte o di esaminare i dati grezzi di intelligence su cui si basavano. L’indagine ha dimostrato che il personale umano spesso fungeva solo da ‘timbro’ per le decisioni della macchina, dedicando personalmente circa venti secondi a ciascun bersaglio prima di autorizzare un bombardamento: per assicurarsi che il bersaglio contrassegnato da Lavender fosse di sesso maschile. Venti secondi – la porzione di tempo diventata sufficiente, all’uomo, per permettere che la macchina prenda il controllo della vita e della morte, pur sapendo che il sistema commette errori in circa il 10 percento dei casi, e che spesso segna individui che hanno un collegamento indiretto con i gruppi militanti – se non nessun collegamento. Il risultato: migliaia di palestinesi, la maggior parte dei quali donne e bambini, o persone che non erano coinvolte nei combattimenti, sono stati spazzati via dagli attacchi aerei israeliani a causa delle decisioni del programma IA.

L’elenco potrebbe continuare: un ulteriore sistema automatizzato, chiamato Where’s Daddy? – dov’è papà? – è stato utilizzato specificamente dalle forze israeliane per attaccare obiettivi palestinesi mentre si trovavano nelle loro case – di solito di notte, in presenza delle intere famiglie – piuttosto che nel corso di un’attività militare. Macchinalmente, non soloè più facile localizzare le persone nelle loro abitazioni: ma è anche più economico. La preferenza per i missili non guidati rispetto alle bombe di precisione, queste ultime ben più costose, ha causato il deliberato crollo di interi edifici. ‘Danno collaterale’ – come lo chiamano. Preventivamente, i militari hanno autorizzato l’uccisione di un massimo di 15 o 20 civili per ogni giovane agente di Hamas marchiato da Lavender: e fino a 100 per un alto funzionario. ‘Il diritto all’autodifesa’, come lo chiamano.

Filosofia post-Gaza

Nell’introduzione al suo intervento di martedì 16 aprile, il Professore all’Università Americana di Beirut (AUB) Harry Halpin, co-fondatore di Nym – una startup che costruisce un mixnet decentralizzato per porre fine alle strategie di sorveglianza di massa – ha proposto un interrogativo sul futuro della filosofia, se ne esisterà alcuno, dopo Gaza. Citando Theodor Adorno che definì “un atto di barbarie” scrivere poesie dopo Auschwitz, Halpin ha allineato l’Olocausto e il genocidio in corso su Gaza – sulla sua popolazione, sulle sue infrastrutture, sulla sua archeologia – come due momenti apicali in cui ha luogo la fase finale della dialettica tra cultura e crudeltà. In altre parole, intrappolati in un momento da lui definito “puramente negativo”, il mestiere dei filosofi è giunto al termine – sostituito dal gergo dell’autenticità, della ricerca della verità.

Non solo. Ciò che Gaza sta dimostrando al mondo inerme è che l’industrializzazione razionalizzata dell’uccidere attuata dalla Germania nazista – non solo contro gli ebrei, ma contro altre minoranze etniche e oppositori politici – ha raggiunto uno stadio ulteriore: quello dell’intelligenza artificiale. La massiccia macchina di morte messa a punto nell’ultimo secolo, lungi dall’essere abolita, è stata dispersa. Le sue tecnologie – disponibili sul mercato per la crescente domanda di potenze etno-nazionaliste.

Tuttavia, sarebbe fuorviante – e funzionale alla narrativa israeliana – credere alla pura automatizzazione del genocidio. Dietro la macchina, anche se solo per pochi secondi, sempre c’è l’essere umano. Come l’inconsapevolezza criminale di Adolf Eichmann sfidata da Hannah Arendt nel processo di Gerusalemme. Con la differenza che oggi, mentre la tecnologia industriale va trasformandosi in una cibernetica universalizzante, la predetta definizione del mondo da parte dell’intelligenza artificiale continua a barbarizzare la Palestina, a farla a pezzi. Dall’uso sconsiderato dell’high-tech, agli attacchi guidati che rivendicano il tasso di ‘falsi positivi’ tra i morti civili; dalla sorveglianza di massa consentita dalle grandi aziende tecnologiche di Google e Amazon, al complice cerchiobottismo delle potenze occidentali – tutto porterebbe a credere, e falsamente, che l’azione umana sia davvero sostituibile dall’intelligenza artificiale.

Disumanizzare le responsabilità rischia di esonerare le persone responsabili dal commettere crimini reali: al punto che siamo finiti per umanizzare le macchine, credendole responsabili della distruzione in corso, e reificare il popolo di Gaza, proprio come macchine sacrificabili.

Criticando questa perversione, ha affermato Halpin, la filosofia deve e può ristabilire il suo carattere politico, un carattere disperatamente scomparso man mano che la morte dei palestinesi viene normalizzata. Eppure, per fermare il genocidio su Gaza non basta la debole capacità di denuncia: ciò che è necessario è la creazione di nuove forme di politica e tecnologia come base per una nuova, controtendente rivoluzione globale.

Due vie

Per farla breve, ci sono due modi per guardare al laboratorio Palestina. Il primo: se si tratta davvero del terreno di prova per le guerre del futuro; se i checkpoint della Cisgiordania sono il campo di perfezionamento di muri sempre più sofisticati; e Gaza lo specchio di ciò che distruzione di massa significherà, d’ora in avanti, allora il complesso militare-industriale israeliano che da sessant’anni usa l’occupazione illegale come un laboratorio per armi e tecnologie di sorveglianza continuerà a esportare in tutto il mondo, alimentando conflitti, violenze e abusi, impunemente: il margine di errore decrescendo al crescere della potenza distruttiva. E l’atrocità del danno collaterale trovandoci anestetizzati, pronti alla sua muta accettazione.

Ma se laboratorio Palestina è anche esempio di resistenza al sorvegliare e punire; se l’autoregolamentazione prevista dal Panopticon con Gaza fallisce, e il popolo palestinese non si fa soggiogare, e resiste, allora c’è, forse, un’altra sperimentazione in corso: controdirezionale, di rifiuto di catene e di muri, a cui potranno guardare, e ispirarsi, le resistenze alle occupazioni di domani.