Francesco D’Abbraccio, Andrea Facchetti (a cura di), AI & Conflicts Volume 1, Krisis Publishing, Brescia 2021, pp. 224, 20 euro
Ancora una volta la piccola, ma sempre interessante, Krisis Publishing di Brescia coglie nel segno con un testo sugli sviluppi attuali dell’utilizzo dell’Intelligenza Artificiale (AI) nei settori della comunicazione, dell’economia, della conoscenza e dell’arte. Lo fa non accontentandosi però dei soliti luoghi comuni a favore o contro lo sviluppo dei sistemi relazionali o di controllo resi possibili dalla stessa, ma sottolineando in maniera particolare il conflitto o i conflitti che derivano dal suo uso.
Scrivono i due curatori nell’introduzione:
L’intelligenza artificiale (AI) occupa una posizione chiave nell’ecosistema culturale contemporaneo. È una risorsa fondamentale per interpretare il mondo e per interagire con le grandi architetture di dati che lo popolano.
Nel 2016, un’era geologica fa in questo ambito, Andrew NG, professore a Stanford ed ex direttore di Google Brain, ne celebrava l’imminente avvento: “Come l’elettricità ha trasformato quasi tutto cento anni fa, fatico ad immaginare un settore che non verrà trasformato dall’AI nei prossimi anni”. Ebbene, il cambio di paradigma previsto da NG sembra oggi essere già in atto. L’AI non riguarda più il nostro futuro, ed è impiegata negli ambiti più disparati dell’attività umana, dalla medicina all’industria, dalla finanza alla domotica, dal marketing alla guerra. Non solo: essa modella il modo in cui sperimentiamo il mondo. Reti neurali e algoritmi “intelligenti” sono ampiamente utilizzati per rilevare, classificare e mappare il nostro comportamento, riconoscere le nostre emozioni, e influenzare le nostre scelte. Lavorano come “curatori invisibili” 1, prescrivendo ciò che dovremmo vedere, ascoltare, leggere e comprare. Ci sorvegliano, plasmano la nostra comprensione della realtà sociale e politica, e contribuiscono in definitiva a costruire il nostro quadro cognitivo. Essi intervengono inoltre nella creazione, nella manipolazione e nella disseminazione dei media e dei dispositivi di interazione sociale.
Un simile cambiamento non è certo passato inosservato alle attenzioni della critica. Negli ultimi anni, un’intera generazione di artisti, ricercatori e professionisti ha indagato la natura dei sistemi AI e delle loro relazioni con i contesti in cui opera2.
Proprio per questo motivo, in questo primo volume, i due curatori si sono avvalsi dei testi prodotti da FINN BRUNTON che insegna Media, Culture and Communication alla NYU Steinhardt dove si occupa di storia e teoria dei media digitali; KATE CRAWFORD, ricercatrice presso il Microsoft Research Lab e co-fondatrice dell’AI Now Institute della New York University, il primo istituto universitario dedicato alla ricerca sulle implicazioni sociali dell’intelligenza artificiale; SOFIA CRESPO, un’importante artista nel campo dell’arte AI; VLADAN JOLER insegnante presso il dipartimento di New Media (Università di Novi Sad), è a capo di SHARE Lab, un laboratorio di ricerca che esplora gli aspetti tecnici e sociali dello sfruttamento del lavoro digitale, delle infrastrutture invisibili e delle black box; LEV MANOVICH, uno dei più importanti teorici dei media studies; FEILEACAN MCCORMICK, un artista e ricercatore norvegese; HELEN NISSENBAUM, insegnante presso il Dipartimento di Scienze dell’Informazione della Cornell University; TREVOR PAGLEN, artista e ricercatore statunitense il cui lavoro si muove tra i confini di scienza, arte, giornalismo e tecnologia; MATTEO PASQUINELLI docente di Filosofia dei media all’Università di Arte e Design di Karlsruhe; SALVATORE IACONESI e ORIANA PERSICO che sono autori di diverse performance, pubblicazioni e opere esposte in tutto il mondo e lavorano insieme dal 2006; EYAL WEIZMAN che insegna Spatial and Visual Cultures presso la Goldsmiths University of London.
Come suggerisce il titolo, è il conflitto a dominare il discorso, nelle varie forme che è destinato ad assumere con l’applicazione dell’AI nel contesto di un capitalismo globalizzato che, più che tardo come qualcuno si ostina a chiamarlo oppure neo-liberale, si rivela semplicemente ancora una volta capace di trasformare, sempre più in profondità, le relazioni tra individuo e società, società e ambiente, conoscenza e controllo sociale, in funzione di un’accumulazione che sembra non potersi mai fermare. Una ricerca esasperata di nuove forme di estrazione di plusvalore e plusvalenze che stravolge tutti gli assetti economico-sociali e cognitivi, dal rapporto sempre più distruttivo con l’ambiente alle forme di conoscenza che ne derivano.
L’immagine dell’AI come un’ingombrante scatola nera che si inserisce nel tessuto ambientale e sociale globale introduce il terzo termine che dà titolo a questo volume. All’interno dei dispositivi e delle infrastrutture AI si nascondono infatti innumerevoli conflitti che, come abbiamo detto, investono l’intero ecosistema contemporaneo. La dimensione politica dell’AI va intesa come un campo di forze attraversato da vettori umani e non umani che, spesso in contrasto tra loro, generano frizioni, tensioni e conflitti: “l’intera
Realtà (proprio come la Storia) è un campo di battaglia, in cui miriadi di agency sono perennemente in lotta per affermare nuovi sistemi di interdipendenza”.
[…] Il primo conflitto ad emergere dal tentativo sopra descritto riguarda le condizioni, materiali e non, che abilitano l’ecosistema dell’AI. La comunità scientifica ha ricondotto l’emergere prepotente dell’intelligenza artificiale negli ultimi 20 anni ad almeno due recenti eventi significativi: l’aumento esponenziale della capacità di calcolo, grazie soprattutto allo sviluppo di schede video di nuova generazione, e l’enorme disponibilità di informazioni verso cui la computazione viene rivolta. Entrambi questi accadimenti affondano le proprie radici nello sviluppo industriale del XIX secolo e si sono consolidati nel corso del XX in due forme diverse, ma affini, di estrattivismo.
L’industria dell’hardware, necessaria ad alimentare i processi di apprendimento, è il prodotto dell’estrattivismo materiale, analizzato soprattutto nel saggio di Crawford e Joler. Come dimostra il caso del palaquium gutta riportato nel loro Anatomia di un sistema AI, lo sfruttamento delle risorse materiali — con conseguente distruzione di interi ecosistemi e interruzione di processi geologici millenari — non è solo un prodotto dell’infrastruttura AI: è condizione imprescindibile per la sua stessa esistenza. Visualizzare l’anatomia di un assistente vocale domestico e le storie di sfruttamento che vi si annidano diventa dunque un atto insieme linguistico e politico, che coinvolge cioè la sua narrazione e la nostra possibilità di comprenderlo e metterlo in discussione. È un gesto, questo, che si pone in aperta opposizione con “la metafora eterea del ‘cloud’” e che cerca invece di far emergere “la realtà fisica delle estrazioni minerarie e dell’espropriazione di intere popolazioni che la rendono possibile” (p.61).
L’industria che gravita intorno alla produzione, alla raccolta e alla distribuzione dei dati si rifà invece ad un altra forma di estrattivismo. Un estrattivismo cognitivo si sovrappone a quello materiale. Anche se il primo data center venne costruito nel 1965, è con la nascita e l’esplosione di massa del World Wide Web che vengono creati i presupposti per la società dei big data. Da allora, in pochi decenni la produzione di dati è diventata un’attività parassita, che si annida in qualsiasi ambito dell’agire umano: dalla tessera fedeltà del supermercato all’abbonamento alla metropolitana, dall’account su un social network al navigatore GPS. Ciascuna di queste attività genera dei dati che “possono essere impacchettati, venduti, raccolti, organizzati e acquisiti in molti modi, e infine riutilizzati per ragioni di cui noi, i sorvegliati, non siamo a conoscenza e a cui non abbiamo dato approvazione” (p.117). Nel loro saggio, Brunton e Nissenbaum ci mettono in guardia di fronte alle condizioni di profondo disequilibrio che sempre accompagnano questo tipo di attività: una asimmetria sia epistemica (“non sappiamo cosa ne sarà delle informazioni prodotte attraverso questo processo, né dove andranno o quale sarà il loro utilizzo”) che di potere (“raramente possiamo decidere se essere monitorati o no, cosa succede alle informazioni che ci riguardano e cosa accade a causa di queste informazioni”, p.118).
Appare dunque chiaro come l’emergere delle tecnologie AI sia già inscritto all’interno di un campo di forze che si articola secondo il modello dell’estrattivismo. Secondo Sandro Mezzadra e Brett Nielson3 esso costituisce il paradigma dello sviluppo capitalista e neoliberista del XXI secolo, e ci costringe a estendere il concetto stesso di estrazione per considerare “non solo l’appropriazione delle risorse naturali, ma anche, e per certi versi soprattutto, i processi che sfruttano la cooperazione umana e l’attività sociale”4.