8 Maggio 2023
the Guardian

Le intelligenze artificiali non hanno “allucinazioni”. I loro creatori sì

di Naomi Klein


I CEO del settore tecnologico vogliono farci credere che l’IA generativa porterà benefici all’umanità. Si stanno prendendo in giro da soli.


Tra i molti dibattiti che ruotano intorno alla rapida diffusione della cosiddetta intelligenza artificiale, c’è un conflitto relativamente oscuro incentrato sulla parola “allucinazione”.

Questo è il termine scelto da architetti e fautori dell’intelligenza artificiale generativa, per descrivere le risposte del tutto inventate o sbagliate fornite dai chatbot. Come per esempio quando si chiede a un bot la definizione di qualcosa che non esiste e lui, in modo piuttosto convincente, ce ne dà una, completa di note a piè di pagina inventate. «Nessuno del campo ha ancora risolto i problemi di allucinazione», ha dichiarato recentemente a un intervistatore Sundar Pichai, CEO di Google e Alphabet.

È vero, ma perché chiamare gli errori “allucinazioni”? Perché non “spazzatura algoritmica”? O glitch (problema tecnico)? L’allucinazione si riferisce alla misteriosa capacità del cervello umano di percepire fenomeni che non sono presenti, almeno non in termini convenzionali e materialistici. Appropriandosi di una parola comunemente usata in psicologia, nella psichedelia e in varie forme di misticismo, i sostenitori dell’IA, pur riconoscendo la fallibilità delle loro macchine, stanno contemporaneamente alimentando la mitologia più cara al settore: quella secondo cui, costruendo questi grandi modelli linguistici e addestrandoli su tutto ciò che noi umani abbiamo scritto, detto e rappresentato visivamente, i fautori dell’IA stanno mettere al mondo un’intelligenza animata che è sul punto di innescare un salto evolutivo per la nostra specie. Altrimenti come farebbero bot come Bing e Bard a volteggiare nell’etere?

Certamente nel mondo dell’intelligenza artificiale sono in atto allucinazioni distorte, ma non sono i bot ad averle; sono i CEO delle imprese tecnologiche che li hanno scatenati, insieme a una falange di loro fan, a essere in preda ad allucinazioni selvagge, sia individualmente che collettivamente. Definisco l’allucinazione non in senso mistico o psichedelico, ovvero stati di alterazione della mente che possono effettivamente aiutare ad accedere a verità profonde e non percepite in precedenza. No. Queste persone sono semplicemente in trip: vedono, o almeno sostengono di vedere, prove che non ci sono affatto, persino evocando interi mondi che metteranno i loro prodotti al servizio del nostro miglioramento e della nostra istruzione universale.

L’intelligenza artificiale generativa porrà fine alla povertà, ci dicono. Curerà tutte le malattie. Risolverà il cambiamento climatico. Renderà i nostri lavori più significativi ed emozionanti. Scatenerà vite piene di contemplazione e svago, aiutandoci a recuperare l’umanità che abbiamo perso a causa della meccanizzazione del tardo capitalismo. Metterà fine alla solitudine. Renderà i nostri governi razionali e reattivi. Temo che queste siano le vere allucinazioni dell’IA e le abbiamo sentite in continuazione da quando Chat GPT è stato lanciato alla fine dell’anno scorso.

Esiste un mondo in cui l’IA generativa, come strumento potente di ricerca predittiva e come esecutore di compiti noiosi, potrebbe essere davvero utilizzata a beneficio dell’umanità, delle altre specie e della comunità. Ma perché ciò accada, queste tecnologie dovrebbero essere impiegate all’interno di un ordine economico e sociale molto diverso dal nostro, ovvero di un sistema che abbia come scopo la soddisfazione dei bisogni umani e la protezione di tutto l’ecosistema a sostegno della vita. E come sanno bene quelli di noi che al momento non stanno incappando in errori, il nostro sistema attuale non è affatto così. Piuttosto, è costruito per massimizzare il ricavo di ricchezza e profitto, sia dagli esseri umani che dal mondo naturale, una realtà che ci ha portato a quella che potremmo definire la fase tecno-necro del capitalismo. In questa realtà fatta di potere e ricchezza iper-concentrati, l’intelligenza artificiale, lungi dall’essere all’altezza di tutte quelle allucinazioni utopiche, è molto più probabile che diventi un temibile strumento di ulteriore espropriazione e razzia.

Approfondirò il perché di questa situazione. Ma prima è utile riflettere sul perché e a chi siano utili le allucinazioni utopiche sull’IA. Che operazione stanno facendo nella cultura queste storie benevole, nel momento in cui ci imbattiamo in questi nuovi e strani strumenti? Ecco un’ipotesi: si tratta di storie di copertura potenti e allettanti, per quello che potrebbe rivelarsi il furto più grande e ambizioso della storia umana. Perché stiamo assistendo all’appropriazione unilaterale della totalità della conoscenza umana che esiste in forma digitale, raggiungibile da chiunque, da parte delle aziende più ricche della storia (Microsoft, Apple, Google, Meta, Amazon…) per blindarla all’interno di prodotti proprietari, molti dei quali prenderanno di mira direttamente gli esseri umani, che con il lavoro di una vita hanno istruito le macchine senza dare il loro permesso né consenso.

Questo non dovrebbe essere legale. Nel caso di materiale protetto da copyrigh (compreso questo giornale) che, come sappiamo, ha addestrato i modelli, sono state intentate diverse cause per sostenere che si tratta di una pratica chiaramente illegale. Perché, ad esempio, una società a scopo di lucro dovrebbe essere autorizzata a inserire i dipinti, i disegni e le fotografie di artisti viventi in un programma come Stable Diffusion o Dall-E 2, che può generare copie delle opere di quegli stessi artisti, con profitti vanno a tutti tranne che agli autori?

La pittrice e illustratrice Molly Crabapple sta contribuendo a guidare un movimento di artisti che sfidano questo furto. «Le IA generatrive nel campo dell’arte sono addestrate su enormi insiemi di dati, contenenti milioni e milioni di immagini protette da copyright, raccolte senza che i loro creatori ne siano a conoscenza, tanto meno con un compenso o un consenso. Si tratta di fatto del più grande furto d’arte della storia. Perpetrato da aziende dall’apparenza rispettabile, sostenute dal capitale di rischio della Silicon Valley. È una rapina alla luce del sole.», si legge in una nuova lettera aperta di cui lei è una delle autrici.

Il trucco, naturalmente, è che la Silicon Valley è solita chiamare il furto “disruption” [crollo del sistema], e troppo spesso la fa franca. Conosciamo questa mossa: avanzare in un territorio non ancora regolamentato; sostenere che le vecchie regole non si applicano alla nuova tecnologia; urlare che la regolamentazione aiuterà solo la Cina – il tutto mentre hai il tuo solido tornaconto. Quando tutti noi saremo oltre la novità di questi nuovi giocattoli e inizieremo a fare un bilancio dei danni sociali, politici ed economici, la tecnologia sarà già così onnipresente che i tribunali e i politici non potranno che tirarsi indietro. Lo abbiamo visto con la digitalizzazione di libri e opere d’arte di Google. Con la colonizzazione dello spazio di Musk. Con l’assalto di Uber all’attività dei taxi. Con l’attacco di Airbnb al mercato degli affitti. Con la promiscuità di Facebook con i nostri dati. Non chiedete il permesso, dicono i distruttori, chiedete scusa (e oliate le domande con generosi contributi agli ingranaggi delle campagne elettorali).

In The Age of Surveillance Capitalism (“Il capitalismo della sorveglianza”), Shoshana Zuboff descrive minuziosamente il modo in cui Google ha aggirato le norme sulla privacy per fare le mappe di Street View, inviando le sue auto dotate di telecamere a fotografare le vie e gli esterni delle nostre case. Quando sono iniziate le cause in difesa dei diritti alla privacy, Street View era già così onnipresente sui nostri dispositivi (e così bella, e così comoda…) che pochi tribunali sono stati disposti a intervenire, tranne in Germania.

Ora la stessa cosa che è accaduta all’esterno delle nostre case sta accadendo alle nostre parole, alle nostre immagini, alle nostre canzoni, alle nostre intere vite digitali. Oggi tutti vengono sequestrati e utilizzati per addestrare le macchine a simulare il pensiero e la creatività. Queste aziende sanno di essere impegnate in un furto, o perlomeno sanno che è possibile dimostrarlo. Sperano solo che il vecchio copione funzioni ancora una volta, cioè che la portata del furto sia già così grande e che si stia svolgendo con tale rapidità da indurre tribunali e politici ad alzare le mani di fronte alla presunta inevitabilità di tutto questo.

È anche per questo che le allucinazioni su tutte le cose meravigliose che farà l’IA per l’umanità sono così importanti. Perché le loro nobili affermazioni travestono da dono questo furto di massa, e intanto aiutano a razionalizzare gli innegabili pericoli dell’IA.

Ormai la maggior parte di noi ha sentito parlare del sondaggio che ha chiesto a ricercatori e sviluppatori di IA di stimare la probabilità che i sistemi avanzati di IA causino «l’estinzione umana o una grave e permanente riduzione della specie umana». In modo agghiacciante, la risposta media è stata che c’era una probabilità del 10%.

Come si fa a razionalizzare il fatto che si vada a lavorare per realizzare strumenti che comportano tali rischi per l’esistenza? Spesso, la ragione addotta è che questi sistemi presentano anche enormi vantaggi potenziali, solo che questi vantaggi sono, per la maggior parte, allucinazioni. Analizziamo alcuni di dei vantaggi più bizzarri.

Allucinazione n. 1: l’IA risolverà la crisi climatica

Quasi sempre in cima agli elenchi dei vantaggi dell’IA c’è l’affermazione che risolverà in qualche modo la crisi climatica. Lo abbiamo sentito dire da tutti, dal World Economic Forum al Council on Foreign Relations, fino al Boston Consulting Group, che spiega che l’IA «può essere utilizzata per supportare tutte le parti interessate ad adottare un approccio più informato e guidato dai dati per combattere le emissioni di carbonio e costruire una società più verde. Può anche essere impiegata per riequilibrare gli sforzi globali per il clima verso le regioni più a rischio». L’ex CEO di Google, Eric Schmidt, ha riassunto il caso quando ha dichiarato all’Atlantic che vale la pena di correre i rischi dell’IA, perché «se si pensa ai problemi più grandi del mondo, sono tutti molto difficili: il cambiamento climatico, le organizzazioni umane e così via. Quindi, voglio che le persone siano sempre più intelligenti».

Secondo questa logica, l’incapacità di “risolvere” grandi problemi come il cambiamento climatico è dovuta a un deficit di intelligenza. Non importa che persone intelligenti, con tanto di dottorati e premi Nobel, abbiano detto ai nostri governi per decenni che cosa si deve fare per uscire da questo pasticcio: ridurre le emissioni, non estrarre combustibili fossili, affrontare il sovraconsumo dei ricchi e il sottoconsumo dei poveri perché nessuna fonte di energia è esente da costi ecologici.

Questo consiglio molto intelligente è stato ignorato non per un un problema di comprensione, o perché in qualche modo abbiamo bisogno di macchine che pensino per noi. È perché fare ciò che la crisi climatica ci richiede significherebbe bloccare trilioni di dollari di risorse di combustibili fossili e sfidare il modello di crescita basato sul consumo, che è alla base delle nostre economie interconnesse. La crisi climatica non è, infatti, un mistero o un enigma che non abbiamo ancora risolto a causa di dati non sufficientemente robusti. Sappiamo cosa sarebbe necessario, ma non è una soluzione rapida: è un cambio di paradigma. Aspettare che le macchine sfornino una risposta più appetibile e/o redditizia non è una cura per questa crisi, ma un ulteriore sintomo.

Elimina le allucinazioni, e ti sembrerà più probabile che l’IA è introdotta sul mercato in modi che aggravano attivamente la crisi climatica. In primo luogo, i server giganti che rendono possibile la produzione istantanea di saggi e opere d’arte da parte dei chatbot sono una fonte enorme e crescente di emissioni di carbonio. In secondo luogo, dal momento che aziende come Coca-Cola iniziano a fare ingenti investimenti per utilizzare l’intelligenza artificiale generativa per vendere più prodotti, sta diventando fin troppo chiaro che questa nuova tecnologia sarà utilizzata nello stesso modo in cui è stata utilizzata l’ultima generazione di strumenti digitali: ciò che inizia con promesse altisonanti circa la diffusione della libertà e della democrazia finisce per spedirci pubblicità mirate, per indurci a comprare sempre più cose inutili, che producono emissioni di carbonio.

C’è poi un terzo fattore, un po’ più difficile da individuare. Più i nostri canali mediatici vengono inondati da deep-fake (notizie profondamente false) e cloni di vario genere, più abbiamo la sensazione di sprofondare nelle sabbie mobili dell’informazione. Geoffrey Hinton, spesso definito “il padrino dell’IA” perché la rete neurale che ha sviluppato più di dieci anni fa forma gli elementi costitutivi degli attuali modelli linguistici di grandi dimensioni, lo sa bene. Ha appena lasciato un ruolo dirigenziale in Google per poter parlare liberamente dei rischi della tecnologia che ha contribuito a creare, tra cui, come ha dichiarato al New York Times, il rischio che le persone «non siano più in grado di sapere cosa è vero».

Questo è molto importante in relazione all’affermazione secondo cui l’IA aiuterà a combattere la crisi climatica. Perché quando diffidiamo di tutto ciò che leggiamo e vediamo i nostri media come sempre più inquietanti, ci ritroviamo ancora meno attrezzati per risolvere i pressanti problemi collettivi. La crisi di fiducia è precedente a ChatGPT, ovviamente, ma è indubbio che la proliferazione di deep-fake sarà accompagnata da un aumento esponenziale delle culture cospirative già ora fiorenti. Che differenza farà, quindi, se l’intelligenza artificiale si inventerà delle scoperte tecnologiche e scientifiche? Se il tessuto della realtà che condividiamo si sta disfacendo nelle nostre mani, ci troveremo incapaci di rispondere con coerenza.

Allucinazione n. 2: l’IA ci governerà con saggezza

Questa allucinazione evoca un futuro prossimo in cui i politici e i burocrati, attingendo alla vasta intelligenza aggregata dei sistemi di IA, saranno in grado di «vedere i modelli di bisogno e sviluppare programmi basati sull’evidenza» che produrranno maggiori benefici per i loro elettori. Questa affermazione proviene da un documento pubblicato dalla fondazione del Boston Consulting Group, ma trova eco in molti think-tank e società di consulenza manageriale. Ed è significativo che proprio queste società – quelle assunte da governi e aziende per individuare i risparmi sui costi, spesso licenziando un gran numero di lavoratori – siano state le più veloci a salire sul carro dell’IA. PwC (ex PricewaterhouseCoopers) ha appena annunciato un investimento di un miliardo di dollari, mentre Bain & Company e Deloitte sarebbero entusiaste di utilizzare questi strumenti per rendere i loro clienti più “efficienti”.

Come per le affermazioni sul clima, è necessario porsi un interrogativo: il motivo per cui i politici impongono politiche crudeli e inefficaci è che soffrono per mancanza di evidenze? Sarebbe un’incapacità di “vedere gli schemi”, come suggerisce il documento del BCG? Davvero non comprendono i costi umani quando tolgono risorse all’assistenza sanitaria pubblica in mezzo alle pandemie, o quando non investono in edilizia pubblica viste le tende che riempiono i nostri parchi urbani, o quando approvano nuove infrastrutture per i combustibili fossili mentre le temperature salgono? Hanno bisogno che l’intelligenza artificiale li renda “più intelligenti”, per usare il termine di Schmidt, o sono abbastanza intelligenti da sapere chi finanzierà la loro prossima campagna elettorale e che, se si allontanano dalle sue aspettative, finanzierà i loro rivali?

Sarebbe molto bello se l’intelligenza artificiale fosse davvero in grado di recidere il legame tra il denaro delle aziende e la politica sconsiderata, ma questo legame ha completamente a che fare con il motivo per cui aziende come Google e Microsoft sono state autorizzate a rilasciare i loro chatbot al pubblico, nonostante la valanga di avvertimenti e i rischi noti. Schmidt e altri hanno condotto per anni una campagna di lobbying per dire a entrambi i partiti di Washington che se non fossero stati liberi di andare avanti con l’IA generativa, senza essere intralciati da una seria regolamentazione, le potenze occidentali non sarebbero state al passo con la Cina. L’anno scorso, le principali aziende tecnologiche hanno speso la cifra record di 70 milioni di dollari per fare pressione su Washington – più del settore petrolifero e del gas – e questa somma, osserva Bloomberg News, si aggiunge ai milioni spesi «per la loro vasta gamma di gruppi commerciali, organizzazioni non profit e think-tank».

Eppure, nonostante la conoscenza di come il denaro plasmi la politica nelle nostre capitali nazionali, sembra tutto dimenticato quando si ascolta Sam Altman, l’amministratore delegato di OpenAI (produttrice di ChatGPT), parlare degli scenari migliori per i suoi prodotti. Sembra che lui abbia l’allucinazione di un mondo completamente diverso dal nostro, un mondo in cui i politici e l’industria prendono le decisioni migliori basate sui dati e non metterebbero mai a repentaglio vite umane per profitto e vantaggio geopolitico. Il che ci porta a un’altra allucinazione.

Allucinazione n. 3: fidarsi che i giganti tecnologici non distruggano il mondo

Alla domanda se è preoccupato per la frenetica corsa all’oro che ChatGPT ha già scatenato, Altman ha risposto che lo è, ma ha aggiunto fiduciosamente: «Speriamo che tutto si risolva». Dei suoi colleghi amministratori delegati del settore tecnologico – quelli che competono per far emergere i loro chatbot rivali – ha detto: «Penso che gli angeli migliori vinceranno».

Angeli migliori? A Google? Sono abbastanza certa che l’azienda abbia licenziato la maggior parte di loro perché pubblicavano articoli critici sull’IA o denunciavano il razzismo e le molestie sessuali sul posto di lavoro. Altri “angeli migliori” si sono dimessi allarmati, da ultimo Hinton. Questo perché, contrariamente alle allucinazioni delle persone che traggono maggior profitto dall’IA, Google non prende decisioni in base a ciò che è meglio per il mondo, ma in base a ciò che è meglio per gli azionisti di Alphabet, che non vogliono perdersi l’ultima bolla, non quando Microsoft, Meta e Apple sono già tutti dentro.

Allucinazione n. 4: l’intelligenza artificiale ci libererà dal lavoro

Se le benevole allucinazioni della Silicon Valley sembrano plausibili a molti, il motivo è semplice. L’IA generativa si trova attualmente in quella che potremmo definire la fase del finto socialismo. Questo fa parte di una procedura ormai familiare alla Silicon Valley. Per prima cosa, si crea un prodotto attraente (un motore di ricerca, uno strumento di mappatura, un social network, una piattaforma video, un servizio di ride sharing…); lo si mette a disposizione gratuitamente o quasi per alcuni anni, senza un modello di business percorribile («Giocate con i bot», ci dicono, «vedrete che cose divertenti potrete creare!»); si fanno un sacco di dichiarazioni altisonanti sul fatto che lo si sta facendo solo per creare una “piazza cittadina” o un “bene comune dell’informazione” o “per connettere le persone”, il tutto diffondendo la libertà e la democrazia (e non “per cattiveria”). Poi si sta a guardare come la gente si appassiona a questi strumenti gratuiti e i come i propri concorrenti dichiarano bancarotta. Una volta che il campo è libero, si introducono gli annunci mirati, la sorveglianza costante, i contratti con la polizia e i militari, la vendita di dati black-box e tariffe di abbonamento sempre più alte.

Molte vite e settori sono stati decimati da precedenti versioni di questo schema, dai tassisti ai mercati degli affitti ai giornali locali. Con la rivoluzione dell’IA, questo tipo di perdite potrebbe sembrare un errore di arrotondamento: insegnanti, programmatori, artisti visivi, giornalisti, traduttori, musicisti, operatori sanitari e molti altri si troveranno di fronte alla prospettiva di veder sostituito il proprio reddito da un codice difettoso.

Non preoccupatevi, gli appassionati di IA hanno le allucinazioni: sarà meraviglioso. A chi piace lavorare? L’IA generativa non sarà la fine del lavoro, ci dicono, ma solo del “lavoro noioso”, con i chatbot che si occuperanno di tutti i compiti ripetitivi che distruggono l’anima e gli umani che si limiteranno a supervisionarli. Altman, da parte sua, vede un futuro in cui il lavoro «può essere un concetto più ampio, non qualcosa che si deve fare per poter mangiare, ma qualcosa che si fa come espressione creativa e un modo per trovare appagamento e felicità».

Si tratta di una visione entusiasmante di una vita più bella e piacevole, condivisa da molti esponenti della sinistra (tra cui il genero di Karl Marx, Paul Lafargue, che aveva scritto un manifesto intitolato Il diritto all’ozio). Ma noi di sinistra sappiamo anche che se guadagnare denaro non deve più essere l’imperativo della vita, allora ci devono essere altri modi per soddisfare i nostri bisogni naturali di riparo e sostentamento. Un mondo senza lavori di merda significa che l’affitto deve essere gratuito, che l’assistenza sanitaria deve essere gratuita e che ogni persona deve avere diritti economici inalienabili. E allora improvvisamente non si parla più di IA, ma di socialismo.

Perché non viviamo nel mondo razionale e umanista ispirato allo Star Trek dell’allucinazione di Altman. Viviamo sotto il capitalismo e, in questo sistema, l’effetto dell’inondazione del mercato con tecnologie che possono plausibilmente svolgere i compiti di innumerevoli lavoratori non significa che queste persone siano improvvisamente libere di diventare filosofi e artisti. Significa che queste persone si ritroveranno a guardare l’abisso – e gli artisti veri e propri saranno tra i primi a cadere.

Questo è il messaggio della lettera aperta di Crabapple, che invita «gli artisti, gli editori, i giornalisti, i direttori e i leader dei sindacati del giornalismo a prendere un impegno per i valori umani contro l’uso di immagini generative-AI» e a «impegnarsi a sostenere l’arte editoriale fatta dalle persone, non dalle server farm». La lettera, ora firmata da centinaia di artisti, giornalisti e altri, afferma che tutti gli artisti, tranne quelli più elitari, trovano il loro lavoro «a rischio di estinzione». E secondo Hinton, il “padrino dell’IA”, non c’è motivo di credere che la minaccia non si diffonderà. I chatbot «tolgono il lavoro di fatica», ma «potrebbero togliere molto di più».

Crabapple e gli altri firmatari scrivono: «L’arte generativa dell’IA è vampirica, si nutre delle generazioni passate di opere d’arte mentre succhia la linfa vitale dagli artisti viventi». Ma ci sono modi per resistere: possiamo rifiutarci di usare questi prodotti e organizzarci per chiedere che anche i nostri datori di lavoro e i governi li rifiutino. Una lettera di importanti studiosi di etica dell’IA, tra cui Timnit Gebru, licenziata da Google nel 2020 per aver contestato la discriminazione sul posto di lavoro, illustra alcuni strumenti normativi che i governi possono introdurre immediatamente, tra cui la piena trasparenza su quali set di dati vengono utilizzati per addestrare i modelli. I firmatari scrivono: «Non solo dovrebbe essere sempre chiaro quando ci troviamo di fronte a media non-umani, ma le organizzazioni che costruiscono questi sistemi dovrebbero anche essere tenute a documentare e divulgare i dati di addestramento e le architetture dei modelli […] Dovremmo costruire macchine che lavorano per noi, invece di “adattare” la società per renderla leggibile e scrivibile dalle macchine».

Sebbene le aziende tecnologiche vorrebbero farci credere che sia già troppo tardi per ritirare questo prodotto di imitazione di massa che sostituisce l’uomo, ci sono precedenti legali e normativi molto rilevanti che possono essere applicati. Ad esempio, la Federal Trade Commission (FTC) degli Stati Uniti ha costretto Cambridge Analytica ed Everalbum, proprietaria di un’applicazione fotografica, a distruggere interi algoritmi che risultavano essere stati addestrati sulla base di dati e foto di provenienza illecita. Nei suoi primi giorni di vita, l’amministrazione Biden ha fatto molte affermazioni audaci sulla regolamentazione delle grandi tecnologie, compreso un giro di vite sul furto di dati personali per costruire algoritmi proprietari. Con l’avvicinarsi delle elezioni presidenziali, sarebbe il momento giusto per mantenere queste promesse e scongiurare la prossima serie di licenziamenti di massa prima che si verifichino.

Un mondo di deep fake, loop di mimetismo e peggioramento della disuguaglianza non è inevitabile. È un insieme di scelte politiche. Possiamo regolamentare l’attuale forma di chatbot vampirici e iniziare a costruire un mondo in cui le promesse più eccitanti dell’IA siano qualcosa di più che allucinazioni della Silicon Valley.

Perché abbiamo addestrato le macchine. Tutti noi. Ma non abbiamo mai dato il nostro consenso. Si sono nutrite dell’ingegno, dell’ispirazione e delle rivelazioni collettive dell’umanità (e insieme dei nostri tratti più venali). Questi modelli sono macchine chiuse e predatorie, che divorano e privatizzano le nostre vite individuali e le nostre eredità intellettuali e artistiche collettive. E il loro obiettivo non è mai stato quello di risolvere il cambiamento climatico o di rendere i nostri governi più responsabili o le nostre vite quotidiane più serene. È sempre stato quello di trarre profitto dall’immiserimento di massa che, nel capitalismo, è la conseguenza logica e lampante della sostituzione delle funzioni umane con i bot.

Tutto eccessivamente drammatico? Una resistenza soffocante e di testa rispetto a un’innovazione stimolante? Perché aspettarsi il peggio? Altman ci rassicura: «Nessuno vuole distruggere il mondo». Forse no. Ma come ci dimostrano ogni giorno la crisi climatica e il rischio di estinzione, in continuo peggioramento, un sacco di persone e istituzioni potenti sembrano ben consapevoli che stanno contribuendo a distruggere la stabilità dei sistemi di supporto vitale del mondo, pur di continuare a fare profitti record che credono proteggeranno loro e le loro famiglie dagli effetti peggiori. Altman, come molte creature della Silicon Valley, è lui stesso un prepper. Già nel 2016 si vantava: «Ho armi, oro, ioduro di potassio, antibiotici, batterie, acqua, maschere antigas dell’esercito israeliano e un grande pezzo di terra nel Big Sur dove posso volare».

Sono dell’idea che questa dichiarazione ci dica molto di più su ciò che Altman pensa realmente del futuro che sta contribuendo a scatenare rispetto a tutte le visioni fiorite che sceglie di condividere nelle interviste alla stampa.


Naomi Klein è editorialista e scrittrice del Guardian USA. È autrice dei bestseller No Logo e Shock economy. L’ascesa del capitalismo dei disastri, nonché docente di giustizia climatica e co-direttrice del Centro per la giustizia climatica presso la University of British Columbia.


(theguardian.com, 8 maggio 2023 – articolo originale)

Print Friendly, PDF & Email