[Sintesi di un lavoro di prossima uscita nel blog del Centro Studi Domenico Losurdo]
L'Itelligenza Artificiale (IA) è una sofisticata tecnologia informatica che poggia su un immenso volume di dati accumulati nel web o in archivi proprietari, i cosiddetti big data, e sulle enormi capacità di calcolo oggi disponibili. In tal modo è in grado di fornire risposte e conoscenze. Non ci si deve quindi trarre in inganno, non si stratta di intelligenza ma di un software che è in grado di “imparare”, come un alunno secchione, nozioni su nozioni e di ubbidire rigidamente agli ordini.
Fra le piattaforme utilizzabili gratuitamente primeggiano quelle di tipo “generativo”, cioè in grado di produrre testi, video, immagini, musiche.
L'hardware utilizzato è assai costoso, fino a migliaia di euro per unità. In particolare viene fatto ricorso alla GPU (Graphics Processing Units), capace di elaborazioni multiple in parallelo, e la TPU (Tensor Processing Units). Fa eccezione la neonata cinese DeepSeek la quale fa a meno di questo hardwer che scarsegggia in Cina a causa delle sanzioni Usa.
Fra i costi devono essere considerati anche il notevole consumo di energia elettrica, acqua per raffreddare gli impianti dei data center e il lavoro di “addestramento”.
Fra i tipi di logica impiegata si degnala quella probabilistica perché le risposte tengono conto delle ricorrenze statistiche presenti nei big data. In parole povere prevale il senso comune e il conformismo.
Test da me effettuati su differenti piattaforme mostrano una incredibile capacità di attingere alla conoscenza per fornire risposte ed elaborazioni anche assai complesse unita a una disarmante incapacità di ragionare razionalmente di fronte a problemi nuovi e che richiedono una certa creatività per essere risolti (enigmistica e matematica che vada otre l'applicazione delle regole).
Le piattaforme a pagamento pare che siano molto più performanti e che si avvicinino di più al modo di pensare umano; tuttavia è prevedibile che, almeno per un bel po' di anni, permarranno i limiti intrinseci, derivanti dalla mera simulazione di ragionamenti pescando da esempi memorizzati, e la necessità del controllo umano per evitare errori, specie negli impieghi importanti quali la guerra.
L'economia e la finanza
Dati i suoi costi proibitivi anche questa tecnologia favorisce la centralizzazione dei capitali. Le piccole e medie imprese produttrici di innovazioni, le cosiddette start-up, hanno bisogno potentissimi partner per ottenere le risorse finanziarie e strumentali necessarie. Questi ultimi poi le fagocitano, per esempio togliendo loro i tecnici più geniali grazie a offerte economiche accattivanti.
Infatti fra le 10 maggiori società presenti al mondo, sette sono del settore digitale e l'ottava produce sia auto che computer.
In un settore che richiede ingenti investimenti il libero mercato si trasforma inevitabilmente in monopolio che attribuisce un notevole peso economico e conseguentemente politico ai grandi gruppi finanziari. L'ascesa di Elon Musk ai palazzi della politica Usa non è casuale.
L'impatto quantitativo dell'IA nell'economia non è importante quanto vogliono farci credere. Se si esclude la previsione ottimistica di Goldman Sachs (+7% in 10 anni) tutti gli osservatorio predicono tassi di crescita dell'1 o 1,5%. Altri stimano che ci vorrà ben più di una decade per vedere risultati apprezzabili.
Sono molto importanti invece, e rendono ancora più difficile il raggiungimento degli obiettivi COP, gli impatti ambientali. Per esempio Google e Microsoft erano impegnate a raggiungere emissioni zero e invece le hanno aumentate del 20% mentre la sola IA è responsabile dell'aumento del 50%. Secondo The Guardian, Google, Microsoft e Meta hanno aumentato il consumo di acqua dei loro data center del 20% in un solo anno accrescendo la carenza idrica di alcune regioni.
È importante anche il contributo di questa tecnologia alla finanziarizzazione dell'economia. Nvidia, Microsoft e Intel prese singolarmente hanno quotazioni in borsa largamente superiori al Pil dell'Italia.
Se si escludono USA e Cina, gli altri paesi, compresi quelli europei non sono in grado di regger la concorrenza in questo campo. L'Unione Europea ha investito nel settore 20 miliardi di dollari in un decennio contro i 300 degli Stati Uniti, tanto che Mario Draghi in un rapporto all'Ue ha giudicato incolmabile il suo ritardo in questo campo pur spingendo per l'uso di queste tecnologie in campo militare per uscire dalla crisi.
L'ascesa della Cina
Se la Cina è al primo posto al mondo per numero di ricercatori, di brevetti, di articoli scientifici pubblicati e per applicazioni pratiche, gli Usa la sovrastano nella progettazione di chip specializzati e stanno tentando di impedire la loro vendita al rivale asiatico. La Cina così si è arrangiata sia con importazioni attraverso triangolazioni sia cercando di colmare, con alcuni successi, il ritardo, sia infine progettando software che fa a meno di queste costose componenti. È il caso di DeepSeek, un'IA generativa che, oltre a non richiedere GPU riduce i costi dell'energia e dell'addestramento. Esprimendomi con un po' di approssimazione, lo ha fatto compartimentando l'istruzione ed elaborando solo i dati del compartimento utile alla soluzione del problema posto.
La novità più importante di DeepSeek è però che è open source e quindi chiunque può utilizzare il software, integrarlo, personalizzarlo ecc. Questo consente al prodotto di crescere con i contributi esterni, purché ci sia una regia che impedisca il caos e modificazioni malevole.
Michael Roberts l'ha così commentata: “un attacco ai segreti proprietari custoditi nelle "scatole nere" da OpenAI o da Gemini di Google per massimizzare i profitti […] gli investimenti statali cinesi in tecnologia e competenze superano di gran lunga la dipendenza dai giganti tecnologici privati guidati da oligarchi".
Infatti il lancio di DeepSeek che ha raggiunto risultati uguali o superiori a quelli dei concorrenti a una frazione di costo, ha determinato il crollo del 17% della azioni Nvidia, produttrice dei cip, e altri declini di società del ramo.
Bentornato vecchio Moro
Trascorso il breve intermezzo keynesiano, l'orario di lavoro e l'intensità dello sfruttamento sono aumentati, il lavoro diventa sempre più alienato, con situazioni al limite della schiavitù per i lavoratori occasionali, i rider, gli immigrati ecc.
Competenze e conoscenze tecniche vengono espropriate e incorporate nelle macchine, riducendo i lavoratori ad appendici delle macchine, oggi così anche per molti lavoratori intellettuali.
Gli ingenti investimenti necessari accelerano l'aumento della composizione organica dei capitali e con ciò la caduta del saggio del profitto.
Anche la centralizzazione dei capitali e la finanziarizzazione subiscono un'accelerata.
La disoccupazione tecnologica si allarga al lavoro intellettuale e si avvicina il punto in cui il lavoro diviene “cosa risibile” rispetto agli enormi apparati che mette in moto, insidiando la legge del valore.
I salari si riducano a causa della despecializzazione, della diminuita importanza del lavoro, del ricatto occupazionale e della razionalizzazione dello sfruttamento.
L'Intelligenza artificiale rappresenta una nuova rivoluzione tecnologica, tuttavia permangono alcune caratteristiche delle precedenti dal punto di vista del lavoro salariato e della lotta di classe. Pertanto, come nel passato, le lotte dei lavoratori devono evitare di demonizzare la tecnologia ma contestare il suo uso capitalistico e prospettarne uno a beneficio della classe operaia.
Se l'umanità può riprodursi con sempre meno lavoro, dobbiamo rivendicare giornate lavorative più brevi e, in ultima analisi, l'abolizione del lavoro salariato, prospettare cambiamenti radicali che diano priorità ai bisogni reali rispetto al profitto e all'irreggimentamento della vita. L'intelligenza artificiale open source offre immense possibilità, se i movimenti dei lavoratori guidano gli sviluppatori e plasmano attivamente lo sviluppo e l'utilizzo dell'intelligenza artificiale. Questa è la nuova frontiera della lotta.