La possibilità di prevedere eventi o comportamenti futuri è un tema centrale per la scienza. D’altra parte tali capacità di previsione sono sempre a rischio in quanto, basandosi sulle esperienze passate, non si può concludere che gli eventi futuri dovranno seguire la stessa dinamica degli eventi pregressi. Ancora più complesso è prevedere i comportamenti futuri degli esseri umani, in quanto a differenza degli altri enti sono liberi di scegliere di agire in modo anche opposto rispetto al passato.
Allo stesso modo gli studiosi, che tendono a prevedere i comportamenti umani futuri, debbono classificarli sulla base di determinati parametri, il che implica la scelta di criteri, che resta una scelta soggettiva, il che ci garantisce ancora meno che sia in grado di essere la più adeguata a interpretare gli scenari futuri. Inoltre essendo sempre soggettiva non può che essere interessata e, quindi, in qualche modo il conflitto di interessi è comunque da mettere nel conto, anche se può più o meno distorcere l’interpretazione e la previsione in senso volontaristico e soggettivistico. Tanto più che, se il soggetto chiamato a prevedere ha la possibilità reale di influire in un modo più o meno significativo sugli eventi futuri, si correrà sempre il rischio di trovarsi dinanzi a profezie che si auto-avverano. Tutto ciò non può che far sorgere dei dubbi sulla presunta neutralità della tecnocrazia, in quanto i tecnici saranno, comunque, individui formati in un certo modo, con certi valori e interessi. Ciò non può che indebolire la capacità di egemonia dei governi tecnici, la forma di governo da sempre promossa dal positivismo.
Per ovviare a tali difficoltà l’attuale ideologia neo-positivista mira a sostituire gli uomini con strumenti tecnici, in quanto non essendo liberi appariranno certamente più neutrali, super partes e obiettivi. In effetti le indicazioni date da qualche tecnico, per quanto illustre, che lavora per i grandi centri di potere sovra-nazionali, saranno sempre soggette a essere considerate con sospetto, proprio in quanto la sua obiettività dovrà comunque scendere a patti con gli interessi dell’istituzione a nome della quale si esprime. Mentre un algoritmo, al contrario, sembra in grado di poter offrire previsioni rispetto al futuro del tutto obiettive, in quanto giungono a delle conclusioni prescindendo completamente dal libero arbitrio del soggetto, seguendo una metodologia apparentemente indipendente da qualsiasi opinione, in quanto rappresentabile attraverso puri sistemi logico-matematici.
Evidentemente tale credenza scientista si fonda sempre e, comunque, sul feticismo, che nasconde dietro gli strumenti tecnici la reificazione delle scelte e dei giudizi fatti dai programmatori e dagli ingegneri che li hanno messi a punto. Anche in tal caso opera un altro fattore ideologico, che tende a occultare la non neutralità di tali strumenti tecnici, ovvero il fatto che gli ingegneri e i programmatori non sono dei puri tecnici che si limitano ad applicare un sapere altrettanto puro. Anzi il loro parziale essere dei puri esecutori non è affatto una garanzia di obiettività, in quanto non si tratta di semplici ministri di un culto scientista o di illuminati in grado di rivelare il verbo scientifico.
Al contrario, nelle società capitalistiche, saranno dei lavoratori salariati che, dovendo vendere la loro forza-lavoro per riprodursi, durante l’orario di lavoro sono soggetti in tutto il loro operare al dispotismo del padrone che la ha acquistata ed è libero di consumarla come meglio crede. Così l’elemento arbitrario, di parte, interessato, ideologico cacciato dalla porta, rientra tranquillamente dalla finestra. Né la questione cambia sostanzialmente se i tecnici sono impiegati pubblici. In quanto tali, infatti, si tratta di servitori dello Stato che, feticismo a parte, non è altro che uno strumento di dominio di un determinato blocco sociale che avrà i propri interessi da difendere affermando i propri valori, la propria concezione del mondo, necessariamente di parte.
Dunque, la crescente pressione dell’ideologia dominante a farci affidare a questi strumenti tecnici, come gli algoritmi, che consentirebbero una pura tecnocrazia e una capacità puramente scientifica di prevedere i comportamenti futuri degli uomini, deve il suo successo al fatto che il feticismo occulta che si tratta comunque di merci prodotte al fine, principalmente, di ottenere profitti privati – se realizzati da imprese private – o scopi ideologici più generali, ma comunque sempre di parte, se prodotti da industrie di Stato. Anche in quest’ultimo caso non si tratta di strumenti tecnici, ma di parte, ovvero della parte dominante della società di cui gli algoritmi sono appunto meri mezzi per raggiungere determinati fini. Come insegnano due dei massimi maestri del sospetto – per altro con posizioni ideologico-politiche diametralmente opposte – come Marx e Nietzsche – dietro tutto ciò che appare neutrale, super partes, puramente oggettivo si nascondono degli interessi particolari, di classe nel primo caso, riconducibili alla volontà di potenza e alla morale dei signori (gli oligarchi) o degli schiavi (i democratici ovvero i subalterni) nel secondo caso.
A rendere ancora più opachi questi strumenti di dominio apparentemente tecnocratico, decisivi a fini egemonici, è entrata oggi in scena la forma più elevata di feticismo, ovvero la sedicente intelligenza artificiale. Per quanto quest’ultima sia intessuta di questi strumenti opachi di controllo che sono gli algoritmi, l’ideologia dominante tende a farla apparire sempre più decisiva quale strumento di direzione, organizzazione e previsione completamente indipendente, neutrale e puramente scientifico. Anzi, l’ideologia dominante pretende che metterne in discussione la completa possibilità di sostituirsi alle decisioni umane sia inevitabilmente il portato di una posizione retrograda e antiscientifica, che non vuole fare i conti con le magnifiche sorti e progressive di un mondo finalmente gestito nel migliore dei modi possibili dal potere della scienza e della tecnica, capaci da sole di risolvere progressivamente ogni problema del genere umano, a cominciare naturalmente dal conflitto socio-economico, per passare a quello politico e ideologico.
L’intelligenza artificiale, che si tende ad attribuire a delle macchine, è legata a una gnoseologia empirista che tende a volgarizzare positivisticamente la teoria della conoscenza di David Hume, ovvero un modo di pensare non dialettico e meramente induttivo che è sostanzialmente accolto dall’ideologia liberale dominante. Proprio in questo senso operano gli algoritmi e di conseguenza la sedicente intelligenza artificiale ovvero sul presupposto che quanto avvenuto in passato tenderà a ripetersi anche in futuro. In tal modo l’ideologia dell’intelligenza artificiale perde l’aspetto più significativo della gnoseologia di Hume, ovvero il suo scetticismo di fondo, per cui la nostra conoscenza si fonda sulla credenza – e non, quindi, sulla certezza e necessità proprie della conoscenza scientifica – basata a sua volta sulla mera abitudine, che ci porta a ritenere, senza appunto nessuna base scientifica, che quanto abbiamo constatato ripetersi in passato possa probabilmente ripetersi in futuro.
Essendo un tipo di conoscenza tutta fondata sull’esperienza e sul metodo induttivo che dall’osservazione di regolarità in certi aspetti delle realtà prova a giungere a una conclusione che ha solo la forma, la parvenza dell’universalità e della necessità su cui dovrebbe fondarsi la scienza, visto che il nostro numero di esperienze è certamente limitato e niente assicura che ciò che è avvenuto in passato debba ripetersi in futuro. Anche ciò che di appare più scontato, come il sorgere del sole ogni mattina, in realtà è anch’esso solo molto probabile, dal momento che anche la luce del sole ha un inizio e una fine e nulla toglie che una cometa possa colpire o la terra o il sole ed evitare che tale fenomeno si ripeta anche in futuro. Proprio per questo le conclusioni di Hume erano scettiche per quanto riguarda la possibilità di una conoscenza scientifica della realtà, in quanto essendo puramente induttiva e limitata dall’esperienza essa resterà sempre solo probabile e mai certa e necessaria.
Proprio queste conclusioni necessariamente scettiche tendono a venir meno nell’ideologia positivista e in quella neo-positivista apologetica dell’intelligenza artificiale. Evidentemente tale credenza nell’eterno ritorno dell’identico, si basa su una visione del mondo puramente conservatrice, funzionale alla classe dominante, in quanto mira a naturalizzare ed eternizzare lo status quo. Ancora più ideologica e antiscientifica è l’applicazione di tale credenza induttiva, fondata sull’abitudine, allo scopo di prevedere il comportamento degli esseri umani, con la pretesa – sempre cara a chi mira a difendere l’ordine costituito – che la libertà dell’uomo sia solo apparente.
Gli algoritmi sono programmati sulla base del presupposto che entità simili debbano comportarsi in modo analogo nelle medesime circostanze. Anche in tal caso la presunta neutralità e imparzialità della previsione si fonda in realtà su scelte ben precise dei programmatori umani, che stabiliscono per la macchina ordinatrice il meccanismo sulla base del quale presupporre la somiglianza fra due differenti cose o individui. Inoltre, secondo l’etica conservatrice già presente in Hume e più in generale nello scetticismo, si tenderà a ritenere normale il modo di agire e reagire della maggioranza, considerando un’eccezione, che paradossalmente dovrebbe confermare la regola, chi agisce in modo diverso. Quest’ultimo, invece di essere considerato qualcuno in grado di riflettere e di agire autonomamente e liberamente – non conformandosi alla tradizione, a quanto fanno i più o a quanto pretende facciano tutti il potere costituito e il pensiero unico dominante – viene al contrario bollato come un deviante, una pericolosa anomalia da tenere sotto controllo, secondo il classico modello illustrato da Orwell come paradigmatico dei regimi totalitari. Anzi, paradossalmente, gli individui “normali” sarebbero proprio quei conformisti che agiscono senza riflettere autonomamente e criticamente, che si limitano a eseguire i compiti che gli sono assegnati e sono alla base di quella banalità del male, ovvero di quelle azioni mostruose che caratterizzano i sistemi totalitari, secondo il parere della più prestigiosa studiosa di questi fenomeni, Hannah Arendt e di un testimone di eccezione come Primo Levi.
Quindi, per quanto siano deboli e certamente discutibili dal punto di vista epistemologico, gli assunti su cui operano gli algoritmi sono alla base dell’intelligenza artificiale. Anche perché questa riflessione critica, che aveva portato Hume per primo a giungere a conclusioni scettiche, è del tutto ignorata dal pensiero unico dominante che mira al contrario a imporre una cieca fiducia nel potere di anticipazione degli algoritmi, per il carattere di presunta neutralità e affidabilità della sedicente intelligenza artificiale. In tal modo questa ideologia scientista dimostra di essere agli antipodi del pensiero critico su cui si fonda la scienza, in quanto tende a imporre, “naturalizzandoli”, tutta una serie di pregiudizi e stereotipi che sono in realtà un prodotto storico e sociale pesantemente influenzato dall’ideologia dominante funzionale agli interessi del blocco sociale al potere. Quindi, pur partendo dalla gnoseologia di Hume, si giunge paradossalmente a conclusioni opposte, infatti allo scetticismo del primo si contrappone il carattere prescrittivo che il pensiero unico dominante pretende di attribuire alle previsioni algoritmiche, sulla base del mito scientista dell’intelligenza artificiale.