skip to Main Content

Intelligenza artificiale, perché serve più cultura digitale

La percezione sociale dell’Intelligenza Artificiale (IA), cioè del progresso tecnologico per antonomasia, si colloca sul piano cartesiano definito dall’aspettativa e della paura. Se è vero che la virtù sta nel mezzo, la zona del piano che dovremmo esplorare è quella in cui si guarda alla tecnologia per quella che è la realtà.

Gli entusiasti delle tecnologie (spesso riconducibili a quelli che ci fanno i soldi) hanno grandi aspettative e nessun timore: l’IA è la nuova rivoluzione che libererà l’umanità dalle catene del lavoro e delle malattie.

I catastrofisti condividono l’idea che l’IA stia compiendo grandi progressi, ma sono persuasi che questo causerà più o meno l’estinzione del genere umano.

C’è poi chi sull’IA ha aspettative molto più modeste, o addirittura avverte i primi freddi di un prossimo “AI Winter”. Il sentimento di questi ultimi va dalla delusione al sollievo, in funzione del grado di tecnofobia.

Molto equivoco nasce infatti dal considerarla non come un processo storico e sociale, ma come un ente dotato di una sua volontà. La personificazione dell’IA, cioè il vederla come soggetto in sé, che si legge in molti commenti vagamente heideggeriani porta come conseguenza il fatto di perdere di vista ciò che di concreto possiamo eventualmente fare.

Pensare all’IA come un’agente super-razionale, raffigurarla come un androide stile Metropolis che avanza inarrestabile verso un futuro fatale, rischia di diffondere una paralizzante nevrosi. Paralisi che ovviamente avvantaggia chi sta accumulando montagne di denaro anche grazie all’inerzia delle istituzioni e della politica. La tecnologia, invece, è una realtà sociale, e per quanto tale constatazione possa oggi apparire poco rassicurante, è da questa che bisogna partire.

L’idealizzazione dell’IA provoca, per estensione, l’appello ad altri due grandi ideali: l’Etica e la Legge. Chi fra i tecnologi ci si dedica full-time dovrebbe chiedersi: l’etica di chi, le regole per cosa? C’è infatti il rischio che il discorso scivoli sulle qualità morali degli algoritmi, come se appunto questi avessero una soggettività.

D’altra parte, se la narrazione sull’IA insiste sul tema della mimesi della cognitività umana, l’annullamento della differenza ontologica tra un algoritmo e una coscienza è dietro l’angolo. Quando poi si parla di legislazioni nazionali o sovranazionali, non si capisce bene a quali concreti poteri si faccia appello, visto che gli strumenti a disposizione sono, al momento, minacce a vuoto e ridicole multe.

Pensare di governare il digitale con leggi e norme morali, cioè in termini di diritti e doveri, di bene e di male, appare illusorio, se non proprio fuorviante. Il problema non è solo il carattere globale, ubiquo e intangibile delle tecnologie informatiche, ma è nel fatto che i soggetti concreti di tale ipotetica normatività, cioè le persone, non sembrano molto consapevoli di ciò che si vorrebbe normare, sicché non sollevano alcuna istanza di cambiamento dello stato di cose, né materiale né morale.

Cosa tuttavia giustificherebbe una norma se non appunto un’istanza sociale? Chi avrebbe l’ardire politico di vincolare ex lege il godimento di quello che ormai viene percepito come il diritto al consumo, alle relazioni, alla parola, garantito oggi dalle piattaforme digitali?

Continua a leggere su Agenda Digitale.

Back To Top