skip to Main Content

Intervista al Dott. Fortunato Costantino. ESG e Intelligenza artificiale

Fortunato Costantino è Avvocato, specializzato in Diritto del lavoro e delle relazioni industriali, diritto d’impresa e diritto societario, con particolare attenzione ai profili di compliance legale, GDPR, ESG e CSR.
Ricopre attualmente il ruolo di Direttore Risorse Umane, Affari Legali e Societari presso un primario gruppo multinazionale operante nel settore Oil & Energy.
È docente di Teoria generale della sostenibilità d’impresa e dell’innovazione sociale presso la European School of Economics. È membro del Comitato editoriale della Rivista del diritto di Internet e dell’intelligenza artificiale e vanta numerose pubblicazioni scientifiche in materia di diritto delle nuove tecnologie, intelligenza artificiale, sostenibilità ed ESG, contribuendo in modo significativo al dibattito accademico sul rapporto tra diritto, etica e tecnologia.
È curatore della rubrica Humanity in the loop per Fortune Italia, nell’ambito della quale approfondisce con cadenza mensile le dimensioni critiche del rapporto tra individuo, comunità e tecnologie intelligenti.
Recentemente ha curato, insieme a Giovanni Capo e Giuseppe Cassano, il volume I Principi ESG e di Sostenibilità (Giuffrè Lefebvre). È autore di L’Insegnamento di Sophia (Giuffrè, 2024) e di Il Qubit di Dio(Castelvecchi, 2025).

 

l’Avv. Fortunato Costantino

 

Nel suo intervento lei sottolinea come il paradigma ESG non introduca nuovi valori, ma renda operativi principi già presenti nella Costituzione. In che modo questa “funzione di traduzione” può aiutare concretamente chi oggi sviluppa o utilizza sistemi di intelligenza artificiale?

Sì, questo per me è un punto decisivo. Il paradigma ESG non costituisce un insieme di vincoli etici esterni all’ordinamento giuridico, bensì una metodologia di “operazionalizzazione” di principi già pienamente presenti nel diritto costituzionale e sovranazionale. Esso può essere inteso come una grammatica regolatoria che rende espliciti, misurabili e valutabili gli obblighi correlati alla tutela dell’ambiente, alla promozione dell’eguaglianza sostanziale, alla protezione dei diritti fondamentali e alla responsabilità sociale dell’attività economica, obblighi già desumibili dalla Costituzione italiana, dalla Convenzione europea dei diritti dell’uomo e dalla Carta dei diritti fondamentali dell’Unione europea.

In tale prospettiva, l’ESG si configura come uno strumento metodologico di attuazione di un patrimonio assiologico preesistente, piuttosto che come un paradigma innovativo in senso sostanziale. La sua novità consiste essenzialmente in termini funzionali e procedurali, derivante dall’elaborazione di criteri, indicatori e standard finalizzati a tradurre i principi giuridici in pratiche gestionali e metriche valutative. Ciò consente di orientare l’azione degli operatori economici e dei decisori politici verso uno sviluppo equo, sostenibile e conforme ai diritti fondamentali.

Ecco perché la funzione del paradigma ESG può dunque essere definita una funzione di traduzione normativa: essa consente di convertire principi di elevata densità giuridica – quali la tutela ambientale, l’eguaglianza sostanziale, la protezione dei diritti fondamentali e la responsabilità sociale dell’attività economica – in criteri concreti in grado di guidare la progettazione, l’addestramento e l’impiego dei sistemi di intelligenza artificiale.

Per gli operatori del settore, questa funzione è di particolare rilievo, poiché permette di passare da un piano astratto a un piano operativo, rendendo misurabili, verificabili e valutabili obblighi già presenti nell’ordinamento, favorendo la loro integrazione fin dalle prime fasi dei processi decisionali e riducendo il rischio di interventi correttivi ex post.

 

Lei evidenzia il ruolo centrale dell’articolo 3 della recente legge italiana sull’intelligenza artificiale, definendolo il “cuore assiologico” della disciplina. Qual è, a suo avviso, l’elemento più innovativo di questo impianto normativo rispetto alle esperienze precedenti?

L’elemento di maggiore innovazione dell’articolo 3 risiede nel fatto che esso non si limita a un’enunciazione programmatica di principi, ma li assume come vincoli giuridici sostanziali destinati a operare lungo l’intero ciclo di vita dei sistemi di intelligenza artificiale. Si tratta di un mutamento di prospettiva significativo rispetto a precedenti esperienze regolatorie, prevalentemente incentrate sul controllo del rischio o sulla disciplina della responsabilità.

L’articolo 3 chiarisce, invece, che la ricerca, la sperimentazione, lo sviluppo e l’utilizzo dei sistemi di intelligenza artificiale devono essere conformi sin dall’origine al rispetto dei diritti fondamentali e delle libertà costituzionali. Tale conformità è declinata attraverso il richiamo a principi trasversali quali la trasparenza, la proporzionalità, la sicurezza, la non discriminazione e la sostenibilità, che assumono una funzione ordinante dell’intera disciplina.

Ne discende il superamento di una concezione dell’innovazione tecnologica come fenomeno assiologicamente neutro. La legittimità dei sistemi di intelligenza artificiale risulta, infatti, subordinata alla loro coerenza con i valori costituzionali, intesi non come limiti esterni, ma come criteri intrinseci di progettazione e governance.

In questa prospettiva, l’articolo 3 svolge una funzione di raccordo sistemico tra diritto costituzionale, diritto dell’Unione europea e regolazione tecnologica, configurando un modello normativo che si presenta già come una declinazione giuridica del paradigma ESG, rendendo in particolare il principio di accountability e la sorveglianza umana le chiavi di lettura per garantire che le scelte tecnologiche siano compatibili con i principi di legalità e giustizia sociale.

 

Tra i profili più interessanti del suo contributo vi è il richiamo alla Valutazione di Impatto Generazionale (VIG). Ritiene che questo strumento possa diventare un vero punto di svolta nella regolazione delle tecnologie emergenti come l’AI?

Ne sono convinto. La Valutazione di Impatto Generazionale (VIG) assume una particolare rilevanza se rapportata alla natura dell’intelligenza artificiale quale tecnologia ad elevato impatto sistemico. Essa introduce, infatti, un elemento che è stato a lungo marginale nella regolazione delle innovazioni tecnologiche, ossia una valutazione strutturata e giuridicamente rilevante degli effetti di lungo periodo sulle generazioni future.

Con la Legge n. 167 del 2025, la sostenibilità intergenerazionale entra a pieno titolo nel ciclo della qualità della regolamentazione giuridica, ampliando l’orizzonte temporale dell’analisi normativa. Non si tratta più soltanto di valutare l’impatto immediato di un intervento legislativo, ma di considerare in modo sistematico le conseguenze ambientali, sociali, economiche e istituzionali che le scelte regolatorie sono destinate a produrre nel medio e lungo periodo, anche attraverso meccanismi di monitoraggio ex post.

Applicata all’intelligenza artificiale, tale impostazione rivela con particolare evidenza il proprio potenziale trasformativo. L’AI è infatti in grado di incidere profondamente sull’organizzazione del lavoro, sui processi formativi e cognitivi, sulle dinamiche sociali e sui costi ambientali, generando al contempo nuove forme di vulnerabilità sociale. Si tratta di profili che difficilmente emergono in un’analisi limitata al breve periodo e che richiedono, invece, un approccio precauzionale e valutativo coerente con la logica ESG e con il principio di equità intergenerazionale.

In questa prospettiva, la VIG consente di integrare in modo strutturale i criteri ESG nella fase di produzione normativa, elevando la sostenibilità da obiettivo politico a vero e proprio parametro giuridico di razionalità, proporzionalità e legittimità dell’azione legislativa.

 

In conclusione lei definisce l’intelligenza artificiale come una “infrastruttura critica della democrazia”. Quale responsabilità principale dovrebbero assumersi oggi istituzioni e operatori economici per garantire che l’AI resti coerente con i valori costituzionali e con i principi ESG?

 Quando si qualifica l’intelligenza artificiale come infrastruttura critica della democrazia, si intende sottolineare che essa non può essere ricondotta alla categoria delle tecnologie meramente strumentali o neutrali. I sistemi di intelligenza artificiale incidono in modo strutturale sui processi decisionali pubblici e privati, sull’accesso ai servizi essenziali, sull’organizzazione del lavoro, sui flussi informativi e, più in generale, sulle modalità di esercizio della partecipazione democratica.

In tale prospettiva, l’intelligenza artificiale assume una rilevanza diretta rispetto alla tutela dei diritti fondamentali, alla dignità della persona e all’effettiva distribuzione delle opportunità, configurandosi come un fattore in grado di influenzare gli equilibri costituzionali e i rapporti di potere all’interno della società.

Ne discende una responsabilità primaria in capo alle istituzioni pubbliche, chiamate a riconoscere la natura sistemica dell’AI e a governarne lo sviluppo e l’impiego mediante un quadro regolatorio fondato su regole chiare, meccanismi di controllo effettivi e strumenti di valutazione dell’impatto idonei a considerare anche i rischi di lungo periodo, quali la sorveglianza digitale, la discriminazione algoritmica e la progressiva erosione delle libertà fondamentali.

Parimenti, gli operatori economici non possono limitarsi a una logica di mera conformità formale. L’integrazione dei principi ESG nella governance dell’intelligenza artificiale implica l’assunzione di una responsabilità sostanziale, che si traduce nella progettazione e nell’utilizzo di sistemi trasparenti, equi, sostenibili e rispettosi della dignità umana. Solo adottando questo approccio, l’intelligenza artificiale può essere orientata, non come fattore di amplificazione delle disuguaglianze, ma come strumento di sviluppo equo e sostenibile, coerente con i valori costituzionali che presidiano la convivenza democratica.

 

Back To Top