Giovedì 10 luglio 2025, presso la sede di Unistudio & Gambino Academy a Verona e…
Il governo dell’Intelligenza Artificiale nella transizione egemonica ed economica: opportunità e rischi per le imprese. Intervista alla Prof.ssa Avv. Rita Rolli

Rita Rolli si è laureata con lode in Giurisprudenza all’Alma Mater Studiorum – Università di Bologna nel 1993, dove ha conseguito il titolo di specializzazione in Advanced International Legal Studies, in cooperazione con la Golden Gate University School of Law di San Francisco. È Professoressa Ordinaria di Diritto Privato nel Dipartimento di Scienze Giuridiche dell’Università di Bologna ed Avvocato cassazionista.
Autrice di numerose pubblicazioni e monografie, partecipa al comitato di valutazione e alla redazione di prestigiose riviste giuridiche. Da ultimo l’ambito di ricerca delle sue pubblicazioni è orientato allo studio della legislazione nazionale e comunitaria, dell’autodisciplina e degli orientamenti globali in materia di sostenibilità e fattori ESG e del relativo impatto sulla corporate governance, responsabilità d’impresa e contract governance.
La Prof.ssa Avv. Rita Rolli
Prof.ssa Rolli, Lei è stata responsabile scientifico del convegno svoltosi il 30 maggio scorso presso la Bologna Business School dal titolo “Intelligenza Artificiale e Cybersecurity: AI Act, NIS2 Opportunità e impatti sulla Governance delle Società di Capitali”, organizzato insieme ad Aisca, Associazione Italiana Segretari del Consiglio di Amministrazione e per la Corporate Governance, nell’ambito di una consueta iniziativa annuale volta a promuovere un proficuo dibattito tra Accademia, Imprese, Professioni e Territorio in una realtà, quella dell’Emilia Romagna, risultata nel 2024 la seconda Regione in Italia (dopo la Lombardia) in termini di crescita del PIL [1]. In tale veste, ha introdotto il Keynote Speech di Alec Ross, uno dei massimi esperti mondiali di innovazione e politiche tecnologiche, nonché autore di bestseller internazionali tradotti in ventiquattro lingue, attualmente Distinguished Adjunct Professor presso la Bologna Business School, su“La geopolitica e la geoeconomia dell’intelligenza artificiale”.
Quali obiettivi si era posta nel progettare questo intervento, e in che modo questi si sono realizzati durante la discussione?
Credo che le cd. twin transitions, al centro dell’agenda della Commissione europea, la transizione energetica e la transizione digitale, stiano ridefinendo gli scenari competitivi a livello globale. È evidente per il periodo storico in cui viviamo che la politica energetica, il problema dell’indipendenza energetica e delle fonti di approvvigionamento da un lato, il governo dell’innovazione tecnologica e, in questo contesto, dell’intelligenza artificiale dall’altro, siano elementi cruciali della stessa transizione egemonica in atto nel confronto geopolitico. L’IA sta ridefinendo gli equilibri di potere geopolitici, come nuova “risorsa strategica” al pari dell’energia o delle materie prime.
Ecco perché in questi due anni ci siamo occupati di governance sostenibile e competitività, l’anno scorso, dell’impatto dell’intelligenza artificiale sull’impresa, quest’anno.
Dai temi discussi è emersa, pur secondo diversi approcci, una competizione globale a livello geopolitico per governare questi processi, che hanno una diretta incidenza strategica sullo sviluppo economico, in quella che oggi si potrebbe definire la quarta rivoluzione industriale [2], identificata con la propensione dell’odierna automazione industriale ad introdurre nuove forme di tecnologie produttive per migliorare le condizioni di vita e lavoro, implementando nuovi modelli di business, aumentando la produttività degli impianti e sublimando la qualità dei prodotti [3].
In qualità di curatrice, come ha selezionato le tematiche e i relatori per rendere efficace un confronto tra geopolitica, geoeconomia e cybersecurity? Può condividere un momento saliente o una riflessione che considera rappresentativa del successo della tavola rotonda?
Gli argomenti del convegno sono stati scelti per rappresentare non solo a livello generale la strategicità dello sviluppo dell’IA negli scenari globali, ma anche per sondare l’impatto della IA sull’impresa e definirne rischi e opportunità.
Un particolare dato mi ha colpito. Secondo il rapporto di PwC intitolato “Sizing the Prize”, l’intelligenza artificiale rappresenta la più grande opportunità commerciale della nostra epoca. Il report stima che entro il 2030 l’IA potrebbe contribuire fino a 15,7 trilioni di dollari all’economia globale, pari a un incremento del 14% del PIL mondiale [4]. Conclude poi con un monito: nei prossimi cinque anni, l’IA determinerà vincitori e vinti. Le aziende che sapranno investire in modo proattivo in tecnologie, talento e fiducia saranno in grado di trasformare radicalmente i loro modelli di business. Le altre rischieranno di perdere competitività o addirittura scomparire dal mercato [5]. Lo stesso trend che si verificherà per chi saprà o non saprà integrare la sostenibilità nel proprio business model e nelle strategie aziendali nella direttiva dell’integrazione tra sostenibilità e competitività, che i recenti provvedimenti comunitari hanno inaugurato.
Parlando dell’Italia, è indubbio che nel 2024 il mercato dell’Intelligenza Artificiale abbia raggiunto un nuovo record, toccando quota 1,2 miliardi di euro con una crescita del +58% rispetto al 2023 [6]. Ciononostante, le imprese italiane si stanno approcciando all’Intelligenza Artificiale più lentamente rispetto ad altri Paesi europei [7].
Anche il mercato della cybersecurity in Italia è in crescita, ma resta ancora distante dai livelli raggiunti dagli altri Paesi europei e, ancor più, da quelli degli Stati Uniti, rendendo necessari significativi passi avanti.
Ecco perché è necessario stimolare il dibattito su questi temi con riferimento sia alle opportunità di crescita sia ai rischi che possono derivare come nel caso degli attacchi informatici.
Quanto ai relatori, con riferimento alla formula sperimentata da questa iniziativa, la scelta è partita da studiosi dell’Accademia, che hanno dedicato importanti studi e progetti alla materia, per stimolare un dibattito con i General Counsel e i Top Manager di importanti società italiane, ossia con coloro che si occupano di attuare le strategie.
La discussione ha riguardato i processi decisionali dell’impresa, l’accountability, l’aspetto regolatorio ed il cruciale rapporto tra etica e implementazione e utilizzo di strumenti di IA.
Un momento saliente del dibattito è senz’altro riconducibile all’intervento del prof. Ross, che, tra l’altro, ha rappresentato come l’IA generativa, considerata all’avanguardia, è prossima ad essere superata dall’IA agentica, capace di ragionare e di agire in modo autonomo, senza intervento umano diretto.
Durante il Suo intervento ha citato i diversi approcci normativi di Stati Uniti, Cina e Unione Europea. Qual è secondo Lei il modello più sostenibile nel lungo termine, anche in termini di tutela dei diritti e competitività?
Gli Stati Uniti sono uno dei paesi leader nel mercato dell’innovazione e tra i più influenti all’interno del mercato globale dell’IA, basti pensare che sei delle cc.dd. “Big Nine” che dominano il panorama dell’IA hanno sede negli Stati Uniti e, segnatamente: Google, Amazon, Apple, Meta, IBM e Microsoft. In ragione proprio del florido contesto che caratterizza il mercato dell’IA negli Stati Uniti, questi ultimi sono stati particolarmente restii nell’implementazione di schemi normativi sull’IA, preferendo lasciare il mercato sostanzialmente libero da parte di interventi governativi mirati in questa materia. Invero, il modello regolamentare adottato dagli USA ha inciso nel rafforzare le capacità di espansione del mercato dell’IA statunitense e dell’intero settore della tecnologia ad esso connesso.
In particolare, l’approccio americano è “market-driven” e cioè spiccatamente a favore dell’innovazione e delle logiche di mercato. Il principio che domina è quello dell’autoregolamentazione degli operatori del settore. Tale strategia di ritardare il più possibile la creazione di cornici normative ad hoc per l’IA è direttamente collegata ad un retaggio di fine secolo scorso di cd. “permitionless innovation” (innovazione senza approvazione di autorità governative o altri enti regolatori di sorta) che era stata attivamente implementata per consentire lo sviluppo di Internet [8].
In questo contesto di assenza di iniziative di regolamentazione a livello federale, solo Stati (quali il Texas, il Connecticut e la California) sono intervenuti autonomamente e in vario modo a regolare l’IA nei loro territori, con conseguente aumento dell’approccio auto-regolatorio e di incertezza del diritto.
L’approccio legislativo e normativo della Cina [9] all’Intelligenza Artificiale riflette l’ambizione di diventare “AI global leader” entro il 2030. La Cina ha infatti privilegiato un approccio dirigista, basato essenzialmente sul controllo, anche politico e culturale, del mercato dell’IA.
Tale approccio, definibile come state-driven, è evidentemente ispirato alle logiche dell’autoritarismo digitale dello Stato. In tale contesto l’assenza di norme specifiche non è ispirata a logiche di mercato o alla fiducia nella cd. self-regulation, bensì all’incisiva censura di Internet e dei servizi digitali in generale, con la conseguenza di lasciare il monopolio della linea politica del settore all’autorità centrale dello Stato.
In un recente articolo del The Guardian, la sinologa Manya Koetse [10] offre un’analisi interessante delle differenze tra l’approccio cinese e quello occidentale all’IA. Secondo Koetse, la Cina si distingue per la ricerca di un equilibrio tra crescita economica e stabilità politica. Lo stretto controllo del governo centrale sugli sviluppi digitali permette di porre l’accento sulla sovranità informatica, sul sostegno collettivo e sul mantenimento dell’“armonia nazionale”. Dall’altro lato, l’Occidente tende a privilegiare applicazioni dell’IA che promuovono l’individualismo, l’autonomia personale e la globalizzazione. Questo approccio genera una serie di dibattiti su come conciliare i diritti individuali con interessi collettivi più ampi. Koetse sottolinea che queste differenze rendono le applicazioni dell’IA sviluppate in un contesto non necessariamente adatte all’altro. Tuttavia, l’autrice non si ferma a una semplice contrapposizione. Invita invece a superare una visione competitiva, suggerendo che ci sia spazio per un apprendimento reciproco tra i due approcci.
L’Unione Europea, come noto, ha intrapreso la strada mediana della regolamentazione giuridica. In particolare, ha adottato un approccio sistematico, rigoroso ed orientato alla tutela dei diritti fondamentali nella regolamentazione dell’IA. Sviluppando una cornice giuridica dettagliata che mira a bilanciare l’innovazione tecnologica con la protezione dei cittadini e la sicurezza. Il pilastro, come anticipato, è l’AI Act che riflette una forte base etica e sociale dell’innovazione tecnologica nel disegno del legislatore europeo.
Basti ricordare che l’AI Act è la prima normativa globale progettata specificamente per regolare l’intelligenza artificiale. Essa si fonda su un approccio risk-based che classifica i sistemi di IA in base al loro potenziale impatto sui diritti e sulle libertà fondamentali. L’obiettivo dell’AI Act è quello di garantire che i sistemi di IA siano utilizzati in modo sicuro e rispettino i valori fondanti dell’Unione, senza tuttavia soffocare l’innovazione tecnologica. In tal senso, l’UE ha previsto la predisposizione di finanziamenti ed incentivi per l’innovazione nell’ambito dell’IA (come, ad esempio, l’Horizon Europe e il Digital Europe Programme) [11].
Non è semplice affrontare il tema della regolamentazione di un fenomeno nuovo come quello dell’AI; se esso sia riconducibile al diritto esistente, nelle sue varie articolazioni: la responsabilità civile e penale, la protezione dei dati personali, il diritto d’autore etc., oppure richieda nuove regole ad hoc.
Il tema è discusso. Certo è emerso dal dibattito che probabilmente l’Unione europea ha ecceduto, anche in questo campo, come in quello della normativa sulla transizione energetica, in iper-regolamentazione, foriera di entropia e di ostacoli alla competitività delle imprese.
Certo è evidente, come emerso da quanto precede, che l’approccio al tema della regolamentazione dell’AI riflette innanzitutto il contesto culturale dell’ordinamento giuridico di riferimento. In questo quadro l’Europa ha inteso salvaguardare valori imprescindibili e questo intento è condivisibile.
Nel Suo intervento ha parlato dell’impatto dell’IA sulla business judgement rule. Crede sia realistico immaginare un’evoluzione verso una “AI Judgement Rule” che modifichi la responsabilità degli amministratori nelle scelte strategiche assistite da sistemi intelligenti?
La prospettiva che ho affrontato riguarda l’impatto dell’IA sui doveri fiduciari degli amministratori di perseguire l’interesse sociale, ricavato in via interpretativa dall’art. 2391 c.c., (duty of loyalty), di adempiere i doveri ad essi imposti dalla legge e dallo statuto con la diligenza richiesta dall’incarico e dalle specifiche competenze, previsto dall’art. 2392, comma 1, c.c., (duty of care), di agire informati, previsto dall’art. 2381, comma 6, c.c. e legato al dovere di diligenza. In questo contesto l’intelligenza artificiale può essere un efficace ausilio in merito ai flussi informativi, in considerazione della quantità di dati che possono essere analizzati, delle previsioni e simulazioni, che possono essere effettuate, rendendo le decisioni imprenditoriali sempre più data-driven anche dal punto di vista strategico. Inoltre, l’utilizzo dell’intelligenza artificiale potrebbe ridurre le asimmetrie informative tra il board e il management, permettendo agli amministratori di essere più proattivi nell’identificare le aree che richiedono intervento [12].
Ma, a fronte di tali opportunità, esiste il rovescio della medaglia. L’impiego dell’intelligenza artificiale può ampliare l’elenco dei rischi che il consiglio è tenuto a gestire (inclusa la conformità alle normative relative all’IA ed in generale alle policy che dovranno essere implementate per il suo impiego).
Di qui i seguenti interrogativi. L’avvento dell’intelligenza artificiale può potenzialmente modificare l’interpretazione degli obblighi di diligenza, prudenza e perizia? Poiché tali obblighi costituiscono la base della business judgement rule, ci si può attendere che lo sviluppo dell’intelligenza artificiale incida anche su questa stella polare dell’agire gestorio? In via prospettica in taluni casi le decisioni prese senza il supporto dell’IA potrebbero non essere più considerate ragionevolmente informate, anche se il consiglio di amministrazione non è tenuto ad esaurire tutte le fonti informative disponibili, ma può soppesare i costi e i benefici dell’acquisizione delle informazioni. Il rilievo potrebbe essere sia quantitativo: sono state raccolte sufficienti informazioni prima di assumere una decisione? sia qualitativo: tali informazioni sono state utilizzate in modo valido? Il rischio di essere chiamati a rispondere verso la società (o i terzi) per mera negligenza sia reale. Ed allora è stata prospettata la possibile evoluzione del diritto societario nel senso di prospettare una AI Judgement Rule per gli amministratori che si avvalgono dell’IA [13].
Tempi duri possono prospettarsi, dunque, per gli amministratori nel diritto della transizione ecologica e digitale. Sul primo versante, in attesa degli esiti della revisione del Green Deal per effetto del Primo Pacchetto Omnibus e della Direttiva UE 2025/794 (cd. Stop the Clock), gli stringenti e specifici obblighi di due diligence previsti dalla CS3D, che sicuramente creano un percorso più guidato per gli amministratori, possono potenzialmente determinare un assottigliamento dell’ambito di applicazione della business judgement rule [14]; sul secondo, parimenti, alla luce delle considerazioni svolte, può assistersi ad un simile processo.
A questo riguardo sarà centrale il rafforzamento delle motivazioni delle scelte gestorie sia in merito alla considerazione dei fattori di sostenibilità sia circa l’opzione all’interno del mercato rilevante dello specifico software utilizzato, e, più in generale, dell’interazione con i suggerimenti provenienti dall’intelligenza artificiale.
Emerge, infatti, l’esigenza di rendere trasparenti e di motivare le decisioni “influenzate dall’intelligenza artificiale” sotto il profilo della selezione dei dati e dei programmi di intelligenza artificiale utilizzati a fini gestori, dell’individuazione dei soggetti che provvedono a selezionarli, dei criteri in base ai quali sono effettuate le scelte, nonché degli eventuali collegamenti di interessi dei soggetti deputati ad assumerle ed, infine, della valutazione finale operato dagli amministratori [15]. La verbalizzazione delle adunanze consiliari e delle relative discussioni sarà ancora più delicata e rilevante [16].
Questi trend vanno tenuti in debita considerazione, se si considera che i New G20/OECD Principles of Corporate Governance, principale standard internazionale di corporate governance, formalmente strumento di soft law, ma tenuti in alta considerazione dai policy makers a livello internazionale e nazionale, promuovono, al contrario, il rafforzamento dei meccanismi di safe harbor garantiti dalla business judgement rule.
La regione Emilia-Romagna si presenta come ecosistema avanzato per l’innovazione. Quali sono, a Suo avviso, i punti di forza e le criticità per attrarre investimenti legati all’IA e alla cybersecurity in questo contesto?
L’Emilia-Romagna è una regione aperta a nuovi investimenti esteri, con un modello di sviluppo che ha saputo coniugare la competitività economica con un elevato livello di coesione sociale e una qualità della vita. Rappresenta un luogo particolarmente attrattivo per gli investimenti, grazie a un ecosistema di business e di innovazione di prim’ordine, filiere produttive di altissimo livello, una pubblica amministrazione orientata al business che garantisce supporto e incentivi agli investitori, location eccellenti e una mentalità cosmopolita [17].
È una regione competitiva e internazionale: forte settore manifatturiero con il 25,2% del totale dei dipendenti in Emilia-Romagna, mentre la media italiana è pari al 18,6% e quella europea al 16,1%; prima regione italiana per export pro capite[18]; Bologna, in particolare, lo conferma un’analisi de Il Sole 24 Ore del 2024, è la città italiana più attraente per gli investimenti esteri nel settore industriale nonché la terza in Europa Occidentale e la sesta in tutto il mondo [19].
È evidente anche la propensione verso la transizione digitale: l’Emilia-Romagna ha, infatti, recentemente varato un pacchetto da 220 milioni (fondi) per investimenti in hi tech, che rappresenta l’importo più alto di risorse del Fondo sociale europeo (Fse+) mai approvato in Emilia-Romagna [20].
Mi è, dunque, sembrata un’opportunità da cogliere quella di svolgere a Bologna e nella Bologna Business School una discussione sulle prospettive legate all’intelligenza artificiale alla cybersecurity.
Nel Suo discorso ha evidenziato il rischio di travalicare il confine tra natura e artificio. Quanto è importante oggi mantenere una visione “umanocentrica” dell’IA e quali strumenti normativi o etici ritiene essenziali per garantirla?
La tradizione evidenzia che nel discorso giuridico il ricorso alla finzione e le insidie relative alla soggettività giuridica sono sempre in agguato.
Oggi la materia della cd. corptech rende addirittura immaginabile l’avvento del roboboard.
Ad Hong Kong nel 2014 si è sperimentata la nomina di un algoritmo come membro del board [21].
A prescindere da tali ipotesi futuribili, quando ci si interroga sulla personalità giuridica dell’intelligenza artificiale, si attinge, con eccesso rispetto allo scopo, alla soggettività giuridica per risolvere un problema di responsabilità, che già si può affrontare con l’applicazione delle norme sulla responsabilità civile o sulla responsabilità da prodotto, ad esempio in capo a coloro che si occupano della creazione e della distribuzione degli strumenti di intelligenza artificiale (di IA software e hardware) [22].
Due secoli fa ci si chiedeva se nella realtà sociale esistessero solo le persone fisiche o anche le persone giuridiche.
E secondo la teoria organicistica o della realtà o antropomorfica, che vedeva in Otto Von Gierke il massimo esponente, nella Germania dell’epoca, si riteneva che le persone giuridiche vivessero nella realtà sociale come viventi realtà biopsichiche. Dunque, si parlava di “macroantropi”, di “omoni”, si facevano parallelismi tra la persona fisica e la persona giuridica, tra il cervello della persona e il centro decisionale della persona giuridica, fino ad interrogarsi sul sesso di quest’ultima.
Di tale ipostatizzazione fece giustizia la teoria riduzionistica di Kelsen, che pose attenzione sulla circostanza che le situazioni soggettive imputate alle persone giuridiche si riducono in ultima analisi a quelle delle persone fisiche che vi partecipano.
Lo strumento della persona giuridica, tuttavia, non è mai stato abbandonato dal diritto, in quanto metafora, espressione riassuntiva di una modalità di titolarità di situazioni soggettive, funzionale al linguaggio giuridico, nella consapevolezza che quello della persona giuridica è un centro di imputazioni meramente transitorio di situazioni soggettive in ultima analisi riferibili agli esseri umani.
Il monito di Tullio Ascarelli, per cui la persona giuridica è espressione riassuntiva di una speciale disciplina facente capo pur sempre a “esseri nati da ventre di donna”, penso debba essere plasticamente richiamato oggi con riferimento ai tentativi di attribuire soggettività giuridica all’intelligenza artificiale, cd. personalità elettronica, in una transizione da bene a essere [23], sottesi all’impostazione che opera un paragone tra processo decisionale dell’uomo-amministratore e dell’IA, per giungere a risolvere il problema se anche a quest’ultima debba essere applicata l’esenzione da responsabilità alla luce della business judgement rule.
Anche oggi sono molteplici i riferimenti al “cervello della macchina”.
L’ineguagliabile lucidità con cui Francesco Galgano [24] ha trattato il complesso tema della persona giuridica può essere di aiuto per non cadere nella superfetazióne di attribuire soggettività giuridica alla macchina, oggetto e non soggetto del diritto.
[1] Rapporto “Scenario Emilia-Romagna. Previsione macroeconomica a medio termine”, elaborato da Unioncamere Emilia-Romagna sulla base di dati Prometeia, aprile 2024, disponibile al link http://www.ucer.camcom.it. [2] Calì, Uno sguardo al futuro: l’avvento dell’Intelligenza Artificiale nel cyberspazio, in (a cura di) Calì et. al., Cybersecurity: tra rischio e responsabilità. Profili operativi in un settore in continua evoluzione, Giuffré, 2025, p. 275. [3] Calì, op. cit., Giuffré, 2025, p. 276. [4] Studio di PwC, Sizing the prize: What’s the real value of AI for your business and how can you capitalise?, 2017, disponibile al link www.pwc.com/AI, pp. 3 e 4. [5] Id. pp. 22 e 23. [6] Osservatorio Artificial Intelligence POLIMI: boom del mercato italiano +58%, 1,2 miliardi di Euro, in Repubblica, 6 febbraio 2025, che riprende i più recenti risultati dell’Osservatorio sull’Intelligenza Artificiale del Politecnico di Milano. [7] Id. [8] Gentili, Regole per l’Intelligenza Artificiale, in Contr. Impr., 4, 2024, p. 1043 e ss. [9] Capuzzo, A(I) Minority Report. Uno studio su intelligenza artificiale e comparazione giuridica tra UE, USA e Cina, in Riv. Crit. Dir. Priv., 4, 2022, p. 479 e ss. [10] Koetse, In the race for AI supremacy, China and the US are travelling on entirely different tracks, in The Guardian, 9 gennaio 2024. [11] Gentili, op. cit., p. 1043 e ss. [12] Larcker et al., The Artificially Intelligent Boardroom, in Stanford Closer Look Series, 2025, pp. 1 e ss. [13] Helleringer & Florian, AI & The Business Judgement Rule: Heightened Information Duty, in U. Chi. L. Rev. Online. [14] Libertini, Sulla proposta di Direttiva UE su “Dovere di diligenza e responsabilità delle imprese”, Riv. soc., 2021, p. 332. [15] Picciau, Intelligenza artificiale, scelte gestorie e organizzazione delle società, in Il nuovo diritto delle società per azioni, 2022. [16] Enriques, Responsabilità degli amministratori e ruolo degli algoritmi: brevi annotazioni sul senno di poi 4.0, in Ruffolo (a cura di), Intelligenza artificiale, Il diritto, i diritti, l’etica, Giuffrè, 2020, p. 299. [17] Dati reperibili sul sito web della Regione Emilia-Romagna, nella sezione “Invest Emilia-Romagna”. [18] Vesentini, Emilia-Romagna, manifattura campione di export: + 3,2% nel 2022, in Il Sole 24 Ore, 25 gennaio 2023. [19] Vesentini, Bologna, la città italiana più attraente per gli investimenti esteri nel settore industriale, in Il Sole 24 Ore, 5 luglio 2024. [20] Vesentini, Emilia-Romagna vara un pacchetto da 220 milioni per investimenti hi tech. L’importo più alto di risorse del Fondo Sociale europeo, in Il Sole 24 Ore, 28 gennaio 2025. [21] Belcastro, Getting on Board with Robots: How the Business Judgement Rule Should Apply to Artificial Intelligence Devices Serving as Members of a Corporate Board, in Georgetown Law Technology Review, 2019. p. 263 e ss. [22] Tombari, Intelligenza artificiale e corporate governance nella società quotata, in Riv. soc., 2021, p. 1431 ss. [23] Ruffolo, La personalità elettronica, in (a cura di) Ruffolo, Intelligenza artificiale, Il diritto, i diritti, l’etica, Giuffrè, 2020, p. 214. [24] Galgano, Persone giuridiche, in (a cura di) Galgano, Commentario del Codice Civile Scialoja-Branca, Zanichelli, II ed., 2006.