Dal 16 marzo entrerà in vigore il nuovo Regolamento sul rating di legalità approvato dall’Autorità…
È vero ma… (a proposito delle critiche al pamphlet sulla responsabilità dell’avvocato per mancato uso della IA)
di Alberto M. Gambino
Un acceso dibattito ha suscitato la mia tesi sulla potenziale responsabilità civile del professionista per il mancato utilizzo di sistemi di intelligenza artificiale.
Tutto parte dall’interpretazione evolutiva che ritengo occorra assegnare al dovere di diligenza professionale: la natura dinamica della diligenza qualificata richiesta al professionista.
Il punto di partenza di ogni analisi sulla responsabilità dell’avvocato è, e rimane, l’articolo 1176, comma 2, del Codice civile. La norma impone una diligenza da valutarsi “con riguardo alla natura dell’attività esercitata” e la giurisprudenza ha da tempo chiarito che non si tratta della diligenza generica del “buon padre di famiglia”, bensì di quella del “professionista di media attenzione e preparazione”.
La critica secondo cui l’impiego dell’IA non sarebbe un obbligo di legge, pur essendo formalmente corretta, non coglie il punto essenziale. Il parametro della diligenza non è cristallizzato in un elenco tassativo di doveri, ma si adegua costantemente al progresso tecnico e scientifico che modifica la “natura dell’attività”. Decenni fa, nessun avvocato sarebbe stato ritenuto responsabile se non avesse consultato una banca dati giurisprudenziale online; oggi, omettere una simile ricerca su questioni consolidate sarebbe quasi certamente considerato un atto di negligenza. L’intelligenza artificiale rappresenta semplicemente il prossimo stadio di questa evoluzione.
Il legislatore stesso sta iniziando a riconoscere questa trasformazione. La legge 23 settembre 2025, n. 132, nel prevedere l’integrazione di percorsi formativi sull’IA nei corsi universitari e nel delegare l’introduzione di fattispecie penali per l’uso negligente di tali sistemi in ambito professionale, non fa che confermare una tendenza ineludibile: l’IA sta transitando da strumento di nicchia a componente ordinaria della lex artis. Di conseguenza, ignorarne l’esistenza e le potenzialità non sarà più un’opzione neutra, ma una scelta che potrebbe avere conseguenze sul piano della responsabilità.
Un’altra obiezione comune riguarda il timore di una de-umanizzazione della professione e l’affidamento a una tecnologia percepita come inaffidabile o “scatola nera”. Questa visione travisa la tesi proposta. Non si suggerisce affatto che l’avvocato debba abdicare al proprio ruolo critico e decisionale in favore di un algoritmo. Al contrario, la responsabilità ipotizzata non sorge dal “seguire” ciecamente l’IA, ma dal “non utilizzare” uno strumento che può arricchire in modo decisivo la base informativa su cui si fonda la strategia processuale.
L’intelligenza artificiale, nell’ottica della responsabilità professionale, va considerata come un potentissimo strumento di ricerca, analisi e previsione. Il suo mancato impiego può tradursi in una prestazione qualitativamente inferiore, integrando così una violazione del dovere di diligenza.
Si pensi alle ipotesi concrete delineate. Omettere di reperire un precedente giurisprudenziale consolidato e decisivo, facilmente individuabile tramite un sistema di IA, non è diverso dall’ignorare una norma di legge. In entrambi i casi, si tratta di un errore su una questione che, grazie alla tecnologia disponibile, è priva di “margine di opinabilità”. La giurisprudenza consolidata impone all’avvocato un ampio dovere di informare il cliente sui rischi e sulle reali possibilità di successo di un’azione legale, per consentirgli di assumere una decisione pienamente consapevole. Se gli strumenti di analisi predittiva possono fornire stime probabilistiche sull’esito di una causa, basate sull’analisi di migliaia di precedenti, ignorare tali dati significa privare il cliente di un elemento fondamentale per la sua decisione. Non si tratta di presentare la previsione dell’IA come una certezza, ma di integrarla nel quadro informativo complessivo, adempiendo con maggiore completezza al proprio dovere.
L’avvocato – e il professionista in generale – rimane il dominus della strategia e il garante della correttezza del risultato fornito dalla IA. La responsabilità, dunque, non è quella di fidarsi dell’IA, ma quella di avvalersi degli strumenti più avanzati per tutelare al meglio gli interessi del cliente, come la stessa Cassazione ha affermato richiedendo al legale di orientare le proprie scelte tecniche per “tutelare maggiormente il cliente” (cfr. Cass. Civ., Sez. terza, n. 4655 del 22febbraio 2021).
Anche la critica relativa all’eccessiva difficoltà, se non impossibilità, di soddisfare l’onere della prova merita attenzione. Sul cliente certamente grava un rigoroso onere probatorio, dovendo dimostrare non solo l’inadempimento, ma anche il nesso causale tra la condotta omissiva e il danno subito. Tuttavia, affermare che la prova sia “impossibile” è un’esagerazione che non tiene conto della natura del “giudizio prognostico” o “controfattuale” che i tribunali sono abituati a compiere quotidianamente in materia di responsabilità professionale. La giurisprudenza richiede di accertare, secondo il criterio del “più probabile che non”, se una condotta diligente avrebbe portato a un esito diverso e più favorevole. Applicare questo schema al mancato uso dell’IA non è concettualmente diverso. Il cliente dovrà dimostrare, ad esempio, che esisteva sul mercato un sistema di IA accessibile e idoneo; tale sistema, se interrogato, avrebbe “più probabilmente che non” fornito un’informazione cruciale (es. una linea giurisprudenziale sfavorevole e consolidata, una clausola contrattuale palesemente nulla, un’elevata probabilità di inammissibilità dell’appello); quell’informazione, se conosciuta, avrebbe indotto un avvocato diligente a modificare la propria strategia, portando a un esito più vantaggioso per il cliente (es. evitare un giudizio temerario, negoziare un accordo transattivo, impostare diversamente l’atto di appello).
Questo percorso probatorio è senza dubbio complesso, ma non più di quanto non lo sia già oggi dimostrare che una diversa strategia difensiva avrebbe cambiato le sorti di un processo.
La tesi della responsabilità dell’avvocato per mancato uso dell’IA non è un’astrazione fantascientifica, ma la logica conseguenza dell’applicazione di principi consolidati a una realtà tecnologica in rapida evoluzione. Rifiutare questa prospettiva significa ancorarsi a una visione statica della professione, ignorando che il dovere di diligenza impone di guardare avanti e di adottare gli strumenti che la tecnica mette a disposizione per offrire al cliente la miglior difesa possibile. La questione non è “se” questa forma di responsabilità si affermerà, ma “quando” e con quali contorni la giurisprudenza inizierà a riconoscerla.





