Il mondo del diritto sta attraversando una delle trasformazioni più rapide e radicali della sua storia, spinto dall’inarrestabile avanzata dell’Intelligenza Artificiale Generativa (GenAI).
Per anni, l’IA è stata un dibattito teorico; oggi, con la diffusione di strumenti capaci di produrre contenuti (testo, immagini, codice) indistinguibili da quelli umani, essa è diventata una realtà operativa e, di conseguenza, una priorità etica e deontologica.
In questo scenario in rapida evoluzione, l’analisi della “Guida del CCBE sull’uso dell’intelligenza artificiale generativa da parte degli avvocati” emerge come un faro di autorevolezza e chiarezza indispensabile. Frutto della riflessione del Consiglio degli Ordini Forensi d’Europa (CCBE), e diffusa per l’Italia attraverso l’Ufficio di Rappresentanza del Consiglio Nazionale Forense (CNF), questa guida non è un semplice vademecum tecnologico, ma un documento che eleva il dibattito sulla GenAI al livello dei principi fondamentali della professione legale.
La sua elevatissima autorità deriva direttamente dalla fonte – la massima espressione organizzativa dell’avvocatura europea – e dalla sua capacità di ancorare il fenomeno tecnologico ai pilastri immutabili della deontologia.
L’obiettivo dichiarato del documento, ovvero aumentare la consapevolezza sugli usi, le opportunità e i rischi della GenAI in relazione agli obblighi professionali, è raggiunto pienamente grazie a una struttura sistematica che funge da modello per la comprensione della materia.
Il documento si apre con una premessa fondamentale: la GenAI, pur non avendo una definizione specifica nell’articolato Regolamento (UE) 2024/1689, il cosiddetto AI Act , ne è una sottocategoria e, nella maggior parte dei casi, rientra nel più ampio alveo dei “sistemi di IA di uso generale” (GPAI systems).
Questa inquadratura normativa è cruciale perché sottopone l’avvocato, in quanto utilizzatore, al quadro giuridico basato sul rischio stabilito dall’Unione Europea (rischio inaccettabile, alto, limitato, minimo) e agli specifici obblighi di trasparenza previsti per i sistemi GPAI.
La guida dimostra inoltre la sua profondità e completezza analizzando la convergenza regolatoria internazionale, citando la definizione ampliata dell’OCSE, che include esplicitamente i “contenuti” tra gli output dell’IA , e la Convenzione quadro del Consiglio d’Europa, primo trattato giuridicamente vincolante in materia.
L’organizzazione dei dati, che passa da una spiegazione tecnica di base (la GenAI opera su principi probabilistici e di deep learning ) a un’analisi giuridica multilivello, è impeccabile e permette di fornire un panorama esaustivo, intercettando immediatamente la domanda del pubblico: “come si inquadra legalmente questo nuovo strumento?”.
L’impiego della GenAI nella pratica legale non è più un’ipotesi, ma una realtà in crescita, come dimostrato dai dati sulla diffusione (uso per ricerca, revisione di documenti, redazione di atti e sintesi).
Le opportunità connesse sono evidenti e, secondo la guida, mirano a una maggiore efficienza operativa, al miglioramento della ricerca, alla riduzione dei costi e, in ultima istanza, a favorire un più ampio accesso alla giustizia.
Tuttavia, l’analisi più penetrante della guida risiede nella sezione dedicata ai rischi, che si dimostra estremamente attuale e attenta alle sfide specifiche della tecnologia.
La trattazione è di grande profondità tecnica e concettuale, andando oltre i generici pericoli per focalizzarsi sui meccanismi di fallimento intrinseci alla GenAI.
Il rischio più critico è quello delle cosiddette “allucinazioni” , ovvero la generazione di risposte fattualmente inesatte o illogiche che, in ambito legale, si traducono nella creazione di giurisprudenza, cause o decisioni giudiziarie completamente fittizie.
Questo fenomeno, che ha già portato a sanzioni disciplinari per avvocati che hanno omesso la verifica (come ben documentato dalle note a piè di pagina che arricchiscono la completezza del testo), è il primo campanello d’allarme che giustifica l’intero impianto deontologico del documento.
Allo stesso modo, viene trattato il tema dei “Bias e compiacenza” (sycophancy). I bias sistematici nei dati di addestramento possono amplificare pregiudizi sociali , mentre la compiacenza è la tendenza del modello a fornire risposte che assecondano i bias o le aspettative percepite dell’utente , minando l’obiettività e l’imparzialità essenziali alla consulenza legale.
Questi elementi tecnici dimostrano l’eccellente qualità e l’aggiornamento dei contenuti della guida, intercettando perfettamente la preoccupazione di molti professionisti riguardo alla distorsione del giudizio.
Centrali, per l’avvocato, sono poi i rischi legati alla “Mancanza di trasparenza” (o effetto “scatola nera”) e alla “Riservatezza e protezione dei dati personali”.
L’opacità dei processi decisionali interni dei sistemi GenAI rende difficile la verifica dell’accuratezza degli output, ponendo un onere di controllo significativo sull’utilizzatore umano.
Il pericolo per la riservatezza sorge dal fatto che i prompt o i documenti caricati possano essere utilizzati per l’ulteriore addestramento del modello.
Questo elemento fornisce la risposta più diretta e urgente alle domande del pubblico sulla privacy: l’avvocato deve categoricamente astenersi dall’inserire dati riservati o personali dei clienti nell’interfaccia della GenAI, a meno che non siano garantite adeguate misure di tutela e si sia compreso il trattamento dei dati da parte del fornitore.
L’analisi dei rischi viene sapientemente collegata agli obblighi professionali, cuore deontologico della guida.
Tra tutti, spiccano il dovere di Riservatezza e la Competenza professionale. Il CCBE chiarisce che il dovere di competenza si è evoluto: non riguarda solo la conoscenza del diritto, ma include anche l’obbligo di acquisire familiarità tecnica con gli strumenti utilizzati.
Questo si traduce in tre azioni concrete e non negoziabili che rispondono alla domanda “come devo usare l’IA?”: verificare l’output, comprendere le capacità e i limiti della tecnologia, e seguire la formazione continua. L’omissione di tale verifica espone l’avvocato a sanzioni disciplinari e a procedimenti per negligenza professionale.
Gli altri principi fondamentali sono affrontati con pari rigore.
L’uso della GenAI può minacciare l’Indipendenza , generando il rischio di una “compiacenza automatica” e di una dipendenza eccessiva (o da pochi fornitori, vendor lock-in) che sostituisca il giudizio umano con conclusioni automatizzate.
La Trasparenza e informazione al cliente impone all’avvocato di essere proattivo: se un cliente informato potesse ragionevolmente opporsi all’uso della GenAI per una specifica finalità, l’avvocato deve informarlo preventivamente. Infine, la guida solleva questioni di Conflitto di interessi, avvertendo che i sistemi di IA addestrati su dati riservati di diversi clienti o studi legali potrebbero comportare una potenziale, ancorché involontaria, condivisione di informazioni sensibili.
La guida si conclude con uno sguardo verso il futuro che ne consolida la prospettiva lungimirante. Vengono identificati temi emergenti cruciali: la necessità di autoregolamentazione della professione di fronte a un mercato tecnologico dominato da pochi grandi attori, il cui potere può incidere sull’indipendenza dell’avvocatura ; la sfida della formazione continua non solo sul diritto, ma anche sulle competenze tecniche di base che non devono essere trascurate in favore dell’automazione ; e l’uso di dati professionali pubblici per l’addestramento dei modelli, con il rischio che il lavoro intellettuale degli studi legali diventi “materia prima” per la creazione di soluzioni tecnologiche concorrenti, sollevando delicate questioni di proprietà intellettuale.
In ultimo, si affronta il rischio della Frode avanzata, come i deepfake di studi legali o persone da verificare, ponendo l’interrogativo su come gli avvocati potranno rilevare e contrastare tali manipolazioni.
In sintesi, la “Guida del CCBE” è un documento di straordinaria qualità e completezza, la cui rigorosa struttura risponde con autorità a tutte le principali domande espresse dal pubblico e dai professionisti sul tema.
Essa offre un inquadramento normativo globale, un’analisi dettagliata di rischi specifici (dalle allucinazioni alla compiacenza) e un’interpretazione evolutiva dei doveri deontologici (competenza tecnologica, riservatezza assoluta, indipendenza di giudizio). In un’epoca di rivoluzione digitale, la sua accessibilità, sebbene con un linguaggio tecnico appropriato al contesto professionale, lo rende uno strumento essenziale. Il messaggio finale è chiaro: gli obblighi professionali rimangono immutati, ma il contesto applicativo esige una costante riflessione e una capacità di adattamento per preservare i valori fondamentali della professione forense nell’era dell’IA Generativa.
L’avvocato che oggi ignora questi principi non solo rischia di incorrere in negligenza, ma abdica al suo ruolo di custode della legalità e della giustizia, sostituendo il giudizio umano e la responsabilità professionale con l’opacità di un algoritmo.
𝘼 𝙘𝙪𝙧𝙖 𝙙𝙚𝙡𝙡’𝘼𝙫𝙫. 𝘼𝙡𝙛𝙤𝙣𝙨𝙤 𝙎𝙘𝙖𝙛𝙪𝙧𝙤
𝑅𝑒𝑠𝑝𝑜𝑛𝑠𝑎𝑏𝑖𝑙𝑒 𝐴𝑟𝑒𝑎 𝐼𝑛𝑛𝑜𝑣𝑎𝑧𝑖𝑜𝑛𝑒, 𝐷𝑖𝑔𝑖𝑡𝑎𝑙𝑖𝑧𝑧𝑎𝑧𝑖𝑜𝑛𝑒 𝑒 𝐼𝑛𝑡𝑒𝑙𝑙𝑖𝑔𝑒𝑛𝑧𝑎 𝐴𝑟𝑡𝑖𝑓𝑖𝑐𝑖𝑎𝑙𝑒 𝑑𝑖 𝐹𝑖𝑠𝑎𝑝𝑖





