Il testo dell’Articolo 13 si concentra su due assi portanti che definiscono i limiti e gli obblighi operativi dei professionisti. Il primo comma stabilisce un limite funzionale netto: “L’utilizzo di sistemi di intelligenza artificiale nelle professioni intellettuali è finalizzato al solo esercizio delle attività strumentali e di supporto all’attività professionale e con prevalenza del lavoro intellettuale oggetto della prestazione d’opera”.
Il secondo comma, invece, introduce un requisito procedurale imprescindibile per la tutela del cliente: “Per assicurare il rapporto fiduciario tra professionista e cliente, le informazioni relative ai sistemi di…source ed esaustivo”.
La qualità di questa normativa risiede proprio nella sua capacità di affrontare direttamente il bene giuridico più prezioso nel contratto d’opera intellettuale: l’integrità del giudizio umano e la fiducia riposta dal cliente nella competenza non delegabile.
La prima clausola normativa risponde alla domanda fondamentale che il pubblico professionale si pone: è l’Intelligenza Artificiale un alleato o un sostituto?
La Legge 132/2025 la definisce in modo inequivocabile come un mezzo strumentale e di supporto. Ciò significa che l’IA è ammessa per la gestione documentale, la ricerca giuridica avanzata, la classificazione dei dati, la redazione automatizzata di bozze, o l’analisi giurisprudenziale assistita , tutte attività che, pur essendo complesse, restano materiali o procedurali. La norma traccia qui una linea invalicabile: l’IA non può sostituirsi alla valutazione giuridica, all’interpretazione della legge, alle scelte difensive o, in generale, a qualsiasi atto che incida direttamente sui diritti fondamentali del cliente.
Questo principio viene rafforzato dal requisito della “prevalenza del lavoro intellettuale”. Storicamente, nel diritto civile (art. 2230 c.c.), la prevalenza dell’opera intellettuale rispetto all’organizzazione dei mezzi materiali era il criterio distintivo tra professione liberale e attività di impresa. Sebbene oggi l’organizzazione di mezzi complessi sia comune anche negli studi professionali, il legislatore, riprendendo tale concetto in un contesto algoritmico, gli conferisce una valenza essenzialmente qualitativa. L’IA può compiere un lavoro massivo in termini quantitativi, processando, ad esempio, migliaia di documenti in pochi istanti, ma il vero valore della prestazione professionale rimane ancorato al pensiero critico umano che deve selezionare, interpretare, applicare e validare quell’output algoritmico al caso specifico.
La conseguenza di questo impianto è profonda: il professionista che si limitasse ad approvare o “limare una bozza di provvedimento seriale” generata da un sistema di IA, senza esercitare un’autentica e critica supervisione, rischierebbe di violare il principio di prevalenza qualitativa. In un simile scenario, il baricentro dell’opera si sposterebbe dalla mente umana all’algoritmo, erodendo l’integrità stessa della prestazione intellettuale. Si previene in questo modo che la tecnologia, nata per ridurre il tempo sui compiti di routine, diventi la fonte del giudizio anziché un mero ausilio. Il valore etico e il compenso professionale devono continuare a riflettere la responsabilità e l’indipendenza intellettuale del professionista.
Mentre il primo comma disciplina il che cosa si può fare con l’IA, il secondo comma si concentra sul come comunicarlo. L’obbligo di trasparenza introdotto dall’Articolo 13 è esplicitamente finalizzato ad assicurare il rapporto fiduciario tra professionista e cliente. Tale requisito non è un semplice adempimento burocratico, ma la condizione di legittimità per l’introduzione di strumenti algoritmici nella relazione d’incarico.
L’informativa imposta deve essere “chiara, semplice ed esaustiva”. La chiarezza e semplicità impongono al professionista di tradurre l’opacità dei processi algoritmici — la cosiddetta black box — in termini comprensibili al non addetto ai lavori.
L’esaustività, d’altra parte, richiede che vengano forniti dettagli sostanziali: la tipologia specifica degli strumenti adottati (ad esempio, se si tratti di modelli linguistici generativi, come gli LLM, o di software di classificazione) , la loro provenienza (se interni o forniti da terzi), le misure di sicurezza adottate per la protezione dei dati del cliente, e soprattutto, la conferma categorica che ogni elaborazione automatizzata è e sarà sempre sottoposta a verifica e supervisione umana.
L’obbligo di trasparenza si pone in stretta analogia con il principio del consenso informato, che nel nostro ordinamento trova fondamento nel diritto all’autodeterminazione della persona.
Come nel settore sanitario, dove il paziente deve essere informato sui rischi e le alternative terapeutiche , nel settore legale il cliente deve conoscere i limiti intrinseci dell’IA (inclusi i rischi di hallucination o bias) per poter decidere consapevolmente di accettare o meno la prestazione assistita. La violazione di questo obbligo di informazione espone il professionista non solo a sanzioni disciplinari, ma anche al rischio di responsabilità civile per lesione del diritto di autodeterminazione del cliente, anche laddove l’esito della prestazione non sia tecnicamente infelice.
Per supportare i professionisti nell’adempimento di questo nuovo onere, gli organismi di categoria, come il Consiglio Nazionale Forense (CNF), hanno prontamente elaborato schemi di informativa standard.
L’utilizzo di tali moduli, sebbene utile per garantire un livello minimo di completezza informativa , non esime l’avvocato dalla necessità di personalizzare la comunicazione in base alla specificità dello strumento e dell’incarico, in un’ottica di costante adeguamento e diligenza.
Deontologia, Riservatezza e Ridefinizione della Responsabilità
L’Articolo 13 non è una norma isolata; essa si innesta direttamente sul corpus normativo deontologico vigente. L’utilizzo dell’IA amplifica la rilevanza di doveri cardine già presenti nel Codice Deontologico Forense (CDF), in particolare il dovere di competenza (Art. 14 CDF), il dovere di diligenza nell’uso delle tecnologie (Art. 55 bis CDF) e, in modo critico, il dovere di segreto professionale e riservatezza (Art. 13 e 28 CDF).
Il punto di maggiore frizione è rappresentato dalla gestione dei dati coperti da segreto professionale. Se un avvocato utilizza un sistema di IA generativa, è tenuto ad assicurare che l’inserimento di dati personali, sensibili o riservati sia garantito da adeguate misure di protezione, localizzazione dei dati e accesso controllato.
La dottrina e le linee guida raccomandano, in questo senso, di privilegiare soluzioni on premise o piattaforme specializzate sviluppate per contesti professionali, evitando l’uso di piattaforme pubbliche o di uso generale che non offrono garanzie sulla gestione del dato e la sua potenziale rielaborazione da parte del fornitore di servizi. La gestione di questa cautela imposta dalla norma comporta un onere economico e organizzativo che potrebbe acuire il gap competitivo tra i grandi studi legali, in grado di investire in soluzioni privacy by design, e i professionisti individuali.
Un elemento di cristallina chiarezza fornito dalla Legge 132/2025 è la non delegabilità della responsabilità. L’avvocato rimane l’unico e insostituibile responsabile dell’uso dell’IA e degli output che ne derivano. L’errore algoritmico (la cosiddetta hallucination), o il bias contenuto in un sistema predittivo, non può essere invocato come caso fortuito o forza maggiore. Qualsiasi errore dell’IA è di fatto trattato come un errore umano non corretto, ascrivibile al dovere di vigilanza e diligenza del professionista.
In sede di contenzioso per responsabilità professionale, la giurisprudenza richiede al professionista di provare di aver agito con la dovuta diligenza.
Con l’avvento dell’IA, questo onere probatorio si innalza: l’avvocato non dovrà solo dimostrare la diligenza nella scelta dello strumento tecnologico (Art. 55 bis CDF), ma soprattutto l’effettivo esercizio della supervisione umana critica sul risultato prodotto. L’assenza di un’informativa chiara e l’incapacità di dimostrare la prevalenza intellettuale sul lavoro algoritmico potrebbero essere considerate forti indizi di negligenza o violazione del rapporto fiduciario, esponendo il professionista alla responsabilità risarcitoria.
La Legge 132/2025, quindi, impone un upgrade implicito dello standard di competenza professionale: non è più sufficiente la sola conoscenza del diritto positivo, ma è richiesta una conoscenza adeguata dei limiti, dei rischi e dei protocolli di sicurezza relativi agli strumenti di IA adottati. La violazione dell’Articolo 13, ad esempio omettendo l’informativa, costituisce una rottura della trasparenza procedurale che può aggravare la posizione del professionista in caso di contestazione civile.
L’Articolo 13 della Legge 132/2025 è un baluardo normativo essenziale che tutela il valore sociale e l’integrità delle professioni intellettuali nell’era dell’automazione. La sua struttura è chiara e compatta, focalizzata in modo netto sui due requisiti irrinunciabili: il limite funzionale (l’IA è solo strumentale) e la garanzia fiduciaria (trasparenza completa).
Questa norma risponde in modo diretto alle principali domande che il pubblico e i professionisti si pongono: la delega di decisioni cruciali all’IA è categoricamente vietata; la riservatezza e il segreto professionale impongono standard di sicurezza elevatissimi, spesso sconsigliando l’uso di piattaforme generiche; e la responsabilità per l’output algoritmico resta integralmente in capo all’essere umano.
L’approccio del legislatore è stato antropocentrico : coniugare la spinta all’innovazione (necessaria per non perdere competitività a livello europeo ) con la tutela dei diritti fondamentali e della fede pubblica. Per i professionisti, l’obbligo di trasparenza non deve essere percepito unicamente come un onere di compliance, ma come una leva strategica per rafforzare il rapporto con il cliente. Un’informativa chiara, semplice ed esaustiva sull’uso dell’IA diventa un elemento di differenziazione, dimostrando non solo diligenza professionale ma anche un’avanguardia etica nella gestione delle nuove tecnologie.
L’Articolo 13, in definitiva, formalizza la base legale per la deontologia dell’algoritmo, assicurando che la mente umana rimanga l’unico e insostituibile titolare dell’opera intellettuale, mantenendo il controllo critico sul dato, sulla strategia e sulla decisione finale. Il futuro della professione intellettuale è tecnologico, ma la sua anima resta irrevocabilmente umana.
𝘼 𝙘𝙪𝙧𝙖 𝙙𝙚𝙡𝙡’𝘼𝙫𝙫. 𝘼𝙡𝙛𝙤𝙣𝙨𝙤 𝙎𝙘𝙖𝙛𝙪𝙧𝙤
𝑅𝑒𝑠𝑝𝑜𝑛𝑠𝑎𝑏𝑖𝑙𝑒 𝐴𝑟𝑒𝑎 𝐼𝑛𝑛𝑜𝑣𝑎𝑧𝑖𝑜𝑛𝑒, 𝐷𝑖𝑔𝑖𝑡𝑎𝑙𝑖𝑧𝑧𝑎𝑧𝑖𝑜𝑛𝑒 𝑒 𝐼𝑛𝑡𝑒𝑙𝑙𝑖𝑔𝑒𝑛𝑧𝑎 𝐴𝑟𝑡𝑖𝑓𝑖𝑐𝑖𝑎𝑙𝑒 𝑑𝑖 𝐹𝑖𝑠𝑎𝑝𝑖




