L’Avvocatura Italiana al Bivio Digitale: Ai nel settore Legal

L’era dell’Intelligenza Artificiale Generativa sta ridefinendo ogni settore professionale, ma il mondo giuridico, per sua natura legato al precedente e alla tradizione ermeneutica, affronta questa trasformazione con una cautela che, nel contesto italiano, assume i contorni di un vero e proprio paradosso.
L’analisi dei dati recentemente diffusi dal Consiglio Nazionale Forense (CNF), basati sull’autorevole indagine IPSOS “Avvocati e attualità: Intelligenza artificiale”, presentata in occasione del XXXVI Congresso nazionale forense tenuto a Torino, rivela un quadro complesso che merita un’attenta valutazione critica.
Secondo questa indagine, condotta intervistando un robusto campione di 2532 avvocati italiani, l’adozione di sistemi di intelligenza artificiale si ferma ad appena il 36% della categoria forense.
Questo dato, se isolato, potrebbe indicare una semplice lentezza nell’adozione tecnologica, ma è il sentimento espresso dagli utilizzatori che definisce il vero nucleo del problema: di quel 36% che già utilizza l’IA, ben il 72% reputa che tali sistemi non siano in grado di interpretare correttamente leggi e precedenti.
Si manifesta, dunque, una profonda e diffusa sfiducia, non solo tra gli scettici a priori, ma anche tra coloro che hanno già sperimentato l’interazione con l’algoritmo.
Il basso tasso di adozione e l’alto livello di scetticismo tra i professionisti italiani impongono una riflessione sulla competitività e sull’adattabilità della nostra avvocatura.
Il contesto internazionale, infatti, mostra dinamiche radicalmente diverse che espongono l’Avvocatura Italiana a un potenziale rischio competitivo: ricerche condotte altrove, come quelle relative agli Stati Uniti o al Regno Unito, documentano un’impennata nell’adozione dell’IA nel settore legale. A livello globale, l’adozione dell’IA tra i professionisti legali è aumentata esponenzialmente fino al 79% in un solo anno, e i legali britannici mostrano tassi superiori a questa media.
Questa disparità non è meramente stilistica o accessoria; essa indica una potenziale biforcazione nel mercato. Gli studi legali che dimostrano AI fluency, ovvero la padronanza nell’uso critico della tecnologia, stanno ridefinendo le aspettative dei clienti, i quali si mostrano sempre più favorevoli o neutrali rispetto all’uso dell’IA da parte dei loro avvocati.
L’accelerazione dell’efficienza è tangibile, considerando che compiti come la raccolta di informazioni e l’analisi dei dati potrebbero essere automatizzati fino al 74%. L’avvocatura italiana si trova, pertanto, di fronte alla necessità ineludibile di sviluppare nuove competenze che si concentrino sul giudizio umano insostituibile, affiancandolo alla maestria tecnologica, per evitare l’obsolescenza in un mercato in cui l’adattabilità definisce il successo.
Per comprendere appieno il fondamento di questa sfiducia (il 72% che dubita delle capacità interpretative dell’IA), è necessario guardare alle radici strutturali del nostro ordinamento. Il sistema giuridico italiano, basato sul Civil Law o diritto continentale, differisce profondamente dai sistemi di Common Law (diritto anglosassone) dove i sistemi di Intelligenza Artificiale tendono a performare con maggiore apparente affidabilità a causa della prevalenza dei binding precedents. Nel Civil Law, l’attività del giurista si basa sull’interpretazione della norma statutaria e sul confronto della legge con una casistica complessa e spesso mutevole.
Questo approccio esige un esercizio costante di pensiero umano critico e la capacità di estrarre regole operative, un processo che trascende la mera ricezione e la piatta ripetizione di contenuti. La cautela espressa da quasi tre quarti degli avvocati utilizzatori riflette la difficoltà intrinseca dell’IA, nella sua forma attuale, di gestire la complessità e le aree grigie della giurisprudenza nazionale, che spesso presenta pronunce non uniformi o evolutive, sfuggendo a una mera valutazione algoritmica oggettivamente esatta.
Questo rischio di allucinazioni o di risposte decontestualizzate giustifica pienamente l’attuale cautela professionale, ribadendo la necessità di comprendere i limiti intrinseci di questi strumenti.
L’Unione Europea, con l’AI Act, ha definito un approccio basato sul rischio, posizionandosi come il primo gruppo di stati a implementare un regolamento completo e strutturato sull’utilizzo dell’IA. Sebbene i sistemi di assistenza al legal drafting o alla ricerca legale non rientrino nell’elenco tassativo dei sistemi ad “alto rischio”, essi sono comunque soggetti agli obblighi previsti per i sistemi a rischio limitato. Tali obblighi includono la trasparenza, ovvero l’informazione all’utente che sta interagendo con un sistema automatizzato, e la formazione specifica del personale.
Questi requisiti sono fondamentali, anche nei contesti della risoluzione extragiudiziale delle controversie, per preservare la fiducia degli utenti nel processo decisionale. Un pilastro fondamentale dell’AI Act è, inoltre, la prescrizione che i sistemi di IA debbano essere sviluppati e utilizzati nel pieno rispetto della dignità umana e dell’autonomia personale, operando in modo da poter essere adeguatamente controllati e sorvegliati dagli esseri umani. La sorveglianza umana (human oversight) è un concetto centrale per l’uso etico e responsabile dell’IA nel settore legale.
Il requisito della supervisione umana non è una mera precauzione etica, ma costituisce la diretta risposta normativa all’obiezione del 72% degli avvocati italiani. Esso serve da argine contro l’eccessivo affidamento sulla tecnologia senza l’apporto di un pensiero umano critico, il quale, se mancante, potrebbe condizionare il giurista, orientando le scelte in direzione di quelle formulate dalla macchina.
Il rischio è che l’approccio fiduciario e incurante delle specificità della fattispecie concreta porti la soluzione proposta dall’IA ad assumere una portata normativa, deresponsabilizzando il giudice o il consulente e compromettendo significativamente l’evoluzione giurisprudenziale.
L’avvocatura italiana deve abbracciare l’innovazione per mantenere la propria competitività e innalzare la qualità del servizio con trasparenza e responsabilità per governare il flusso tecnologico, garantendo che l’Intelligenza Artificiale resti uno strumento a servizio della Giustizia e non un fattore di rischio per i diritti del cittadino.
Il centro decisionale deve rimanere saldo nell’intelletto e nella responsabilità del Giurista.

𝘼 𝙘𝙪𝙧𝙖 𝙙𝙚𝙡𝙡’𝘼𝙫𝙫. 𝘼𝙡𝙛𝙤𝙣𝙨𝙤 𝙎𝙘𝙖𝙛𝙪𝙧𝙤
𝑅𝑒𝑠𝑝𝑜𝑛𝑠𝑎𝑏𝑖𝑙𝑒 𝐴𝑟𝑒𝑎 𝐼𝑛𝑛𝑜𝑣𝑎𝑧𝑖𝑜𝑛𝑒, 𝐷𝑖𝑔𝑖𝑡𝑎𝑙𝑖𝑧𝑧𝑎𝑧𝑖𝑜𝑛𝑒 𝑒 𝐼𝑛𝑡𝑒𝑙𝑙𝑖𝑔𝑒𝑛𝑧𝑎 𝐴𝑟𝑡𝑖𝑓𝑖𝑐𝑖𝑎𝑙𝑒 𝑑𝑖 𝐹𝑖𝑠𝑎𝑝𝑖

Iscriviti alla nostra Newsletter
e resta aggiornato.

F.I.S.A.P.I. – Confederazione Generale
Professioni Intellettuali

CONTATTI