Quando l’intelligenza artificiale genera informazioni false su una persona – le cosiddette “allucinazioni” – tutelarsi è possibile, ma non facile. Gli strumenti giuridici esistono: si può presentare un reclamo al Garante della Privacy, avviare una causa civile d’urgenza o chiedere un risarcimento per i danni subiti. Tuttavia, queste strade non garantiscono un intervento tempestivo, e nel frattempo le informazioni errate si diffondono in rete e diventano difficilmente controllabili. Le aziende che sviluppano intelligenze artificiali, come OpenAI, si tutelano specificando che i risultati prodotti dai loro modelli non sono sempre affidabili.
Il caso che ha acceso l’attenzione pubblica è avvenuto in Norvegia. ChatGPT ha generato una narrazione fittizia che descriveva un uomo come responsabile di un duplice omicidio, attribuendogli dettagli inventati ma mescolati a informazioni vere, come il numero e il sesso dei figli e il luogo di nascita. La storia, del tutto priva di fondamento, è stata segnalata dall’associazione NOYB, che ha presentato un reclamo formale all’Autorità per la protezione dei dati norvegese. Secondo l’organizzazione, non si tratta di un caso isolato: ChatGPT fornirebbe regolarmente informazioni inesatte, senza offrire un meccanismo efficace per correggerle.
Dal punto di vista tecnico, il problema nasce dalla natura stessa dei modelli di linguaggio come ChatGPT, che producono testo sulla base della probabilità che una parola segua logicamente l’altra. Questo metodo genera contenuti verosimili ma non necessariamente veri. Anche quando i modelli cercano dati online, non è garantita l’accuratezza delle fonti, e le informazioni errate possono persistere nel tempo, anche dopo una richiesta di rettifica. L’associazione NOYB sottolinea che, allo stato attuale delle conoscenze, non esiste una soluzione certa per cancellare in modo definitivo i dati sbagliati.
OpenAI, da parte sua, ammette che l’accuratezza delle risposte non è garantita. Nella propria informativa sulla privacy, l’azienda precisa che non si deve fare affidamento sui dati prodotti dai suoi modelli. L’utente può chiedere la correzione o la cancellazione di informazioni personali imprecise tramite i canali ufficiali, ma l’accoglimento della richiesta dipende dalle effettive possibilità tecniche del sistema.
Sul piano giuridico, il riferimento principale resta il Regolamento europeo sulla protezione dei dati (GDPR), che impone il principio di esattezza delle informazioni personali. Secondo NOYB, l’uso di un sistema che genera dati falsi e non ne consente la correzione costituisce una violazione di questo principio. Tuttavia, lo stesso GDPR ammette che la rettifica potrebbe non essere tecnicamente garantita, lasciando un vuoto normativo che rende difficile attribuire con certezza una responsabilità.
Un’ulteriore possibilità per il cittadino è quella di chiedere un risarcimento dei danni subiti in base all’articolo 82 del GDPR. La responsabilità civile per danni causati dal trattamento illecito dei dati è riconosciuta, ma resta da chiarire come questa si applichi nel caso delle intelligenze artificiali. Il disegno di legge italiano sull’IA, attualmente in discussione alla Camera, prevede deleghe al governo per disciplinare proprio questi aspetti: l’addestramento dei modelli, le responsabilità in caso di danno, i criteri di prova e la tutela delle vittime.
In attesa di nuove norme, restano valide le disposizioni del codice civile, in particolare l’articolo 2050 sull’esercizio di attività pericolose, e l’articolo 700 del codice di procedura civile che consente provvedimenti d’urgenza. Esistono inoltre strumenti collettivi, come le class action o le azioni rappresentative. Tuttavia, queste vie di tutela dipendono dall’iniziativa individuale, spesso limitata da costi e complessità.
Una risposta più efficace potrebbe venire da interventi sistemici, come l’obbligo per i fornitori di IA di sottoscrivere un’assicurazione contro i danni o la creazione di un fondo per le vittime. Solo in questo modo si potrà garantire una protezione effettiva anche a chi non ha i mezzi per intraprendere un’azione legale.
