IA e Giustizia: un cantiere con al centro il giudizio umano
31 Luglio 2025
L’intelligenza artificiale per organizzare il lavoro, redigere atti, ricercare e catalogare documenti. Il settore giustizia ringrazia; è indubbio il risparmio di tempo nelle attività di base. Ma bisogna essere consapevoli dello strumento, saperlo governare.
È la “riflessività” che la macchina non potrà mai avere, invocata dal magistrato Antoine Garapon e dal filosofo Jean Lassègue ne La giustizia digitale (Il Mulino, 2021), un libro che ha animato il dibattito sul rapporto tra IA e attività giudiziaria. I due autori criticano il “mito della delega alle macchine”; non tutto può essere calcolabile, e bisogna opporre una “forza politica” all’avanzare inarrestabile degli algoritmi.
Nel settore della giustizia, l’istanza di efficienza, cui l’IA assolve, deve cedere il passo alla tutela dei diritti. I limiti sono ben chiari nell’AI Act; entrato in vigore il 1° agosto 2024, sarà pienamente applicabile dal 1° agosto 2026. Il regolamento europeo classifica alcune attività come “ad alto rischio”, tra cui quella giurisdizionale; di conseguenza, bisogna alzare l’asticella degli standard di trasparenza e controllo.
“L’utilizzo di strumenti di IA può fornire sostegno al potere decisionale dei giudici o all’indipendenza del potere decisionale dei giudici o all’indipendenza del potere giudiziario, ma non dovrebbe sostituirlo: il processo decisionale finale deve rimanere un’attività a guida umana”, si legge nel considerando 61 dell’AI Act. Comprensibile, perché la posta in gioco è alta: la tutela dei diritti. L’obiettivo è azzerare il terreno della giustizia predittiva. Si parte da qui: gli algoritmi non potranno mai governare i processi, valutare le prove, pensare e scrivere le sentenze.
Coerentemente con il regolamento europeo, i limiti sono altrettanto chiari nella normativa italiana. Il principio della centralità del giudizio umano è presente nel disegno di legge in materia di intelligenza artificiale all’esame del Parlamento.
L’articolo dedicato al settore giustizia si apre con un’enunciazione di principio. “Nei casi di impiego dei sistemi di intelligenza artificiale nell’attività giudiziaria – si legge nel testo – è sempre riservata al magistrato ogni decisione sull’interpretazione e sull’applicazione della legge, sulla valutazione dei fatti e delle prove e sull’adozione dei provvedimenti”.
Ferma restando questa “riserva assoluta”, è il Ministero a disciplinare gli impieghi dei sistemi di IA per organizzare i servizi relativi alla giustizia, semplificare il lavoro giudiziario e le attività amministrative accessorie.
La disciplina italiana corre in parallelo con l’AI Act di matrice europea. Si tratta di “una normativa complementare, non sovrapposta”, commenta il capo dell’Ufficio legislativo del Ministero, Antonio Mura, che ha anche coordinato i lavori del Venice Justice Group. Proposto dal ministro Nordio e nato in occasione del G7 Giustizia di Venezia del 2024, anno di Presidenza italiana del G7, il gruppo composto da esperti, nel suo primo anno di vita, si è concentrato proprio su intelligenza artificiale e giustizia.
Nordio: “L’IA, un valido aiuto per il giudice ma non lo sostituirà”
In una materia che è ancora in divenire, darsi obiettivi e limiti comuni è essenziale. “È venuta fuori l’unità di vedute nella diversità delle esperienze”, sottolinea Mura. Nella riunione conclusiva alla Farnesina del Venice Justice Group, nel novembre 2024, “si è trovato lo spazio per un documento unitario”, racconta il capo dell’Ufficio legislativo.
“Il passaggio logico – prosegue – in base al quale è il giudizio umano che deve restare al centro del processo è quello che ha unificato tutti. Nessuno dei Paesi del G7 ha in animo di alterare la centralità dell’umano; non è una cosa scontata, a scatola chiusa”.
Ma come, e quanto disciplinare il rapporto tra IA e giustizia? Diversi i possibili approcci. “L’impostazione europea è attenta ai pericoli, il che va bene – prosegue Mura –; ma è molto tesa a regolamentare. Altri Paesi hanno mostrato più flessibilità: per esempio nel Nord America – Canada e Stati Uniti – si tende a lasciare che siano le Corti a decidere caso per caso, visto che c’è il precedente vincolante”.
Per il capo dell’Ufficio legislativo di via Arenula, è importante “non disincentivare, perché il grande pericolo è che enfatizzando troppo i rischi pensiamo di paralizzare lo strumento. Ma è talmente potente, che comunque rischia di travolgerci, e quindi rimaniamo superati dai fatti”.

Da un lato si regolamenta; dall’altro si continua a sperimentare. I lavori del Venice Justice Group sono stati un’occasione anche per capire come si stanno muovendo gli altri Paesi.
“La delegazione inglese, per esempio – racconta Mura – ha insistito per introdurre nella riunione il tema dell’impiego dell’intelligenza artificiale in materia carceraria; secondo loro si possono analizzare alcune problematiche e fare degli screening, come sulla pericolosità sociale. I rappresentanti statunitensi hanno ragionato in termini di analisi delle risultanze nei confronti di singoli soggetti, per stimare il pericolo di recidiva”.
In materia penitenziaria e penale è però problematica l’incidenza dei bias, dei pregiudizi trasferiti dall’uomo all’algoritmo. Ma, assicura Mura, “uno dei dati comuni, e tutti sono molto impegnati in questo senso, è proprio ripulire e rimediare a eventuali bias”.
Più fattibile è l’utilizzo in cause elementari, dove la qualificazione del fatto è pacifica e c’è solo da quantificare. Mura cita l’esempio inglese, “dove stanno sperimentando l’uso dell’IA nella soluzione delle cause più facili, come in quelle di risarcimento del danno da incidente stradale. Tutti si riconoscono nel principio del giudizio umano, tuttavia incominciamo a dire che ci possono essere delle cause dove è possibile l’impiego degli algoritmi. Una cosa secondo me praticabile, in prospettiva, è la determinazione delle spese processuali”.
Le prime applicazioni dell’IA in via Arenula mostrano una buona resa. In un articolo del Sole 24 Ore a firma di Valentina Maglione, si parla di alcune attività illustrate nella relazione sull’amministrazione della giustizia per il 2024: dal programma “Nemesis” dell’Ispettorato, per gestire l’amministrazione interna e le banche dati, ai data lake in ambito Pnrr, per archiviare ed estrarre dati utili nelle decisioni.
Al di là della ricerca giurisprudenziale, il capo dell’Ufficio legislativo sottolinea l’utilità dell’IA nello studio della normativa. “I nostri addetti producono le cosiddette ‘tabelle di concordanza’ – spiega Mura –; confrontano le normative europea e italiana dello stesso settore per capire quali sono i punti di coerenza e quali necessitano di intervento; un lavoro importantissimo per l’impostazione della disciplina normativa futura”. In questa attività, l’IA è un valido aiuto. Ovviamente, specifica Mura, “Noi controlliamo, verifichiamo e integriamo, applicando il principio del giudizio e della responsabilità umani”.