Lo sviluppo dell’intelligenza artificiale pone il problema dell’impatto immediato che essa potrebbe avere nell’amministrazione della giustizia.
Negli ultimi dieci anni si è assistito allo sviluppo senza precedenti dei sistemi di “intelligenza artificiale”. A differenza di altre rivoluzioni tecnologiche, che hanno coinvolto in primis l’economia e la struttura della società e solo indirettamente la giustizia e la legge, la nascita e il perfezionamento dell’intelligenza artificiale pongono il problema dell’impatto immediato che essa potrebbe avere se impiegata in vario modo nell’amministrazione della giustizia.
Il più recente panorama normativo europeo
L’intelligenza artificiale è definita all’interno del regolamento europeo denominato “AI Act” come “un sistema automatizzato progettato per funzionare con livelli di autonomia variabili e che può presentare adattabilità dopo la diffusione e che, per obiettivi espliciti o impliciti, deduce dall’input che riceve come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali”.
L’AI Act (entrato in vigore nel 2024) contiene una serie di prescrizioni riguardanti l’impiego di AI in vari ambiti, tra i quali la giustizia, e adotta un approccio basato sul rischio. Fra gli impieghi dell’AI definiti “ad alto rischio” vengono menzionati “i sistemi di IA destinati a essere usati da un’autorità giudiziaria o per suo conto per assistere un’autorità giudiziaria nella ricerca e nell’interpretazione dei fatti e del diritto e nell’applicazione della legge a una serie concreta di fatti, o a essere utilizzati in modo analogo nella risoluzione alternativa delle controversie”.
Si pone quindi il problema di capire quali siano le possibilità applicative dell’AI nei vari ambiti della giustizia.
Intelligenza artificiale: uno strumento per prevedere la giustizia?
Una delle più frequenti argomentazioni a favore dell’impiego dell’IA nella giustizia è figlia dell’ideale illuministico di certezza e conoscibilità del diritto, per cui tutti i cittadini devono poter sapere in ogni momento che tutele sono garantite e che divieti sono imposti loro dall’ordinamento.
Secondo questa linea di pensiero l’IA, se utilizzata dal giudice come ausilio per formare la propria decisione, potrebbe accrescere l’uniformità e imparzialità delle decisioni, e consentire al privato cittadino di sapere in anticipo quale sarà l’esito di un giudizio in quanto le incertezze vengono ridotte al minimo dalla macchina. Tuttavia, questa prospettiva presenta delle problematicità: fondandosi sui soli precedenti, la “decisione” prodotta dall’IA rischia di diventare un freno all’evoluzione del diritto, la quale spesso procede proprio per contrasti giurisprudenziali e soluzioni nuove, che rompono con gli orientamenti tradizionali e consolidati. In quest’ipotesi, il giudice sarebbe portato, per semplice pigrizia o per timore, a conformarsi alla decisione della macchina (la quale a sua volta è basata sulle precedenti decisioni dei giudici), non volendo assumersi il rischio di entrare in conflitto con essa.
Risulta dunque fondamentale non solo che il potere decisionale resti nelle mani del giudice, ma anche che la sua decisione non sia influenzata da un sistema che pretende erroneamente di trovare in un diritto sempre uguale al passato una maggiore tutela degli interessi e dei diritti dei consociati.
L’intelligenza artificiale nel singolo processo
Si discute se sia possibile, senza che ne derivino rischi eccessivi, ricorrere all’IA per ottenere pareri tecnici e consulenze scientifiche nell’ambito del singolo processo.
Il parere fornito dall’intelligenza artificiale amplierebbe senza dubbio i limiti che il giudice incontra nella valutazione delle prove scientifiche. Inoltre, c’è chi menziona fra le conseguenze di tale impiego una maggiore efficienza e rapidità della giustizia. Tuttavia bisogna chiedersi se il giudice possa far affidamento sulle prove fornite dal software, e se l’attendibilità di tali prove possa essere indagata e verificata sia dal giudice che dalle parti del processo.
Per fare un esempio concreto, pensiamo all’accusa che ricorra ad un parere dell’intelligenza artificiale per provare la colpevolezza dell’imputato. La difesa deve essere in grado di verificare su basi razionali l’attendibilità di tale prova, ma tale verifica risulta particolarmente difficile quando ci si trova davanti a software estremamente complessi che richiedono notevoli competenze informatiche e il cui funzionamento è spesso coperto da segreto industriale. In questo caso è lo stesso diritto di difesa che rischia di venir compromesso.
Vi sono, al contrario, casi in cui l’IA può favorire il diritto alla difesa e la piena partecipazione delle parti al procedimento. Per esempio, pensiamo ad un software che traduca in tempo reale tutti gli atti processuali, in modo che i soggetti che non parlano italiano possano comprendere pienamente ciò che accade durante il processo.
Anche sul piano dell’efficientazione della giustizia l’IA può essere impiegata fruttuosamente, per esempio tramite un software che calcoli automaticamente le spese processuali.
IA e “attività amministrative puramente accessorie”: un’applicazione priva di rischi?
Il già menzionato AI Act non classifica come “ad alto rischio” i sistemi di IA “destinati ad attività amministrative puramente accessorie, che non incidono sull’effettiva amministrazione della giustizia nei singoli casi”.
Le possibili applicazioni in tal senso sono varie; si va dall’impiego di IA generativa per l’anonimizzazione di sentenze e altri atti giudiziari al calcolo dei termini di prescrizione sulla base del reato e di eventuali cause di interruzione e sospensione tramite software appositi. Insomma, tutti compiti che nella maggior parte dei paesi europei non hanno carattere giurisdizionale e sono assegnati non a giudici ma a personale amministrativo specializzato.
Conclusioni
L’articolo 3 dell’AI Act definisce un sistema di AI come “un sistema automatizzato progettato per funzionare con livelli di autonomia variabili e che può presentare adattabilità dopo la diffusione e che, per obiettivi espliciti o impliciti, deduce dall’input che riceve come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali”. Questa definizione, apparentemente scontata, ha avuto il merito di rompere con la tradizionale concezione dell’intelligenza artificiale come sistema che imita l’intelligenza umana e il suo funzionamento.
L’intelligenza artificiale, ora come ora, non può neanche aspirare a simulare il pensiero umano, e una volta compreso questo fatto non è difficile comprendere i limiti dell’IA se applicata alla giustizia. La giustizia richiede dal giudice non solo il ragionamento logico nella forma del sillogismo giudiziale (il quale già di per sé è inaccessibile all’intelligenza artificiale), ma anche l’empatia, il sentimento e le emozioni.
In altre parole, se il “fare giustizia” non può essere ridotto a un calcolo matematico, il “giudice-robot” non può e non potrà mai sostituire il giudice umano.
A cura di Dario Arca
 
				 
															 
								 
								 
								 
								
