Se questo sito ti piace, puoi dircelo così

Dimensione carattere: +

Giustizia predittiva: l'algoritmo è uguale per tutti?

Imagoeconomica_1662382

Secondo il filosofo e matematico tedesco G. W. Leibeniz (padre della teoria combinatoria), tutto il pensiero umano è scomponibile in pochi, semplici concetti, variamente combinabili tra loro, conseguentemente è possibile giungere ad un' "arte combinatoria"quale strumento per costruire il calcolo del pensiero.

La tesi della calcolabilità del ragionamento è alla base dei nuovi programmi informatici che, mediante l'utilizzo di algoritmi, sono in grado di riprodurre in maniera automatizzata la logica giuridica.

Il fenomeno è particolarmente diffuso negli USA, dove alcune corti si avvalgono di tecniche informatiche per misurare il rischio di recidiva del condannato, ai fini della determinazione della pena o di una misura alternativa alla detenzione.

L'introduzione delle nuove metodologie informatizzate, sebbene presenti l'innegabile vantaggio di ridurre i tempi ed i costi necessari per la ricostruzione dei fatti, mette in serio rischio il sistema di tutele e di garanzie dell'individuo.

Per comprendere l'entità di tale rischio è indispensabile effettuare alcune precisazioni sulle modalità di funzionamento dei programmi utilizzati nella giustizia predittiva.

Tutti i software sono fondati su algoritmi: ossia sequenze di istruzioni ordinate al fine di risolvere un problema o raggiungere un determinato obbiettivo.

Nel caso dei programmi utilizzati in ambito giudiziario (almeno quelli in uso negli Stati Uniti, che vengono utilizzati per calcolare il rischio di recidiva) le sequenze di istruzioni sono fondate su alcuni fattori come, ad esempio, il background familiare, il livello di educazione, il genere, l'appartenenza ad un certo gruppo etnico. Dunque, un imputato potrebbe essere marcato da un software come un possibile futuro criminale sulla base della propria condizione sociale o di altri fattori che esulano dalle caratteristiche della condotta oggetto di giudizio.

Ovviamente, l'esempio è riferito ai programmi elaborati per stabilire il rischio di recidiva e la scelta delle misure alternative, e non a strumenti finalizzati a valutare la condanna o meno del soggetto; tuttavia esso è utile al fine di comprendere come il giudizio finale sul rischio di recidiva risenta di fattori che prescindono dalla condotta dell'imputato e che non hanno, dunque, niente a che vedere con la gravità del reato commesso nel caso concreto.

Inoltre, occorre altresì valutare l'eventualità che, nell'elaborare le "sequenze di istruzione" dell'algoritmo, si introducano fattori che possano pregiudicare o agevolare alcune categorie di persone, come accaduto, ad esempio, per il programma compas.

Secondo un'inchiesta pubblicata nel 2016 da ProPubblica, sul software Correctional offender management profiling for alternative sanctions (compas), l'algoritmo su cui è fondato tale programma discrimina gli afroamericani: i neri hanno il doppio delle probabilità dei bianchi di essere etichettati dal programma come ad alto rischio di recidiva.

Per gli stati appartenenti all'unione europea, l'art. 22 del regolamento generale sulla protezione dei dati personali (RGDP) vieta espressamente che un individuo possa essere sottoposto ad una decisione basata unicamente sul trattamento automatizzato, ciò, dunque, esclude a priori che la futura (e possibile) introduzione di programmi in grado di prevedere il possibile esito del processo possa sostituire in toto la valutazione discrezionale del giudice; ciò nonostante, al fine di evitare che la "calcolabilità delle controversie" introduca un sistema improntato all'iniquità, è indispensabile che i programmi che verranno elaborati per coadiuvare l'attività dei giudice siano fondati su fattori di calcolo conoscibili e rivedibili in ogni momento.

E' indispensabile, poi, che siano introdotti dei limiti all'utilizzo degli strumenti predittivi al fin di scongiurare risultati aberranti come quelli determinati da COMPAS e, soprattutto, che non si assuma unatteggiamento fideistico nei confronti dell'intelligenza artificiale: come dimostrato da un recente studio condotto dai ricercatori dell'Università di Cambridge e dell'Università di Oslo, infatti, per alcuni problemi non possono esistere algoritmi.

 

Tutti gli articoli pubblicati in questo portale possono essere riprodotti, in tutto o in parte, solo a condizione che sia indicata la fonte e sia, in ogni caso, riprodotto il link dell'articolo.

Tecnologie innovative per la trasmissione dell'ele...
Mining e crypto fuori dal campo Iva.

Forse potrebbero interessarti anche questi articoli

Cerca nel sito