L’intelligenza artificiale in carcere. Le nuove indicazioni del Consiglio d’Europa

L’uso dell’intelligenza artificiale in carcere comincia ad essere sempre più importante. Per questo il Consiglio d’Europa ha voluto adottare delle Raccomandazioni che ribadiscano la necessità di accompagnare l’impiego dell’intelligenza artificiale nelle carceri con la tutela dei diritti umani e della dignità dei detenuti

Associazione Antigone
7 min readDec 3, 2024

Di Rebecca De Romanis

In occasione della sua 1509a riunione, il Comitato dei Ministri del Consiglio d’Europa ha adottato la Raccomandazione CM/Rec(2024)5 (che qui abbiamo tradotto in italiano) riguardo gli aspetti etici e organizzativi dell’uso dell’intelligenza artificiale e delle tecnologie digitali correlate da parte dei servizi penitenziari e di libertà vigilata. Riferendosi agli Stati membri, il Comitato chiede che questi siano guidati dalla raccomandazione CM/Rec(2024)5 e che ne assicurino la diffusione.

Il dibattito europeo sull’utilizzo dell’intelligenza artificiale nelle carceri va avanti dal 2019, a seguito della presentazione delle linee guida etiche sull’IA redatte dall’High Level Expert Group della Commissione europea e dell’Unboxing Artificial Intelligence — 10 Steps to Protect Human Rights del Commissario per i diritti umani del Consiglio d’Europa.

Nel 2021 il Consiglio per la Cooperazione Penologica (PC-CP) ha proposto una raccomandazione sull’impiego di queste tecnologie negli istituti penitenziari e nei servizi di probation nella quale ritiene che l’IA sia utile per ciò che concerne l’area penale esterna, per esempio rispetto al monitoraggio e la localizzazione degli smartphone degli autori di reato. Il PC-CP stima molto l’utile l’uso di queste tecnologie negli istituti penitenziari e nei sistemi di probation al fine di raccogliere ed elaborare più efficacemente i dati sugli autori di reato e di rendere più capillare la sorveglianza e l’osservazione dei detenuti.

Tuttavia, nella raccomandazione il Consiglio ha sollevato dubbi in merito all’affidabilità del concetto di polizia predittiva, la quale consiste in un’analisi del detenuto che basa le misure preventive su una serie di algoritmi volti a prevedere la recidiva. Il ricorso all’IA è dunque legato alla sicurezza e non sostituisce le funzioni del carcere, né risolve il problema del sovraffollamento. Il suo utilizzo è tendenzialmente relativo al controllo all’interno degli istituti, grazie alla possibilità di monitoraggio costante e di immediatezza di risposta che essa offre, il che aiuta sicuramente a far sì che gli istituti siano più sicuri, ma non elimina i loro problemi strutturali, né sostituisce le figure professionali.

A giugno 2023, il Parlamento europeo proponeva il primo insieme di regole al mondo sull’intelligenza artificiale, anche se l’utilizzo dell’IA nel settore penitenziario è già in fase di sperimentazione in varie carceri extraeuropee. A Hong Kong una prigione monitora il battito cardiaco dei detenuti per trarne indicazioni comportamentali. In un carcere cinese sono presenti telecamere e sensori nascosti all’interno degli istituti per sorvegliare gli autori di reato. Negli Stati Uniti è frequente l’impiego dell’IA per monitorare le telefonate dei detenuti e rilevare tramite riconoscimento vocale e semantico eventuali attività illegali. In alcune prigioni in Cina e Corea del Sud sono anche state introdotte delle robotic guards per sorvegliare i detenuti in sostituzione degli agenti penitenziari.

Il contesto europeo differisce da altre realtà extra-continentali, perché vede le tecnologie di intelligenza artificiale come degli strumenti utili soprattutto per quanto riguarda i percorsi riabilitativi e terapeutici dei detenuti, piuttosto che volti al potenziamento della sorveglianza e del controllo degli autori di reato. Negli ultimi due anni, la Finlandia attraverso il progetto “Smart Prison” ha introdotto l’intelligenza artificiale in alcune delle sue carceri in modo molto diverso dagli esempi già citati; grazie alla collaborazione con la start-up Metroc ai detenuti vengono forniti dei computer dotati di tecnologie d’intelligenza artificiale tramite le quali devono etichettare dei dati relativi ai prodotti di Metroc sugli stessi prodotti. Tuttavia, questo tipo di iniziativa ha fatto sorgere un dibattito etico in merito alla retribuzione, alla durata e al monitoraggio dell’attività svolta dalle persone detenute negli istituti di pena in Finlandia. Le autorità finlandesi hanno replicato affermando che l’obiettivo di tali attività è quello di fornire ai detenuti delle competenze utili al loro reinserimento sociale e che altri stati europei sono intenzionati a implementare programmi simili. La manager del progetto finlandese “Smart Prison”, che ha come obiettivo quello di riabilitare ed educare i detenuti, ha affermato che al centro di questa iniziativa c’è il “principio di normalità”, per il quale si cerca di far sì che le condizioni degli istituti penitenziari non si discostino da quelle della società libera. I detenuti possono dunque utilizzare i servizi dell’esterno, il tutto seguendo protocolli di sicurezza e di protezione dei dati.

Un altro esempio europeo è rappresentato dall’algoritmo RisCanvi, utilizzato nel sistema penitenziario catalano da 15 anni. Il RisCanvi ha come obiettivo quello di prevedere la probabilità con cui un detenuto può mettere in atto un comportamento violento; in particolare mira a prevedere il rischio di violenza etero-diretta, di violenza intramuraria e di recidiva violenta. Il livello di rischio individuato determina il programma di trattamento del singolo detenuto. L’algoritmo si divide in RisCanvi screening e RisCanvicomplet, rispettivamente relativi alla valutazione e alla gestione del rischio. La valutazione del rischio viene effettuata sulla base di 10 fattori, alcuni dei quali strettamente connessi alle caratteristiche socio-demografiche, biografiche o penali della persona detenuta, ovvero elementi statici pertanto non modificabili da parte dell’individuo. Negli ultimi anni sono state sollevate preoccupazioni in merito al fatto che il livello di rischio individuato attraverso la scala predittiva RisCanvi ha delle implicazioni dirette circa le condizioni di vita all’interno del carcere e, quindi, anche sui diritti fondamentali dei soggetti detenuti. In particolare, il fatto che il passato individuale della persona detenuta e determinate variabili soggettive possano comportare che una persona debba passare più tempo in carcere in quanto non idonea a ottenere benefici penitenziari, oppure che debba essere soggetta a un regime di vita più duro, risulta assai problematico visto che la Costituzione spagnola (art 25.2) pone come fine ultimo di qualsiasi condanna il reinserimento sociale.

Questi esempi e soprattutto i dubbi in merito al funzionamento degli strumenti di IA in ambito detentivo testimoniano come l’utilizzo dell’intelligenza artificiale in carcere sia una sfida in primis da un punto di vista etico. Le tecnologie di IA rappresentano un potenziale problema per la privacy e la dignità dei detenuti, sebbene possano essere uno strumento utile per le amministrazioni penitenziarie ai fini del mantenimento dell’ordine e della sicurezza interna. Gli algoritmi potrebbero basarsi su pregiudizi o fornire risultati fuorvianti, e questo potrebbe essere fonte di discriminazione nei confronti dei detenuti e di violazione dei loro diritti fondamentali.

Tali sfide, oltre alle potenzialità che gli strumenti di intelligenza artificiale possono avere negli istituti penitenziari, sono appunto alla base della Raccomandazione CM/Rec(2024)5 adottata dal Comitato dei Ministri del Consiglio d’Europa. Tra le disposizioni generali della Raccomandazione viene esplicitato chi sono i destinatari della raccomandazione (le autorità pubbliche responsabili dei servizi penitenziari e di libertà vigilata e le aziende private che si occupano di tali tecnologie). Si pone poi l’accento sulle esigenze specifiche dei minori inseriti nel circuito penale e si introducono i contesti in cui si ritiene pertinente l’utilizzo di IA e delle tecnologie digitali correlate. Vengono anche esposti i principi base dell’utilizzo di strumenti di IA in ambito penitenziario, nell’ordine: il rispetto della dignità umana e dei diritti fondamentali; il principio di legalità, della certezza del diritto e di responsabilità; il principio di uguaglianza e non discriminazione; quello di proporzionalità, efficacia e necessità dell’IA; il principio di buona governance, trasparenza, tracciabilità e spiegabilità; quello del diritto a una verifica umana delle decisioni; il principio di qualità, affidabilità e sicurezza; il principio dell’uso incentrato sull’uomo dell’IA e delle tecnologie digitali correlate; infine il principio dell’IA e dell’alfabetizzazione digitale, che si riferisce al fatto che le modalità di utilizzo, le finalità e le regole etiche di queste tecnologie devono essere comprensibili agli utenti.

Nel quarto paragrafo del testo della raccomandazione, dedicato alla protezione dei dati e della privacy, si legge che, nel caso di utilizzo dell’IA nei confronti di autori di reato, i dati raccolti non devono essere conservati in modo che sia consentita l’identificazione delle persone coinvolte oltre un periodo di tempo strettamente funzionale al loro fine. Allo stesso modo, devono essere utilizzati solamente i dati personali di quantità e tipo necessari allo scopo per cui vengono impiegati e, quando possibile, devono essere anonimizzati. L’utilizzo di categorie speciali di dati deve avvenire in ambienti controllati.

La Raccomandazione tratta poi dell’uso dell’intelligenza artificiale in relazione alle esigenze di sicurezza, protezione e buon ordine; in particolare nella formazione del personale penitenziario e dell’utilizzo di queste tecnologie nel monitoraggio elettronico, che dovrebbe essere comunque regolato da controllo umano, proporzionato allo scopo e teso a favorire il reinserimento dei detenuti. Successivamente viene trattato l’argomento dell’uso di IA nel caso di gestione di fascicoli dei detenuti per generare avvisi automatici; questo non comporta una sostituzione del personale; infatti, non va tralasciata l’importanza della figura professionale nella decisione finale, che va a verificare quanto stabilito dall’intelligenza artificiale. La Raccomandazione si occupa anche delle possibili distorsioni algoritmiche e della rappresentatività dei dati, a cui si dovrebbe porre particolare attenzione al fine di evitare ogni tipo di discriminazione, tenendo in considerazione la prospettiva di genere e il multiculturalismo. Si parla poi del possibile utilizzo dell’IA al fine di elaborare diagnosi mediche per le persone detenute. Tuttavia, l’utilizzo di strumenti di questo tipo connessi alla telemedicina non possono mai sostituire la figura professionale sanitaria; il contatto umano resta imprescindibile.

Una delle ultime questioni affrontate dalla raccomandazione riguarda l’uso dell’IA e delle tecnologie digitali correlate per la selezione, la gestione, la formazione e lo sviluppo del personale penitenziario; l’intelligenza artificiale, infatti, può configurarsi anche come un’importante risorsa per la formazione dello staff e anche per prendere decisioni manageriali, sempre rispettando i diritti del personale. Nel paragrafo dedicato alla ricerca, allo sviluppo, alla valutazione e alla revisione periodica, si solleva il tema del finanziamento e del sostegno a progettazione, sviluppo e ricerca sull’intelligenza artificiale. Infine, il Comitato dei Ministri esprime la necessità di un aggiornamento e di una revisione periodica del testo della Raccomandazione CM/Rec(2024)5, affinché continui a tutelare i diritti umani e le libertà fondamentali degli utenti e la sicurezza sociale.

In conclusione, l’essenza della Raccomandazione coincide con la necessità di accompagnare l’impiego dell’intelligenza artificiale nelle carceri con la tutela dei diritti umani e della dignità dei detenuti. Con questo documento, il Consiglio d’Europa chiede ai 46 Stati che nel momento di adozione di leggi e politiche nazionali si tenga presente che queste tecnologie si devono utilizzare sempre in modo legittimo e proporzionato e solo nel caso in cui il loro impiego possa giovare alla riabilitazione dei detenuti.

Qui trovi la Raccomandazione tradotta in italiano.

— — — — — — — —

Resta aggiornato sulle nostre attività. Iscriviti alla newsletter: https://bit.ly/2DFEzgI

--

--

Associazione Antigone
Associazione Antigone

Written by Associazione Antigone

Dal 1991 anni ci occupiamo di #Giustizia, di #Carceri, di #DirittiUmani e di #Tortura. Sostienici: http://www.antigone.it/sostieni

No responses yet