Loading...
L'angolo del penalista

Il Futuro del Diritto Penale attraverso l’Intelligenza Artificiale

Reading time: 5 minutes

L’utilizzo dell’Intelligenza Artificiale è ormai da tempo al centro di numerosi dibattiti, a livello sia nazionale che sovranazionale. Le critiche su questa nuova tematica sono numerose e si fondano su ragioni essenziali ed a tutela dei diritti fondamentali dell’uomo. Tuttavia, l’ingresso nelle nostre vite dell’Intelligenza Artificiale è inevitabile. Il mondo giuridico si deve preparare a questa nuova sfida che muterà le regole e gli equilibri di varie materie, tra cui senza dubbio, quella penale.

INTRODUZIONE E DEFINIZIONE DELL’INTELLIGENZA ARTIFICIALE

L’Intelligenza Artificiale è la capacità di una macchina di comprendere l’ambiente ed analizzare gli accadimenti attorno a sé. Grazie a questa percezione, un sistema elettronico può elaborare dati e risolvere problemi, perseguendo un obiettivo specifico e adeguando il proprio comportamento ai cambiamenti esterni. Ciò che è incredibile è come le nuove tecnologie e gli algoritmi permettono alla macchina di adottare caratteristiche e capacità ormai sempre più simili a quelle umane, come l’ideazione, la programmazione e l’acquisizione di nuove nozioni.
I vantaggi derivanti dall’Intelligenza Artificiale sono innumerevoli, perché le macchine adesso sono in grado di pensare e compiere mansioni prima riservate esclusivamente agli esseri umani. Tuttavia, la rivoluzione tecnologica si sta espandendo velocemente, richiede pronti aggiornamenti a qualsiasi ambito giuridico e non permette al diritto penale di tardare ad accogliere questa nuova sfida.

IL PRIMO APPROCCIO DEL DIRITTO PENALE ALL’INTELLIGENZA ARTIFICIALE

Il primo approccio di natura penalistica all’avvento delle nuove tecnologie lo si ritrova nell’ambito della responsabilità penale degli enti, introdotta con il d.lgs. 231/2001. Grazie alla recente normativa, è oggi possibile rilevare profili di responsabilità penale in capo a persone giuridiche, qualora i propri amministratori, dirigenti, dipendenti o terzi mandatari abbiano commesso un reato nell’interesse dell’impresa. Tuttavia, l’ente giuridico ha la possibilità di non incorrere in responsabilità penale, qualora dimostri di avere adottato i modelli organizzativi previsti dal d. lgs. 231/2001.
I risvolti della normativa, introdotta venti anni fa a favore di un’armonizzazione con il diritto dell’Unione Europea, furono sicuramente positivi. Tuttavia, molti rimasero convinti che i sistemi applicativi dei nuovi modelli introdotti potessero comunque essere perfezionati attraverso l’adozione delle nuove tecnologie. Alcuni giuristi ritennero che l’Intelligenza Artificiale fosse in grado di fornire un buon contributo alla standardizzazione delle misure previste dal d. lgs. 231/2001, in quanto una maggiore digitalizzazione avrebbe potuto senza dubbio fornire migliori modelli organizzativi volti al contenimento del rischio di “non conformità” e, quindi, all’insorgere di responsabilità giuridiche dell’ente. Ciononostante, è logico chiedersi se, di fatto, l’innovazione tecnologica, seppure regolarizzata nelle forme previste dal decreto del 2001 (cd. criminal compliance), possa davvero garantire una maggiore efficienza ai nuovi sistemi di conformità introdotti in molte imprese.
La questione su questo tema rimane aperta e continuerà ad offrire spunti di riflessione interessanti, ma il rapporto tra diritto e scienza informatica è destinato ad uno sviluppo vorticoso, se non altro per colmare il ritardo accumulato, sia sul piano teorico sia legislativo.

Related:  REATO DI VIOLENZA SESSUALE: L'evoluzione della fattispecie dal Codice di Hammurabi ad oggi

I PROFILI PROBLEMATICI DEL RAPPORTO TRA DIRITTO PENALE ED INTELLIGENZA ARTIFICIALE

I nuovi mezzi dotati di intelligenza artificiale non si limitano al mondo aziendale, ma si estendono in altri ambiti del diritto penale dove gli interessi in gioco sono ancora più delicati. Di conseguenza, lo sfruttamento dei nuovi mezzi tecnologici diviene una questione sempre più complessa e le decisioni da adottare a riguardo devono essere ponderate al massimo, specialmente quando si opera in ambienti e situazioni in cui sono già presenti problematiche sociali e razziali tra la popolazione.

Le difficoltà di natura giuridico-sociale si ritrovano soprattutto oltre oceano ed, in particolare, negli Stati Uniti, dove gli equilibri tra le comunità sono da sempre più instabili. Gli Stati Uniti sono stati tra i primi ad inserire tra gli strumenti normalmente utilizzati dalle forze dell’ordine americane i software volti, in via teorica, alla prevenzione e riduzione dei crimini. Si tratta dei meccanismi di “predictive policing”, grazie a cui gli officiali di polizia avrebbero l’opportunità di riconoscere, a priori, le zone in cui la commissione di un reato è più probabile. Questi sistemi richiedono controlli sempre più serrati ed invasivi sulla società americana che è costretta a ridurre le aspettative di privacy e terminare la frequentazione di alcuni luoghi, perché considerati sospetti dalle nuove tecnologie. I meccanismi di preditive policing, tuttavia, proseguono oltre. L’intelligenza artificiale non è solamente in grado di identificare i probabili luoghi di commissione di un reato, ma pure i suoi potenziali autori e le sue vittime. Le conseguenze sono inevitabili e, talvolta, molto pericolose: la polizia diviene più aggressiva nei confronti di determinati quartieri e più attenta verso soggetti considerati, secondo il software, più propensi a delinquere.
Non è chiaro, tuttavia, se questi nuovi sistemi di intelligenza artificiale effettivamente riducano il tasso di criminalità: secondo le statistiche, in alcune città americane, i reati sono diminuiti, mentre in altri posti non sembrano essersi verificati cambiamenti significativi. Le opinioni su questi strumenti innovativi sono molteplici: alcuni ritengono che l’intelligenza artificiale agevoli ed acceleri i meccanismi di indagine, altri sono convinti che sia un sistema solo apparentemente efficace, in grado di aumentare i pregiudizi di razza e di genere, senza di fatto risolvere o migliorare il problema della criminalità.
Contraria all’utilizzo dei nuovi meccanismi di intelligence è Christina Swarns, direttrice esecutiva di Innocence Project, un programma nato nel 1992 e volto a difendere le persone innocenti imputate o condannate per crimini che non hanno commesso.  Secondo Swarns, l’Intelligenza Artificiale aumenta gli errori giudiziari, nonché la probabilità di indagare e focalizzarsi aggressivamente su soggetti in realtà innocenti, ma considerati “colpevoli”, perché indicati come tali dai sistemi di intelligence. Inoltre, secondo uno studio compiuto dal National Institute of Standards and Technology, la probabilità di un’erronea identificazione determinata dai software artificiali aumenta nel caso in cui i soggetti in considerazione siano afroamericani o asiatici. È chiaro, dunque, come questi nuovi meccanismi mettano a repentaglio i già instabili equilibri sociali presenti nella comunità americana e, di fatto, incentivino i pregiudizi razziali tra la popolazione.

Related:  La fine del processo sulla “Trattativa Stato-mafia”

Se, da un lato, l’intelligenza artificiale è già in grado di prevenire la commissione dei crimini, è possibile immaginare un sistema tecnologico in grado di decidere la sorte dell’autore di un reato?
Qui si apre forse uno dei punti più controversi sull’utilizzo dell’intelligenza artificiale ovvero quando le nuove tecnologie sono messe a disposizione dei magistrati e sono chiamate, grazie ai loro meccanismi di apprendimento, a valutare circa la colpevolezza di un soggetto imputato, nonché in merito all’opportunità di incarcerare o meno tale individuo, sulla base delle sue caratteristiche. Gli algoritmi utilizzati in questa sede sono denominati criminal risk assessment algorithms e sono utilizzati per tentare di rispondere alla domanda “Quante probabilità sussistono che un individuo, date le sue caratteristiche, possa commettere in futuro un (nuovo) reato?” In questo modo, le macchine di intelligence hanno la possibilità di decidere se e come applicare le misure di carcerazione e di controllo sugli individui, in base alla loro “presunta” propensione a delinquere.
Il punto davvero critico sta nei fattori presi in considerazione dall’algoritmo per valutare l’opportunità di incarcerazione di un dato soggetto. La pericolosità criminale di una persona, secondo i sistemi tecnologici utilizzati dalla magistratura, si determina sulla base non solo dei precedenti penali, ma anche dell’età, del genere, della nazionalità e della situazione personale, familiare, sociale ed economica dell’individuo in questione. L’intelligenza artificiale agirebbe dunque esclusivamente in base a statistiche e dati che in realtà prescindono dal caso concreto, tenendo conto solamente delle caratteristiche estrinseche del singolo e quindi, molto spesso, dando valore a pregiudizi etnici e sociali. Appare evidente, dunque, come le nuove tecnologie, nonostante rappresentino un nuovo ed importante mezzo per l’evoluzione della società, necessitino ancora di molti adeguamenti ed aggiornamenti.

CONCLUSIONE E PROSPETTIVE FUTURE

Il rapporto tra diritto penale ed intelligenza artificiale è iniziato pochi anni fa, ma promette sviluppi teorici e risvolti pratici in grado di trasformare il nostro mondo in modi fino ad ora inimmaginabili. Non sappiamo come le tecnologie modificheranno i nostri sistemi di giustizia né se i nuovi strumenti apporteranno risultati positivi alla nostra società. Tuttavia, occorre mantenere lo spirito critico e la consapevolezza negli strumenti innovativi di cui la società sta entrando in possesso. Un domani la nostra sorte potrebbe essere affidata a delle macchine in grado di ragionare meglio dei loro creatori e tutti noi abbiamo il dovere di garantire un controllo su questi nuovi sistemi, affinché la rivoluzione informatica non si riversi contro la stessa umanità.

Related:  Dal BIAS COGNITIVO al VERIFICAZIONISMO

Autore: Matilde Rossa

Leave a Reply

Your email address will not be published. Required fields are marked *

%d bloggers like this: