Dai processi su Zoom ai giudici automatici – Le implicazioni etiche dell’informatica giuridica

Sul canale YouTube del Collegio Ghislieri è disponibile il video integrale del XIV convegno di Informatica giuridica: prima e seconda parte.

“Non siamo in grado di prevedere i futuri problemi che potranno sorgere nell’utilizzo giuridico dell’intelligenza artificiale, poiché si tratta di sistemi non programmati una volta per tutti: continuano ad apprendere, quindi il fatto che abbiano funzionato bene fino a ora non implica che funzioneranno bene ancora domani, in quanto i dati aggiunti nel frattempo muteranno il risultato”: il prof. Andrea Rossetti, titolare del corso di Informatica giuridica dell’Università di Pavia, organizzato e ospitato dal Collegio Ghislieri, è al contempo accorto riguardo all’utilizzo degli algoritmi nella giurisprudenza ma fiducioso riguardo alla possibilità che possano effettivamente garantire uno snellimento dei procedimenti giudiziari. Alla vigilia del convegno Calcŭlo ergo sum. Che cos’è e come si regola l’intelligenza artificiale, Ghislieri.it lo ha incontrato per un confronto sulle concrete implicazioni dell’utilizzo dell’IA nelle aule dei tribunali, ma anche per una più vasta conversazione, per così dire metafisica – il prof. Rossetti ha una formazione da filosofo del diritto, quale allievo di Amedeo G. Conte – riguardo alla liceità dell’auspicio di una giustizia automatica, come ad esempio quella che sui social network censura contenuti tramite un algoritmo.

Per prima cosa, vanno individuati vantaggi e svantaggi dell’utilizzo concreto dell’IA nella giustizia. Sui primi, spiega il prof. Rossetti, “insistono molto i giudici, coinvolti in un progetto nazionale per l’utilizzo dell’intelligenza artificiale su grandi insiemi di dati giudiziari. Stiamo parlando di un uso per le indagini, che consente agli inquirenti di inserire in database molto grandi tutte le tracce, anche quelle che poi non vengono utilizzate in sede di dibattimento. Da lì l’intelligenza artificiale riesce a selezionare i possibili colpevoli, o meglio a indicare le linee d’indagine che possono essere seguite; ciò avviene su base statistica ma poi, ovviamente, sta al magistrato scegliere quale sia la linea più sensata fra queste astrazioni di dati, che devono essere suffragate da prove”.

“Il secondo vantaggio interessante”, continua, “è ciò su cui spinge anche il Pnrr: utilizzare questi sistemi per migliorare l’organizzazione della giustizia e quindi per ridurre, soprattutto in campo civile, l’enorme pregresso davanti a cui si trova la giustizia italiana. È un metodo attraverso cui, in maniera molto cauta, si possono affiancare all’ufficio cui è affidato il processo questi sistemi che smaltiscono un po’ delle procedure in maniera automatica. Molti casi, sia penali sia civili, sono abbastanza tipici e standardizzati: il giudice non fa che applicare la giurisprudenza in uso. Questo metodo informatico consiste dunque nell’analizzare i tempi morti o i punti in cui il procedimento si incaglia, in maniera tale da fare in modo che il procedimento sia più veloce. Su ciò tuttavia i magistrati si mantengono molto attenti, in quanto resta inteso che queste pratiche non devono in alcun modo ledere la libertà della magistratura, che costituisce il terzo potere dello Stato”.

Quanto invece agli aspetti negativi, emergono regolarmente sotto forma di bias cognitivi che sono stati introdotti, consapevolmente o meno, all’interno di questi sistemi. “Ad esempio”, illustra il prof. Rossetti, “in California hanno recentemente smesso di usare un sistema automatico di machine learning che decideva quali fossero le persone che meritavano di uscire su cauzione in quanto si sono resi conto che favoriva automaticamente i maschi bianchi: ciò perché le precedenti sentenze con cui il sistema era stato nutrito mostravano una predominanza di recidiva nei maschi neri. Inoltre un interessante bias involontario è stato notato da un gruppo di studenti del MIT durante una loro esercitazione. Praticando un semplicissimo sistema di riconoscimento facciale hanno notato che una loro compagna, donna e nera, non veniva riconosciuta dalla telecamera del sistema perché era stato addestrato esclusivamente coi loro volti di maschi bianchi”.

“Il pericolo che si corre è quindi non solo l’introduzione dei bias del programmatore ma anche di bias inconsci che possono svilupparsi all’interno del sistema”, specifica. “Questi sistemi si comportano come scatole nere rispetto a noi umani: non riusciamo a comprendere il meccanismo che lega i dati di input coi dati di output. Qualche tempo fa una macchina addestrata per giocare a Go (a cui è stato dedicato il documentario AlphaGo, che si trova anche su Netflix) ha sfidato il campione più grande del mondo. All’inizio chi li osservava giocare sulle prime non comprendeva le mosse della macchina e presumeva stesse sbagliando; dieci mosse dopo invece tutti capiscono che la mossa apparentemente insensata della macchina la fa vincere. Vincere tanto nettamente che il campione decide di smettere di giocare a Go ritenendolo ormai inutile, se le macchine possono battere chiunque. Di conseguenza, anche nella giustizia, non riusciamo a capire quali errori possano commettere le macchine, e quindi è difficile mitigarli: questo è l’aspetto più inquietante”.

La presenza dell’informatica nei tribunali non coincide tuttavia soltanto con l’utilizzo dell’intelligenza artificiale; anche situazioni più banali – come ad esempio l’utilizzo di piattaforme virtuali per celebrare processi – nascondono implicazioni etiche e giuridiche di non poco conto. Durante l’emergenza sanitaria, ad esempio, i tribunali son rimasti chiusi fatta salva la celebrazione di processi telematici: in Italia solo civili, ma all’estero si sono verificati addirittura casi di condanne a morte comminate su Zoom. Bisogna quindi domandarsi se un processo a distanza possa essere considerato identico a un processo dal vivo.

“In Italia il processo penale si basa soprattutto sul dibattimento, su ciò che avviene in aula, a differenza del civile che può anche ridursi a uno scambio di carte fra le parti”, risponde il prof. Rossetti. “Con Zoom si perde tutta la prossemica messa in atto dall’avvocato in tribunale. Negli USA ciò ha un impatto ancora maggiore poiché la giuria non è composta da togati ma da semplici cittadini, quindi l’arringa finale ha riveste rilevanza decisiva; di certo un’arringa tenuta attraverso questi sistemi di videoconferenza non può avere il medesimo portato retorico di quando viene tenuta di persona. C’è molta resistenza da parte dei giudici a usare i sistemi di comunicazione a distanza foss’anche per semplici mediazioni, in quante buona parte della comunicazione umana va completamente persa”.

La necessità che la giustizia resti umana – nelle diverse ma complementari accezioni del termine – è alla base della riflessione sull’informatica giuridica. Tanto più in un contesto culturale in cui nelle nostre vite quotidiane si sta facendo sempre più strada l’accettabilità dell’idea di una giustizia algoritmica. Se un social network pratica la censura automatica di contenuti, fondamentale per evitare la diffusione di materiale criminogeno ma che al contempo si mostra ottusa, ad esempio, nel non distinguere un quadro rinascimentale da un’immagine sconcia.

Le implicazioni etiche di questa tendenza stanno, secondo il prof. Rossetti, tutte nella opacità del procedimento automatico: “Mentre un giudice deve anche argomentare il motivo per cui ha ritenuto qualcuno colpevole o innocente, una macchina che giudica non è in grado di autoesplicarsi. Ciò lede radicalmente la possibilità di difesa. Negli Usa si è verificato recentemente il caso di un uomo accusato sulla base di una concordanza DNA fatta attraverso un sistema di intelligenza artificiale. Il suo avvocato ha richiesto di sapere il procedimento attraverso cui l’intelligenza artificiale fosse giunta a individuare il suo assistito ma i gestori della macchina non sono stati in grado di spiegarlo. Gli algoritmi prodotti dal machine learning sono opachi a noi umani, così complicati che non riusciamo a seguirli”.

Inoltre, “quando parliamo di macchine abbiamo in mente strumenti che siano infallibili, oggettivi e imparziali, mentre in effetti non è affatto così: questi sistemi sono costruiti esclusivamente su precedenti, quindi portano con sé acriticamente tutti gli errori che sono stati commessi nei precedenti. L’ultima tendenza, per fortuna, è offrire a chi opera in campo giuridico (ma anche in campo medico) non tanto strumenti che diano la soluzione ma che presentino una serie di soluzioni diverse lasciando all’umano di decidere quale proposta avanzata dal sistema automatico sia quella da seguire. Tutte le leggi promulgate fino a ora prevedono che quando un cittadino viene sottoposto a strumenti di intelligenza artificiale abbia il diritto di essere avvertito e di ricevere anche intervento umano, per quanto il principio non sia economico. Un avvocato può raggiungere performance migliori dell’intelligenza automatica ma ci mette giorni anziché pochi minuti”.

In programma venerdì 26 novembre 2021, Calcŭlo ergo sum. Che cos’è e come si regola l’intelligenza artificiale è la quattordicesima edizione del convegno Convegno di Informatica giuridica, organizzato in collaborazione con il Dipartimento di Giurisprudenza dell’Università di Pavia e l’Ordine degli Avvocati di Pavia, è dedicato alla memoria di Romano Oneda, scomparso lo scorso anno, già Presidente del Comitato Scientifico per l’area di Diritto e Informatica del Centro Ricerca e Didattica Universitaria della Fondazione Ghislieri e collaboratore del governo Prodi I. In apertura dei lavori, il ricordo del prof. Oneda è affidato al nostro Alunno prof. Ernesto Bettinelli, accademico e costituzionalista, Senatore nella XIII legislatura nonché Sottosegretario alla Presidenza del Consiglio dei Ministri dal 1997 al 1998.

A cura del prof. Rossetti, il convegno si articola in due sessioni, entrambe ospitate dall’Aula Magna del Collegio Ghislieri: la prima, dalle ore 10, prevede gli interventi dei proff. Marco Piastra (Tutto quello che avreste sempre voluto chiedere sull’IA e non avete mai osato chiedere), Antonio Barili (Artificial Criminal Minds), Davide Gabrini (Intelligenze artificiali nelle indagini scientifiche) e Corrado Giustozzi (Intelligente ma ingenua: come si inganna l’IA); la seconda, dalle ore 14, prosegue con i proff. Giovanni Angelo Lodigiani (Le problematiche etiche dell’IA), Susanna Pozzolo (Le bolle, gli algoritmi e la cancel culture), Silvia Salardi (Tecnologie per l’etica del futuro) e Silvia Signorato (Algoritmi per il processo penale o processo penale per gli algoritmi?). Le istruzioni per partecipare dal vivo sono disponibili nella pagina di Ghislieri.it dedicata all’evento, che sarà comunque trasmesso in diretta streaming sul nostro canale YouTube.