«Per la giustizia i problemi posti dall’intelligenza artificiale sono delicatissimi». Lo ha affermato Guido Alpa, professore ordinario di Diritto civile alla Facoltà di Giurisprudenza dell’Università di Roma “La Sapienza”, in occasione del convegno “L’intelligenza artificiale a Genova e in Liguria: passato e presente” che si si è svolto oggi pomeriggio nella sede della Banca Passadore a Genova.
«Perché – ha spiegato Alpa – secondo la nostra Costituzione i giudici sono soggetti solo alla legge, quindi non possono utilizzare macchine artificiali per poter fare le sentenze. E ciascuno di noi ha il diritto di accesso alla giustizia e quindi al suo giudice naturale. E il giudice naturale è una persona, una persona che ha la sua qualificazione, cioè è diventato giudice, e ha la competenza e il potere di giudicare. La macchina no, è uno strumento.
Secondo il giurista, «Il pericolo più grave, almeno per quanto riguarda la giustizia, è Chat-GPT» . Chat GPT, acronimo di Generative Pretrained Transformer, è uno strumento di elaborazione del linguaggio naturale (o Natural Language Processing) potente e versatile che utilizza algoritmi avanzati di apprendimento automatico per generare risposte simili a quelle umane all’interno di un discorso.
«Perché Chat-GPT – ha spiegato – raccoglie le informazioni, quindi gli archivi, di milioni e milioni di dati ma si è scoperto un caso negli Stati Uniti in cui un avvocato aveva usato questo sistema per scrivere le memorie e difendere il suo assistito. Il giudice si è accorto che le memorie erano state scritte attraverso questo sistema che aveva inventato delle sentenze e se il giudice non avesse controllato che le sentenze fossero effettivamente esistenti avrebbe deciso sulla base di quelle sentenze. Nel sistema penale è ancora peggio, perché siccome gli archivi riguardano documenti collegati con fatti del passato, tendono a dare risposte che riproducono quello che è accaduto nel passato».
Tomaso Poggio, fisico e informatico, professore al Mit di Boston, ha rilevato che «Un problema grosso al momento è che questi sistemi fanno degli errori, si inventano delle cose, perché sostanzialmente producono la catena di parole più probabile al momento. Se le inventano, se non ci sono dei dati, se le inventano. Poi, e questo provoca anche dei problemi pratici a corto termine, se non vogliamo avere dei dati privati perché sono protetti da copyright, sono proprietà di qualcuno, non è chiaro come si possano togliere da uno di questi sistemi senza rifare tutto da capo».