Intelligenza Artificiale: una rivoluzione in corso da governare

venerdì 23 dicembre 2022


Martedì 20 dicembre, il Think Tank Trinità dei Monti, fondato e diretto da Pierluigi Testa, ha organizzato un incontro di approfondimento sull’Intelligenza Artificiale, con ospite Germana Lo Sapio, magistrato amministrativo con qualifica di Consigliere presso il Tar per la Regione Campania. Negli ultimi dieci anni, la ricerca ha fatto passi da gigante, grazie, da un lato, alla enorme disponibilità dei dati, per effetto della pervasiva digitalizzazione della società attraverso la rete, i social network, l’interoperabilità tecnologica e semantica tra i sistemi informativi, la tracciabilità di tutti gli aspetti delle interazioni umane; dall’altro, grazie allo sviluppo delle capacità di calcolo ad alte prestazioni (High Performance Computing – Hpc), indispensabile per elaborarli. In ambito giuridico è talmente importante l’esigenza di definire l’intelligenza artificiale che le istituzioni europee si occupano del tema almeno dal 2017 e in ogni documento non compare ancora un atto normativo vincolante. Attualmente, si sta lavorando al regolamento sull’intelligenza artificiale.

In tutta la produzione documentale dal 2017 ad oggi, è stato profuso un enorme sforzo per fornire alcune definizioni giuridiche. A partire dal 2017 e si è cominciato ad approfondire il tema dell’intelligenza artificiale creando un gruppo di esperti che includesse non solo i giuristi, ma anche esperti tecnici perché la materia coinvolge entrambe le categorie. Si è arrivati all’ultima definizione documentale in cui si afferma che l’intelligenza artificiale si riferisce ai sistemi che, elaborando dati e utilizzando una notevole capacità di calcolo, raggiungono obiettivi assegnati con un certo grado di autonomia rispetto alle istruzioni iniziali.

Secondo Antonio Ballarin, l’Intelligenza Artificiale è “materia viva” e come tale contiene sempre un errore implicito nel suo calcolo. Questo potrebbe rappresentare un limite all’Ai Act, che non prevede la sanzionabilità all’errore nell’impostazione dell’Intelligenza Artificiale da parte di un data scientist che risulta quasi sempre guidato dall’esigenza di riprodurre un’area del cervello umano. Un problema che si pone a livello europeo con l’utilizzo dell’intelligenza artificiale è che talvolta questa produce dei risultati, ma non si riesce a spiegare il come sia riuscita a farlo e questo pone la macchina al pari di un oracolo a cui credere senza alcuna capacità critica, generando una sorta di pulsione alla fede nell’uomo sul fatto che il risultato ottenuto abbia eseguito il miglior processo possibile.

Secondo gli esperti, un aspetto importante è la perdita del controllo da cui nasce l’esigenza di far intervenire un controllo umano. Rispetto all’esigenza di controllo nella ultima bozza di regolamento che si chiama “Ai Act” si prevede un articolo specifico che denota il principio di sorveglianza umana: chi sorveglia la macchina deve avere non solo la consapevolezza ma anche la competenza necessaria e la formazione adeguata e tale dinamica apre a molti fronti di interpretazione su come possano essere definite.


di Domenico Letizia