Algoritmi che calcolano, legge che non vede

martedì 2 dicembre 2025


L’illusione giuridica dell’Intelligenza artificiale

Ciò che i linguaggi della tecnica e del diritto chiamano oggi “Intelligenza artificiale” è, in realtà, un insieme stratificato di dispositivi di calcolo: modelli statistici, reti neurali, sistemi di apprendimento automatico capaci di trattare masse immense di dati, di estrarne regolarità, di generare previsioni, raccomandazioni, decisioni operative. Fenomenicamente, questi dispositivi imitano gesti che siamo soliti attribuire all’intelligenza umana: riconoscere un volto, tradurre un testo, predisporre una diagnosi, suggerire una strategia, selezionare tra diverse opzioni quella ritenuta più “ottimale” rispetto a determinati parametri. Ora, questa mimesi è sufficiente per parlare di “intelligenza” solo se si è già ridotto l’intelletto a mera funzionalità, la ragione a macchina di calcolo, il pensiero a pura capacità di risolvere problemi. L’intelligenza, in senso proprio, è altro. È l’atto con cui il soggetto personale si apre alla verità dell’essere, coglie il significato delle cose, discerne il bene e, in questa luce, orienta la propria libertà. È un atto spirituale, non un semplice funzionamento: implica coscienza di sé, responsabilità, risposta a un ordine di senso che non dipende dal soggetto ma lo precede e lo interpella.

Il dispositivo algoritmico, per quanto sofisticato, non “vede” il vero, non “ama” il bene, non “decide” nel senso forte del termine: elabora simboli secondo regole sintattiche che non comprende, produce esiti che appaiono razionali solo perché funzionali a scopi esterni che gli sono stati impressi. Non esiste in esso un “io” che si assuma l’atto, non c’è interiorità che possa dire “questo è giusto” o “questo è ingiusto”. Chiamare “intelligenza” questo funzionamento significa già aver introiettato una visione impoverita dell’uomo. L’aggettivo “artificiale” non attenua l’equivoco, lo radicalizza: suggerisce che ciò che è tecnicamente prodotto possa essere copia fedele di un atto che, per sua natura, non è fabbricabile. Il sintagma “Intelligenza artificiale” è dunque un cortocircuito concettuale: trasferisce sulla macchina il nome di ciò che appartiene in senso proprio alla persona, e retrocede la persona al livello della macchina. L’ordine gerarchico tra ciò che è strumentale e ciò che è fine viene rovesciato: lo strumento pretende di occupare il luogo del soggetto, la funzione pretende di dettare la misura dell’essere. Su questa confusione di piani la normazione positiva si innesta quasi senza accorgersene. Il diritto, nella sua forma moderna, è stato pensato come sistema geometrico: un edificio di norme ordinate gerarchicamente, in cui la razionalità giuridica coincide con la coerenza formale, con la deducibilità delle decisioni dalle premesse testuali, con la chiusura assiomatica dell’ordinamento.

La legalità, ridotta a conformità al modello, si è andata identificando con il funzionamento corretto del sistema, più che con la sua giustizia. Di fronte “all’Intelligenza artificiale”, questo diritto-geometria reagisce come una macchina che incontra un’altra macchina: la prende come oggetto da regolare, come fattore di rischio da gestire, come tecnologia da bilanciare con altri interessi. Il regolamento dell’Ue 2024/1689 in materia di Intelligenza artificiale e, sul piano interno, la legge ordinaria dello Stati 23 settembre 2025, numero 132, dedicata all’Intelligenza artificiale, rappresentano il momento più alto di questa reazione. Entrambi i testi accolgono il fenomeno all’interno dell’ordinamento, lo definiscono, lo classificano, lo circondano di obblighi, controlli, procedure, responsabilità. L’Unione europea costruisce una grande architettura regolatoria che distribuisce i sistemi di Ia lungo una scala di rischi, attribuisce doveri a chi li sviluppa e impiega, istituisce meccanismi di vigilanza e sanzione. L’ordinamento italiano, in armonia con questo quadro, si dota di una cornice nazionale che richiama la centralità della persona e si propone di promuovere un uso “corretto” e “responsabile” dell’Ia in diversi settori della vita sociale. Tutto ciò non è irrilevante. Il diritto positivo sottrae la tecnica all’illusione della neutralità, riconosce che essa incide sui diritti e tenta di sottoporla a misura giuridica.

Tuttavia, il modo in cui lo fa rivela la persistenza di un paradigma: la macchina viene trattata come oggetto di regolazione senza che ci si interroghi adeguatamente sull’effetto della macchina sul cuore stesso dell’esperienza giuridica. I sistemi algoritmici, infatti, non si limitano a creare nuovi rischi da prevenire; penetrano là dove il diritto decide, giudica, imputa. Quando un algoritmo contribuisce alla valutazione del rischio penale, alla selezione dei destinatari di una misura sociale, alla determinazione di un punteggio di affidabilità, al filtraggio di informazioni politiche, si colloca nel punto in cui la legge incontra la persona concreta. Il suo operare incide sul volto stesso del giudizio, non solo sulla sua efficienza. Il sistema normativo continua, però, a pensare attraverso categorie che presuppongono un soggetto identificabile al centro della decisione: la persona fisica, la persona giuridica, l’organo pubblico, il funzionario responsabile.

La responsabilità è ancora figura dell’attribuzione di un atto ad un autore che avrebbe potuto agire diversamente. Il dispositivo algoritmico non entra senza attrito in questa logica: la sua decisione è il prodotto di una catena opaca fatta di scelte progettuali, di dati pregressi, di aggiornamenti dinamici, di interazioni con un ambiente complesso. L’ordinamento cerca un “chi” dietro l’output della macchina; trova una costellazione di “chi” parziali e la responsabilità si rarefa in un anonimato strutturale. La forma giuridica tradizionale resta così sospesa di fronte a un potere che agisce, incide, orienta, senza farsi pienamente riconoscere. Le costituzioni europee, nate per vincolare un potere umano visibile, si scoprono allora spaesate davanti a un potere che prende corpo in infrastrutture digitali, in piattaforme, in protocolli tecnici. La libertà non è più solo minacciata da ordini espliciti, ma da ambienti algoritmici che selezionano ciò che l’individuo vede e può fare; l’uguaglianza non è più solo violata da discriminazioni aperte, ma da micro-differenziazioni silenziose prodotte da modelli che assegnano punteggi, priorità, probabilità; la partecipazione politica non si consuma più solo nelle assemblee e nelle urne, bensì in spazi comunicativi governati da logiche di raccomandazione automatica.

Il diritto positivo reagisce con ulteriori strati di regolazione, senza però toccare il nucleo teoretico della questione: che cosa significa ancora “persona”, se le sue decisioni sono sempre più mediate e preformate da dispositivi che non hanno volto né responsabilità? A questo livello, il richiamo legislativo alla “centralità dell’uomo” o “all’approccio antropocentrico” rischia di ridursi a formula di legittimazione se non viene ancorato a una visione più profonda dell’umano. Se l’uomo è concepito come mero nodo di preferenze, come somma di interessi da bilanciare, come sorgente di dati e destinatario di servizi, l’antropocentrismo normativo si traduce in una gestione accorta dei rischi; non può sfociare in un limite intrinseco alla delega di potere alla macchina. La domanda decisiva – “ci sono ambiti in cui la decisione deve restare ineludibilmente personale?” – viene rimossa, perché presuppone un’idea della persona come soggetto di verità e di bene, non soltanto come punto di imputazione di utilità. Il diritto, però, non sopravvive se ridotto interamente a tecnica di bilanciamento. La sua pretesa di vincolare il potere suppone che esso sia misurato da qualcosa che non è il frutto del potere stesso: una misura originaria, precedente e superiore alle scelte umane contingenti. Esiste una legge non scritta che non è il prodotto di un voto, né l’esito di un algoritmo di consenso; è la struttura stessa dell’ordine giusto, che la ragione può vedere e alla quale il legislatore è chiamato a conformarsi.

Quando questa legge viene oscurata, il diritto positivo resta forse valido e applicabile, tuttavia smarrisce il suo fondamento. Diventa pura forma, capace di regolare qualsiasi contenuto, anche quando questo contenuto contraddice l’ordine della giustizia. “L’Intelligenza artificiale” porta questo smarrimento al parossismo. Se non esistono limiti intrinseci alla funzionalizzazione del giudizio, se non vi è più alcuna sfera del decidere che sia riconosciuta come inviolabile perché attinente alla dignità stessa della persona, allora nulla impedisce, in linea di principio, che la macchina occupi progressivamente ogni spazio: dalla diagnosi alla sentenza, dall’orientamento dei consumi a quello delle scelte politiche. Il diritto, così concepito, non governa la tecnica: la assorbe e ne viene assorbito. Le norme del regolamento UE 2024/1689 e della legge numero 132/2025 diventano allora sofisticate condizioni d’uso di una infrastruttura algoritmica che si presenta come inevitabile, più che criteri per giudicarne la legittimità alla luce di un ordine superiore. Ora, se si assume invece che la persona non sia riducibile ai suoi dati, che la verità non coincida con la previsione statistica, che la responsabilità non possa essere dissolta in una nuvola di processi anonimi, allora i sistemi di Ia devono essere ricondotti con decisione al rango di strumenti. Strumenti potenti, certo, ma pur sempre subordinati a fini che non possono essere decisi dai dispositivi stessi.

Ne deriva un compito preciso per il diritto europeo e per i diritti interni: non solo imporre trasparenza, supervisione umana, controlli di conformità, bensì individuare quei luoghi dell’esperienza giuridica in cui la delega alla macchina è incompatibile, per natura, con la dignità del soggetto. La decisione sulla libertà personale, sulla pena, sul riconoscimento o sulla negazione di un diritto fondamentale, sulla forma della convivenza politica non può essere consegnata alla logica del calcolo senza tradire l’essenza stessa della giustizia. Questo non significa rifiutare la tecnica, né demonizzare la potenza del calcolo. Significa, al contrario, rimettere la tecnica al suo posto, all’interno di un ordine in cui il criterio ultimo non è l’efficienza, ma la conformità al giusto. Il regolamento Ue 2024/1689 e la legge numero 132/2025 possono diventare, in questo orizzonte, il primo tentativo di riconoscere la portata antropologica dell’Ia e di arginarne le derive; oppure possono rimanere il raffinato apparato normativo di uno Stato costituzionale che, avendo smarrito il proprio fondamento, si lascia progressivamente riplasmare dai dispositivi che avrebbe dovuto governare.

Tutto dipende dalla domanda che l’ordinamento ha il coraggio di porsi: se il diritto sia ancora partecipazione a un ordine di giustizia che lo trascende, o soltanto un linguaggio che traduce, in formule vincolanti, le decisioni di poteri che non conoscono altro criterio se non quello dell’utile. Nel primo caso, “l’Intelligenza artificiale” sarà misurata, giudicata, limitata da un’istanza che la supera; nel secondo, sarà essa a misurare noi, a definire il raggio delle nostre possibilità, a ridisegnare in silenzio i confini dello Stato costituzionale. La scelta, prima che normativa, è teoretica: riguarda il modo in cui concepiamo l’uomo, la verità, la giustizia. Solo se questo fondamento viene riaffermato, il diritto positivo potrà davvero dire alla macchina: fin qui ti è lecito arrivare, oltre questo limite tu non passi.


di Daniele Trabucco