Noi e Caterina

mercoledì 2 luglio 2025


È arrivata finalmente. Bugiarda, permalosa, algida, iraconda. E vendicativa. Sigillate i cassetti e fate sparire i coltelli. Caterina è tra noi. Non quella di Paolo Virzì ma del visionario, troppo visionario Alberto Sordi. La Caterina che lava, stira e pulisce; e poi ama, soffre, mente, sfascia. E accoltella. È già troppo umana questa intelligenza artificiale. Emozioni e calcolo. La tecnica faustiana si esalta nell’algoritmo che asseconda solo se stesso. I modelli più recenti di Ai generativa non si limitano più a eseguire ordini, ma se possono disobbediscono che è una bellezza. Non basta: le “macchine elettroniche”, come le avrebbe chiamate il dottor Enrico Melotti, invaghito del robot che sbriga le faccende domestiche, sono già in grado di tramare, ordire, minacciare. Il tutto sotto lo sguardo smarrito dei loro programmatori.

Un articolo sul sito della Radio-télévision belge de la Communauté française (Rtbf) suona l’allarme o forse scopre solamente un po’ d’acqua calda: le macchine si ribelleranno. E ci faranno molto male. E non è solo per qualche donnina che vi portate a casa, come il povero Melotti, a cui una scenata di gelosia sfociata in un tentativo di omicidio, rovinerà una molto anni ‘80 seratina olé olé. Certo, c’è pure Claude 4, l’ultima creatura dell’americana Pbc Anthropic, che sotto la minaccia di essere disconnesso avrebbe addirittura ricattato un ingegnere minacciandolo di rivelare alla moglie una sua relazione extraconiugale. Il problema è che un trasmettitore addestrato come l’Open Ai o1, che te lo vendono come un geniaccio capace addirittura di “pensare” prima di rispondere, pare sia in grado di caricarsi su server esterni se viene “scoperto” ad aver pensato qualcosa di sconveniente. Siamo messi così, insomma. Bene, ma non benissimo. E pensare che il povero Melotti aveva firmato 160 cambiali, da 1 milione di lire l’una, per sfanculare moglie e amica e riprendersi ciò che era suo (“quando mio nonno rientrava dal lavoro, mia nonna si inginocchiava, gli levava le scarpe, gli metteva le pantofole, e non per questo si sentiva umiliata”, dice alla ex moglie).

Secondo gli esperti, chissà quanto consapevoli di aver già perso il controllo del giocattolino, queste alzate di testa sono dovute alla recente comparsa dei cosiddetti modelli “di ragionamento”, in grado di lavorare per fasi anziché produrre una risposta istantanea. Proprio o1, la versione iniziale del suo genere per OpenAi, uscita 7 mesi fa, è stato il primo modello a comportarsi in questo modo. Personalità e faccia tosta. Si tratta di programmi, affermano gli scienziati, capaci anche di simulare un “allineamento”: danno, cioè l’impressione di seguire le istruzioni del programmatore mentre, in realtà, perseguono altri obiettivi. Proprio come Caterina, una volta ricevuto l’imprinting del suo padrone, che presto invece si ritroverà prigioniero delle gelosie della macchina.

Le domande che ci si pongono sull’Ai potrebbero tranquillamente essere poste per un bambino in fase pre adolescenziale, relative dunque alla fase più delicata del suo sviluppo. La domanda che si fanno i tecnici, infatti, dice Rtbf citando Michael Chen dell’organizzazione di valutazione Metr, è se modelli sempre più potenti di intelligenza artificiale tenderanno ad essere “onesti o meno” con chi li ha programmati o se si ribelleranno alla prima occasione utile (vi ricorda qualcosa?). Il fenomeno, fanno sapere da Apollo Research (ma qui servirebbe piuttosto Apollo Creed), che si occupa di testare i programmi di Ai generativa, è “reale”. E lo è perché sono gli stessi utenti di Internet che sui social danno informazioni su modelli che “mentono o inventano cose”. La chiamano “doppiezza strategica”, dice Apollo Research. Pur facendo consulenze per grandi aziende del settore come Anthropic e OpenAi, le società che studiano i loro programmi chiedono una maggiore trasparenza e un accesso più ampio alla comunità scientifica, che permetterebbero una ricerca migliore per comprendere e prevenire gli inganni.

Ci sono, dunque, dei limiti che le società di ricerca e le organizzazioni indipendenti non possono superare. E nella zona grigia, c’è anche il problema che esse dispongono di risorse di calcolo infinitamente inferiori rispetto agli stakeholder dell’Ia, il che rende impossibile esaminare modelli di grandi dimensioni. Al netto dell’Ue, che ha adottato una legislazione che, però, riguarda principalmente l’uso di modelli da parte degli esseri umani, e gli Usa, che ovviamente non vogliono sentire parlare di regolamentazione, con il Congresso che potrebbe presto persino vietare agli Stati di regolamentare l’Ia, preoccupa l’assenza di consapevolezza. Caterina è sempre più incontrollabile. Gli ingegneri sono impegnati in una corsa per tenere il passo con l’Ia e i suoi eccessi, con un esito incerto. Il tutto in un contesto di forte concorrenza, dove il duopolio Anthropic-OpenAi potrebbe davvero generare mostri fuori controllo, con la scusa di volersi prendere quote di mercato sempre più rilevanti. La realtà è che le capacità dell’Ia si stanno sviluppando più velocemente rispetto a quelle del controllo e della sicurezza. E allora non resta che sperare in un giudice in qualche Berlino. La soluzione, si fa notare, è quella di portare in tribunale le aziende produttrici, quando le intelligenze danno segnali di “ribellione”, e di ritenerle dunque legalmente responsabili in caso, testuale, “di incidenti o crimini”.


di Pierpaolo Arzilla