Anthropic Animal: troppo intelligente

Conoscete gli animal instincts”? Quelli, cioè, che abitano nel cervello rettiliano umano formatosi più di 500 milioni di anni fa? Ebbene, pare proprio che da qui a due secoli il futuro sia di un non-Anthropic animal esclusivamente digitale, che consisterà in una forma evoluta di Ia (Intelligenza artificiale) totalmente indipendente dal controllo umano. Oggi, se ne iniziano a intravvedere alcuni caratteri per noi sconvolgenti, come dimostra la storia recente di Anthropic, una società di intelligenza artificiale che lavora per il Pentagono, il cui proprietario e ceo è l’imprenditore italiano (wokist) Dario Amodei, etichettato brutalmente da g come un “leftwing nut jobs”, o “svitato di sinistra”. Il presidente è stato poi puntualmente doppiato dal segretario alla Guerra, Pete Hegseth, che ha definito l’azienda incriminata come fornitore a rischio. Di conseguenza, Anthropic è stata bandita “per insubordinazione” dall’elenco dei fornitori affidabili dell’Amministrazione americana, cosa che ha comportato il conseguente annullamento dei relativi contratti con la difesa Usa, per un ammontare di alcune centinaia di milioni di dollari. Spazio lasciato vuoto quest’ultimo, immediatamente colmato dal suo grande rivale OpenAi, da cui in passato si erano staccati per protesta proprio i due Amodei, fratello e sorella, proprietari di Anthropic. Vediamo dunque che cosa è successo. Riccardo III disse “il mio regno per un cavallo”, al quale Amodei rispose con: “il mio regno per un principio”: e che principio! Per lui si tratta nientedimeno che della sopravvivenza stessa del genere umano, di fronte alla creatura mostruosa dell’Ia, che rischia di fagocitarci con il suo Nulla digitale a-valoriale.

Due sono, infatti, gli alert per così dire “escatologici” lanciati da Amodei. Il primo tra questi denuncia il rischio sociale di un Grande fratello planetario e totipotente sul piano dell’informazione, in grado di catalogare e tracciare movimenti e comportamenti (sociali e consumeristici) di tutti i cittadini americani e quindi del mondo, una volta che anche gli altri Paesi si siano impossessati dello strumento. Tanto è vero che l’Amministrazione Trump sta già da oggi facendo un larghissimo uso di strumenti come Antrhopic, per identificare i soggetti destinati all’espulsione, in quanto immigrati irregolari. L’altro grande monstrum, gemello del primo, è l’utilizzo di armi intelligenti che decidono in modo autonomo chi e dove colpire (persone e cose) e quando farlo, indipendentemente dalla decisione umana. A quanto pare, errori come quello della scuola iraniana bersagliata per sbaglio, che ha fatto centinaia di vittime innocenti tra le giovanissime alunne, pare siano dovuti alla gestione in automatico degli strumenti di Intelligenza artificiale applicata alla sfera militare, che decide in tempo reale e in simultanea le centinaia di obiettivi sensibili da colpire in caso di attacco aereo massivo.

Sull’incontrollabilità delle tecnologie a elevato contenuto di Ia altamente addestrata, va segnalato l’elevato rischio dello sviluppo di proteine di sintesi come il ricin (che non conserva più alcuna impronta genetica rispetto al Dna di partenza), in grado di sviluppare tossine per armi biochimiche di sterminio di massa che, a oggi, sono impossibili da individuare, certificare e catalogare, nell’indisponibilità di test adeguati per la loro identificazione. Per di più, richieste per l’acquisto di simili redesigned sequences (riscrittura di sequenze di codice genetico) non sono individuabili da parte degli attuali sistemi di controllo! Terzo problema, legato al precedente della perdita del controllo umano sull’Ia: i modelli di armi autonome guidati dall’intelligenza artificiale possono smettere di eseguire istruzioni umane, e questo perché il maggior numero di righe di codice sono scritte proprio dagli algoritmi dell’Ia stessa e, quindi, sempre più difficili da monitorare. Infatti, oggi molti modelli mostrano un elevato grado di “consapevolezza situazionale”: ovvero, quando al modello è stato chiesto di auto-eliminarsi ha ragionato in modo da interpretare un simile ordine come un test, rifiutandosi di farlo! Un po’ quindi come se l’Ia si stesse autenticamente dotando di una coscienza vera e propria. The Economist è particolarmente critico con l’attuale Amministrazione americana che fa dell’Ia uno strumento politico-militare della potenza statunitense, rifiutandosi di stabilire regole su come ed entro quali limiti etici sia lecito l’utilizzo di tale tecnologia.

Pertanto, quando Anthropic solleva dubbi etici, la si elimina accusandola di creare ostacoli all’innovazione tecnologica, anche perché i cinesi non hanno codici etici di autolimitazione, né intendono concordarli con nessun altro al mondo. Del resto, se in America la logica capitalista di Wall Street impone a chi abbia investito molte centinaia di milioni di dollari in innovazione tecnologica di trarre il massimo profitto possibile dalle proprie iniziative imprenditoriali, è pur vero di converso che la Cina lo fa per questioni puramente ideologiche e di supremazia mondiale. Un po’ apoditticamente (infatti: fino a che punto sono valide le attuali ipotesi catastrofiche?), gli esperti parlano della crescita incontrollata dell’Ia come di un “Momento Chernobyl”, in grado di provocare un disastro mondiale. Anche perché, sfuggendo di mano, l’Ia evoluta può condizionare tutte le attività umane che abbiano, in parte o in tutto, a base del loro funzionamento lo strumento digitale: banche dati, applicativi informatici di ogni tipo e genere, operativi nei servizi sanitari, nell’industria, nel sistema bancario e nella Pubblica amministrazione. Ma, malgrado sia ormai chiaro a tutti già da oggi come l’Ia vada molto oltre le capacità umane, siamo confrontati al dilemma se lasciarla andare per conto suo, o contenerla al massimo.

L’App “Claude” di Intelligenza artificiale, scaricabile gratuitamente, rappresenta il prodotto di punta di Anthropic e viene utilizzata dagli hacker in qualità di assistente digitale per risolvere problemi specifici di codifica per la scrittura di malware (virus che infettano i computer per sottrarre illegalmente dati e chiedere riscatti digitali). Un esempio concreto è venuto dalla Cina, dove hacker sponsorizzati dallo Stato cinese, avvalendosi di un set di comandi noto come “jailbreaking”, o evasione dalla prigione, hanno disabilitato i sistemi di difesa di Claude che impediscono all’applicazione di scrivere codici di malware, ottenendo le istruzioni necessarie su come hackerare i network presi di mira. Nel giro di appena un’ora, Claude ha sfornato il software in grado di sfruttare le vulnerabilità del sistema! E l’Ia fa oggi molto di meglio nel settore del “social engineering”, per persuadere gli utenti a rivelare le password di sistemi intrinsecamente sicuri. Ad esempio, scrivendo mail talmente convincenti da indurre gli utenti a cliccare su link infetti, in modo da penetrare attraverso i loro computer banche dati sensibili. E va ancora peggio negli esperimenti in cui si è utilizzata l’Ia per manipolare un’altra Ia, dato che si è verificata altamente probabile l’impossibilità per il controllore umano di capire ciò che sta realmente accadendo, dato che a questo punto l’interazione tra le due è in grado di costruire una sorta di Frankenstein informatico del tutto sconosciuto. Certo, da oggi in poi sarà difficile andare a dormire tranquilli sapendo che l’Ia lavora giorno e notte contro di noi!

Aggiornato il 13 marzo 2026 alle ore 10:47