Il paradosso della deterrenza

Quando le questioni di politica internazionale si congiungono a quelle di ordine militare non è il caso di affidarsi solo a considerazioni dettate dal mero buon senso, anche perché le informazioni di cui si può disporre sono sicuramente molto precarie e parziali e non consentono l’elaborazione di ipotesi credibili. Ciò che intendo proporre, di conseguenza, è solo un atto di omaggio al nostro giornale, cioè un’opinione. Un’opinione che non osa entrare nei dettagli di ciò che, peraltro, non conosciamo, ma fondata su alcuni dati di fatto oggettivamente noti.

Lo spunto è l’offerta di Emmanuel Macron circa il possibile ‘ombrello nucleare’ quale garanzia di protezione e deterrenza nei confronti della Russia. Un fatto è sotto gli occhi di tutti: il numero di Paesi che dispongono di armi nucleari non è elevato ma il numero, quello noto, di testate esistenti sulla Terra è sicuramente piuttosto alto e si colloca all’incirca attorno alle 12-14mila, di cui poco più di 10mila in mano agli Usa e alla Russia. Tuttavia, nemmeno una è mai stata usata nei pur numerosi conflitti che si sono avvicendati dalla fine della Seconda guerra mondiale. Tutto questo viene giustamente attribuito alla deterrenza che questi armamenti generano. Ma gli anni passati dal 1945 hanno visto lo sviluppo di scienze e tecnologie che hanno modificato radicalmente la situazione.

Se nel 1950 sarebbe, forse, bastato che un Paese lanciasse qualche missile o qualche aereo in grado di sganciare una bomba sul Paese nemico provocando distruzione e risposte altrettanto severe, dagli anni Ottanta le cose sono mutate grazie alla sempre più intensa adozione di tecnologie elettroniche e informatiche capaci di ridurre i tempi di riconoscimento del pericolo e di attivazione della risposta. Il punto di svolta decisiva è stata la proposta di Ronald Reagan circa il suo ‘ombrello’, chiamato Sdi (Strategic Defense Initiative) che prevedeva, appunto, apparati che avrebbero sfruttato l’efficienza e l’efficacia dell’elettronica dell’epoca per rendere praticamente impossibile al nemico di invadere con qualsiasi mezzo atomico il territorio americano e scatenando, semmai, una reazione durissima. È largamente condivisa l’opinione che si trattò di una iniziativa che scoraggiò fortemente l’Unione Sovietica, molto più della possibile supremazia americana in termini di quantità di bombe. Oggi la tecnologia, chiamiamola genericamente Intelligenza artificiale, è decisamente molto più avanzata e tutti gli automatismi già realizzabili negli anni Ottanta raggiungono prestazioni allora inimmaginabili. D’altra parte, è un ulteriore dato di fatto che nei due più rilevanti conflitti attuali – quello fra Russia e Ucraina e quello fra Israele e Hamas – nonostante le perdite umane siano comunque notevoli, una percentuale molto alta, talora stimata al 90 per cento dei mezzi di distruzione nemici (razzi, missili, droni ecc.) non è riuscita ad abbattersi sull’avversario proprio grazie alle sempre più sofisticate tecnologie a disposizione di tutti, o quasi, i contendenti.

Sono passati quasi ottanta anni dalle prime applicazioni della cibernetica di Norbert Wiener al controllo, tramite feedback, del tiro antiaereo e, oggi, lo spazio aereo delle maggiori potenze è pressoché del tutto impenetrabile anche grazie ai dispositivi sopra citati e dalla loro continua evoluzione. Si potrebbe insomma sostenere che, oggi, la vera deterrenza non consiste nella quantità di testate nucleari in mano ad un Paese ma, piuttosto, nella sua efficienza in termini di eliminazione degli ordigni nemici prima che raggiungano l’altitudine prevista per la deflagrazione. Un Paese con poche testate potrebbe prevalere, ceteris paribus, su un altro, magari ricco di ordigni ma meno capace di intercettare quelli nemici. Paradossalmente, per rafforzare la deterrenza i trattati dovrebbero dunque includere la distruzione delle tecnologie di intercettazione in modo da rendere nuovamente davvero deterrente l’impiego delle bombe. Ma, a parte questa digressione grottesca, va aggiunto che il ricorso crescente alla tecnologia degli automatismi non è senza rischi. Sempre verso la fine degli anni Ottanta, Severo Ornstein, un valido tecnico della Ibm, sosteneva che l’Sdi era altamente rischiosa perché la sua affidabilità non poteva essere soddisfacentemente valutata se non mettendola concretamente in azione, ossia in uno scontro effettivo.

In California mi capitò di ricevere da un gruppo di studiosi di Intelligenza artificiale e di giuristi un post-it assai eloquente (vedi figura a lato) che metteva in guardia su possibili azioni indesiderate attuate da dispositivi elettronici cui si dovesse demandare la presa automatica di decisioni tattiche o addirittura strategiche. Poiché queste, negli Usa, sono prerogativa del Presidente, i giovani professionisti in questione si preparavano persino a denunciare Reagan per aver abdicato ai suoi doveri cedendoli a una macchina. C’era sicuramente dell’esagerazione ma va riconosciuto che attualmente, e forse ancor più in futuro, i Paesi non si confrontano solo con le forze armate tradizionali bensì con forze armate parallele e latenti, incorporate nei grandi sistemi computerizzati che finiscono per costituire una sorta di esercito, o aeronautica, aggiuntivi. La loro azione conferisce sicurezza e magari prevalenza sul nemico, ma attraverso una crescente autonomia che potrebbe dar luogo a ‘incidenti’ improvvisi dovuti ad errori di programmazione, guasti o conflitti software con conseguenze che il nemico attribuirebbe comunque agli uomini e non certo alle macchine.

(*) Nell’immagine interna c’è scritto: “Sono le 11 di sera. Sai cosa ha appena dedotto il tuo sistema esperto?”. Il riferimento è agli expert systems, sistemi di Intelligenza artificiale di grande successo negli anni Ottanta, in grado di operare vere e proprie deduzioni sulla base, da un lato, delle conoscenze che gli esperti umani hanno riversato nella loro memoria e, dall’altro, degli eventi rilevati da vari tipi di sensori.

Aggiornato il 10 marzo 2025 alle ore 15:36