Il desiderio di innovare, di scoprire e di migliorare è intrinseco alla natura umana. È una conseguenza della curiosità e della necessità di risolvere sempre nuovi problemi che caratterizza l’uomo.
È possibile allora fermare il progresso? No. Sarebbe come chiedersi se sia possibile arrestare lo scorrere del tempo. E una volta che un’idea è stata concepita e poi implementata è impossibile prevederne gli sviluppi, siano essi positivi o negativi.
E se anche uno stato o un gruppo decidesse di “arrestare” l’innovazione, si determinerebbero solo ulteriori spinte differenziali verso di essa. Durante periodi storici in cui alcuni tipi di ricerca vennero limitati, la scienza e la tecnologia hanno accelerato il loro sviluppo in altre parti del mondo o in modo clandestino: la storia di Galileo ne è testimonianza. Tutti i tentativi di questo genere che già abbiamo visto all’opera sono falliti miseramente. Quando i luddisti credettero di essere capaci di fermare l’utilizzo delle macchine negli opifici nella convinzione che portassero alla riduzione dei salari, alla svalorizzazione delle competenze artigianali degli operai tanto da renderli non più indispensabili per la produzione, e nonostante arrivarono ad azioni eclatanti di sabotaggio e persino alla violenza, furono sconfitti miseramente. Ed infatti non riuscirono a bloccare l’avvento delle macchine e il mutamento del sistema produttivo. Il mondo della manualità artigianale tramontò così definitivamente e si aprì quello dell’industria.
Ma se non fu possibile arrestare il progresso, sin dall’invenzione della ruota, perché dovrebbe esserlo ora? Resta allora la possibilità di regolamentarlo in qualche maniera, forse anche grazie alla “globalizzazione”. Le nuove tecnologie informatiche per loro natura trascendono i confini nazionali, sono infatti universali, e regolamentarle in un solo paese risulterebbe vano senza cooperazione internazionale. Proprio per questo la globalizzazione, oltre ad essere uno strumento per il miglioramento dei rapporti sia politici che commerciali tra le nazioni lo è anche dal punto di vista della condivisione della conoscenza.
Un esempio concreto, anche se controverso, sono le misure adottate al tempo dell’epidemia di Covid19, durante la quale gli stati, soprattutto quelli occidentali, hanno reagito in maniera coordinata. È stato un esperimento che ha testato la possibilità di una risposta comune ad un problema globale, anche se con molte criticità e prospettive.
Ovviamente si capisce che certe questioni sono particolarmente difficili da tradurre in regolamentazioni anche perché abbiamo esempi di fallimenti clamorosi proprio in quest’ambito nel passato. E peraltro se divenissero eccessive potrebbero soffocare l’innovazione stessa, mentre se troppo esigue potrebbero non essere efficaci. Certo trovare un giusto equilibrio è un’impresa titanica. È un dato acclarato che la velocità esponenziale a cui viaggia lo sviluppo certamente non aiuta. Bisogna però operare come se fosse possibile, anche solo parzialmente. D’altronde l’uomo ha dimostrato fin dagli albori della civiltà di avere la capacità di risolvere problemi sempre più complessi.
Qualsiasi provvedimento per essere efficace dovrebbe nascere però dal coinvolgimento di più soggetti, proprio perché essendo la conoscenza diffusa non si può pensare che solo un gruppo ristretto di esperti possa trovare la migliore soluzione. Con pieno spirito “universalista” andrebbero coinvolti nel dialogo normativo tecnici, filosofi, aziende private, sviluppatori di Ia, e gruppi di interesse pubblico.
Non di meno andrebbe migliorata la questione della trasparenza e della comprensione pubblica della tecnologia sul funzionamento dei sistemi di Ia, soprattutto per sradicare la diffusa convinzione che dietro a queste tecnologie ci siano gruppi occulti di “illuminati incappucciati” intenti a complottare per il dominio del mondo.
Esempi di regolamentazione sovranazionale che già esistono e di cui solo col tempo potremo valutare l’efficacia, sono: il Gdpr (Regolamento Generale sulla Protezione dei Dati) dell’Unione Europea; l’Ai Act dell’Ue che mira a stabilire regole specifiche per l'intelligenza artificiale; la proposta del “Blueprint for an Ai Bill of Rights” negli Stati Uniti; la California Consumer Privacy Act (Ccpa) una avanzata legge sulla privacy per la tutela dei dati personali.
Sarebbe un ulteriore e fondamentale passo avanti quello di individuare con chiarezza coloro i quali sono attori del processo di implementazione delle nuove tecnologie così da renderli responsabili di eventuali errori di programmazione, utilizzo di materie prime scadenti, l’inserimento consapevole o meno di elementi discriminatori o razzisti.
Scrive la docente della Princeton University ed editorialista dal New York Times Zeynep Tufekci: “Gli algoritmi non sono neutrali, riflettono i valori e le decisioni delle persone che li progettano e dei dati su cui sono addestrati” sono specchi che riflettono i pregiudizi e le virtù dei loro creatori. Questa responsabilità è difficile da attribuire, dato che gli algoritmi sono spesso “scatole nere”, sistemi complessi il cui funzionamento interno è complesso anche per gli esperti.
Un sistema di regole, simile a quello delle autovetture che per essere commercializzate hanno l’obbligo di rispondere positivamente a stress test sulla loro efficienza e sicurezza non sarebbe un’idea peregrina. In questo modo non si arresterebbe l’innovazione e al contempo si otterrebbe la minimizzazione dei rischi (che comunque permangono) connessi ad una nuova tecnologia. Non provarci nemmeno significherebbe arrenderci ad una inevitabile anarchia digitale con tutte le conseguenze del caos.
Sicuramente non è possibile utilizzare senza rischi l’Intelligenza artificiale e le altre innovazioni, perché l’uso sicuro di qualsiasi tecnologia è impossibile semplicemente perché ogni innovazione porta con sé opportunità, rischi e benefici.
Gli algoritmi, per esempio, possono perpetuare o amplificare pregiudizi che magari appartengono al suo programmatore come afferma Cathy O’Neil nel suo libro Armi di distruzione matematica. Ad esempio, un algoritmo utilizzato per il rilascio di prestiti potrebbe negare un finanziamento a un individuo appartenente a una minoranza etnica, semplicemente perché i dati storici utilizzati mostrano che le persone appartenenti a quella minoranza hanno una probabilità maggiore di insolvenza. Un altro rischio potrebbe essere la manipolazione delle informazioni a fini politici o economici generando false notizie per indirizzare l’opinione pubblica anche a fini destabilizzanti.
Un’altra criticità è la raccolta e l’analisi di grandi quantità di dati personali, necessaria per addestrare i modelli di Ia, per non parlare delle cosiddette “armi autonome” a cui potrebbero essere delegate decisioni di vita o di morte durante un conflitto con conseguenze difficilmente prevedibili.
C’è però la possibilità di raggiungere grazie alle nuove tecnologie un maggiore grado di libertà individuale perché abbiamo a disposizione un arsenale di strumenti, ciascuno capace di affrancarci da limitazioni precedentemente insormontabili.
John Stuart Mill, nella sua opera Sulla libertà ci ricorda che: “Il solo scopo per cui il potere può essere legittimamente esercitato su un membro di una comunità civilizzata, contro la sua volontà, è per prevenire danni agli altri”. Questo principio può essere applicato alla tecnologia: dobbiamo usarla per non nuocere agli altri, ma anche per non nuocere a noi stessi.
La libertà individuale è sacra, e la tecnologia può essere anche un mezzo per proteggerla e ampliarla. E pertanto l’autonomia tecnologica non è solo questione di usare strumenti, ma anche di comprenderli, di saperli modificare e adattare alle proprie esigenze. Esso è un modo per le persone di esercitare la loro creatività senza essere costretti da un piano “superiore” centralizzato. Avere la capacità di programmare o più semplicemente di padroneggiare le tecnologie di uso quotidiano ci permette di partecipare attivamente alla creazione del futuro perché le nostre “pretese” diventano richieste sul mercato e poi anche diritto come asserisce Bruno Leoni: “Come un linguaggio, che evolve continuamente in base all’uso che ne fanno gli individui”.
Seguendo poi il ragionamento di Robert Nozick, in Anarchia, Stato e Utopia sulla proprietà di sé, la tecnologia può divenire un’estensione del sé rafforzando il principio dell’autodeterminazione.
La libertà di innovare, di creare, e di fallire, è cruciale. La tecnologia ci permette di esplorare nuove frontiere economiche, di essere imprenditori di noi stessi, di creare valore in modi che non erano possibili prima correggendo errori e sviste.
E tutti questi aspetti hanno profonde implicazioni anche per la democrazia. L’Ia è sempre più utilizzata in ambiti fondamentali come la medicina, la giustizia, il reclutamento, il credito e la politica. Proprio per questo sarebbe importante garantire che i team di sviluppatori siano composti da persone con diverse esperienze e cultura secondo il principio della conoscenza diffusa. E per ultimo è fondamentale informare le persone sui rischi e le opportunità legate alle nuove tecnologie affinché possano partecipare in modo consapevole al dibattito su di esse.
Gli individui rimangono sempre i veri protagonisti della scelta pubblica, come dimostra il tonfo in borsa delle hi tech society statunitensi dopo l’ingresso nel mercato di DeepSeek del cinese Liang Wenfeng. Un modello di Ia aperto e a basso costo. E come sempre il suo prezzo ci sta già comunicando una informazione, come lo stesso progettista ci ha già prosaicamente detto, “l’innovazione non si protegge con il segreto, ma con la velocità e la capacità di adattamento”. Proprio per questo andrebbero immaginati modelli di sviluppo alternativi dove i codici sorgente siano modificabili e migliorabili da chi che sia. Questo ridurrebbe i costi e promuoverebbe un’innovazione dal basso e non pianificata.
Al contempo bisogna stare attenti a pensare che il progresso sia un processo lineare secondo una forma di predestinazione prevedibile sulla base di un determinismo tecnologico, utilizzato spesso come alibi per giustificare scelte politiche o economiche controverse, vedi il Green deal, addossando la responsabilità dei provvedimenti alla scienza piuttosto che agli attori sociali.
Immaginare questo tipo di futuro significherebbe trascurare la “non linearità” dell’innovazione, la sua intrinseca dinamicità, imprevedibilità e complessità, sottovalutando il ruolo dell’uomo e della sua azione.
Aggiornato il 30 gennaio 2025 alle ore 15:28