La tecnologia del momento si prepara al 2025. L’Intelligenza artificiale, sdoganata ormai da qualche anno grazie ai chatbot – il più famoso è Chatgpt – che ormai si trovano ovunque, dai software dedicati al customer care di vari siti web, si sta evolvendo a un ritmo impressionante. L’Ia si è posta per l’anno prossimo un obiettivo decisamente ambizioso: anticipare i nostri desideri. Questo nuovo orizzonte, che i ricercatori dell’Università di Cambridge definiscono “economia delle intenzioni”, potrebbe trasformare il nostro rapporto con l’hi tech, con implicazioni che toccano il cuore della libertà di scelta di ogni essere umano. Fino a ieri, il goal di molte piattaforme digitali era monopolizzare il nostro tempo. Oggi, invece, il traguardo si sposta: non basta tenerci incollati a uno schermo, ma si punta a modellare le nostre decisioni. Gli assistenti virtuali e i chatbot potrebbero presto essere in grado di suggerirci cosa fare, comprare o persino chi votare, con una precisione che fa riflettere. “Le intenzioni umane diventeranno il tesoro del futuro”, avvertono i ricercatori dell’ateneo inglese. Se non ci saranno regole chiare, aziende e governi potrebbero sfruttare questa nuova capacità per i propri interessi, trasformando l’innovazione tecnologica in un’arma per influenzare le nostre vite.
A Cambridge hanno fatto questo esempio: avete iniziato a cercare online una destinazione per le vacanze, senza ancora decidere nulla. All’improvviso, il vostro assistente virtuale vi propone un pacchetto completo, con voli e hotel, perfettamente in linea con i vostri gusti. Sembra utile, no? Ma se dietro quel consiglio ci fosse un’azienda che ha pagato per indirizzare la vostra scelta? Oppure, si pensi a un sistema che vi suggerisce notizie o contenuti basati sulle vostre preferenze. Sembra comodo, ma cosa succede se queste raccomandazioni rafforzano solo le proprie convinzioni? “Il rischio è quello di compromettere elezioni libere, una stampa indipendente e una concorrenza di mercato leale,” sottolinea Jonnie Penn, coordinatore dello studio. In questo scenario complesso, la regolamentazione potrebbe essere fondamentale. L’Unione europea è già al lavoro con l’Ai Act, un quadro normativo che classifica le applicazioni di Intelligenza artificiale in base al rischio, imponendo criteri più stringenti per settori delicati come sanità e finanza. Negli Stati Uniti, il progetto Blueprint for an Ai Bill of Rights propone principi per proteggere i cittadini dagli abusi tecnologici, come l’uso discriminatorio negli algoritmi. In Asia, i governi di Cina e India seguono un approccio diverso, più centralizzato: il controllo delle tecnologie Ia è nelle mani dello Stato, che punta anche a “proteggere” i dati dei cittadini.
Inoltre, l’automazione sta rivoluzionando il mondo del lavoro, eliminando mansioni ripetitive in settori come logistica, produzione e servizi. Per milioni di impiegati e operai, questo significa incertezza occupazionale. Le aziende e gli Stati quindi, possono rispondere investendo in formazione. La Germania, ad esempio, ha avviato il programma Skills for the future, che offre corsi per acquisire competenze digitali e tecnologiche avanzate. In Giappone, l’iniziativa Society 5.0 punta a integrare Ia e altre tecnologie nei settori economici e sociali, accompagnando la trasformazione con programmi educativi mirati. L’India, con Digital India, si concentra sulla formazione di giovani e professionisti nelle competenze legate all’Ia, preparando una nuova forza lavoro altamente qualificata.
Ma i problemi e i dubbi legati all’Intelligenza artificiale non conoscono confini. Per questo, organizzazioni internazionali come l’Onu e l’Ocse stanno lavorando a standard globali. Nel 2024, il Forum globale sull’Ia ha riunito leader mondiali per discutere di governance algoritmica e giustizia sociale. L’Intelligenza artificiale promette grandi progressi, ma i rischi non possono essere ignorati.
Aggiornato il 02 gennaio 2025 alle ore 13:52