Governo Uk: indagine sui rischi provocati dall’Intelligenza artificiale

Il Governo inglese vuole vederci chiaro sull’intelligenza artificiale. Dopo che gli Stati Uniti, nella giornata di ieri, hanno confermato l’impegno per lo sviluppo di un’Ai etica” – finanziando sette nuovi istituti nazionali di ricerca – l’Esecutivo del Regno Unito si è preparato per avviare una prima indagine sull’impatto dell’intelligenza artificiale generativa a livello nazionale. La review di Downing Street su questa tecnologia e sui modelli di elaborazione del linguaggio (ovvero programmi simili a Chatgpt) si ripromette di esaminare meticolosamente le ripercussioni della creazione e distribuzione dell’Ai su tutto il territorio del Paese. L’obiettivo è ben chiaro: prevenire un uso ambiguo dell’intelligenza artificiale e, soprattutto, tutelare i consumatori in primis e i principi della concorrenza e del libero mercato.

Ad approvare l’indagine è stata l’Autorità per la concorrenza e i mercati (Cma), che con questa review si impone di trovare le risposte ai quesiti più importante sull’Ai. L’esame del Governo Uk è diviso in cinque macro-aree, nelle quali i sistemi di intelligenza artificiale potrebbero impattare – verosimilmente – di più, ovvero: trasparenza; responsabilità e governance; sicurezza, protezione e robustezza; equità; contestabilità e ricorso. L’indagine dell’Esecutivo vuole capire come le Ai possano avere un impatto negativo su aziende e consumatori, ma con il fine ultimo di sviluppare questa tecnologia in modo “costruttivo” e in maniera tale da garantire mercati aperti e competitivi.

La review del Regno Unito arriva a poche settimane dalla notizia della creazione di un modello di elaborazione del linguaggio totalmente inglese, arrivato grazie a un investimento di 100 milioni di sterline. Questa tecnologia, simile alla celebre Chatgpt, sarà messa a punto dalla Foundation model taskforce, un team di tecnici ed esperti che hanno il solo obbiettivo di “rendere il Regno Unito globalmente competitivo”.

Aggiornato il 05 maggio 2023 alle ore 15:03