Il Garante a colloquio con Chatgpt, indagini da altri Paesi

giovedì 6 aprile 2023


Una videoconferenza ha riacceso una speranza per ChatGpt in Italia. Si è tenuto un incontro, durato quasi tre ore, tra il team legale di OpenAi e i vertici del Garante. Il   clima è stato definito dalle parti “molto buono”. “Siamo pronti a dialogare e trovare soluzioni che rispondano alle preoccupazioni del Garante”, aveva preannunciato l’ingegnere a capo della tecnologia dell’organizzazione, Mira Murati, confermando i segnali di intesa scaturiti dalla call di oggi. Forse, la stessa OpenAi non avrebbe mai pensato di trovarsi così tanto sotto i riflettori, a causa del successo fulminante di ChatGpt. Dopo la mossa del garante, si sono mobilitati a catena altri Paesi, spaventati dall’eventuale breccia nella privacy dei loro cittadini. Martedì scorso, l’Autorità per i dati personali canadese ha aperto un’istruttoria sull’Intelligenza artificiale. “Dobbiamo tenere il passo e stare avanti a sviluppi tecnologici rapidissimi”, ha confessato il capo dell’ufficio, Philippe Dufresne.

Ma oltre l’Atlantico, tornando in Europa, il Regolamento generale sulla protezione dei dati (Gdpr) è molto più rigido e severo. Per esempio, ieri, in Francia, sono state depositati due reclami – che provengono da due avvocati – all’Autorità nazionale per la privacy contro OpenAi sempre a proposito dell’utilizzo illegittimo di dati personali. Anche il Garante irlandese e quello tedesco, coordinati con l’Italia e la Francia, hanno aperto un dossier sull’organizzazione seguendo una linea comune. Se da una parte lo stop in Italia a ChatGpt ha preoccupato il mondo dell’hi-tech, spaventato che il Paese si possa auto-escludere dal progresso tecnologico e informatico, l’interesse di altri Stati europei rispetto alla breccia nella privacy attesta che il problema, effettivamente, c’è.

É pur vero che un’eventuale pace (da raggiungere in tempi brevi) tra il Garante italiano e OpenAi potrebbe mettere un freno all’imminente cascata di procedimenti che si sta per riversare sull’organizzazione. All’Autorità per la privacy, potrebbe essere sufficiente attestare un impegno nel modificare la rotta, sempre monitorando l’intelligenza artificiale a distanza.


di Zaccaria Trevi