L’intelligenza artificiale produce anche seri danni

Le perplessità di fronte ai fenomeni innovativi ci sono sempre state. Oggi la tecnologia va avanti a grande velocità. E, quindi, spesso la realtà che si determina precede la regolamentazione del suo uso.

È questo il caso dell’intelligenza artificiale, il cui sviluppo è considerato da alcuni essenziale e per altri è ritenuto pericoloso, se non ben regolamentato. Le insidie derivano dalla possibilità che aumentino sia le fake news che la scomparsa dei confini tra verità e menzogna, tra realtà e finzione. Le macchine pensanti sono già all’opera e sostituiscono l’uomo in molte funzioni e vari settori.

Tutto parte dagli Stati Uniti, dove si sono sviluppati alcuni software di intelligenza artificiale, che utilizzano conversazioni di utenti e informazioni relative all’indennizzo degli abbonati al servizio a pagamento. In particolare, il quotidiano Wall Street Journal e il gruppo televisivo Cnn hanno protestato per l’utilizzo dei propri contenuti da parte del ChatGpt, il maggiore dei software di intelligenza artificiale. L’editore del quotidiano statunitense precisa che, per usare i suoi contenuti, occorre una regolare licenza. Analoga controversia vede contrapposti i giornali a Google sull’impiego dei cosiddetti snippet, ossia ritagli dei quotidiani sulle pagine del network.

In Italia, il problema è scoppiato per l’intervento del Garante per la privacy, il giurista Pasquale Stanzione, secondo il quale ChatGpt prende dati senza controllo. Per questo, il Garante per la protezione dei dati personali ha disposto “la limitazione provvisoria del trattamento dei dati degli utenti italiani nei confronti di “OpenAi”, la società Usa che ha sviluppato e gestisce la piattaforma. Il problema è complesso, anche per l’assenza di una base giuridica che giustifichi la raccolta e la conservazione di dati personali. In secondo ordine, la carenza di un qualsiasi filtro per la verifica dell’età degli utenti espone i minori a risposte assolutamente inidonee rispetto al loro grado di sviluppo e autoconsapevolezza. Un altro aspetto controverso è che “OpenAi” non ha una sede nell’Unione europea.

I primi a muoversi sono stati i quotidiani americani e sul Post Journal è scritto “tra le molti implicazioni e prospettive create dal perfezionamento delle intelligenze artificiali nella scrittura, una è la possibilità di produrre infiniti contenuti a partire da testi editi protetti dal diritto d’autore, aggirando così il rischio d’illegalità che attualmente riguarda siti e piattaforme che replicano in parte o del tutto articoli sottratti ai siti originali”.

Si crea, così, una sorta di rassegna stampa totale, provocando gravi danni alle aziende editoriali. È per questo che il Garante ha disposto che la piattaforma non potrà essere usata in Italia, fino a quando non saranno rispettate le norme sulla privacy. Lo stop è uno spunto per riflettere sulle insidie nascoste nell’uso senza regole dell’intelligenza artificiale. Alcune versioni contengono parti ingannevoli, con il rischio alla privacy e alla sicurezza pubblica.

L’intervento del professor Pasquale Stanzione, nato a Solopaca in provincia di Benevento nel 1945, si inserisce nel filone che aveva tracciato il costituzionalista Stefano Rodotà, quando da Garante aveva posto al centro dell’attenzione giuridica italiana la difesa dell’identità e della dignità dell’individuo. “La tecnologia”, sosteneva, “deve essere governata dall’uomo e non il contrario”.

“OpenAi” ha 20 giorni per comunicare le misure intraprese in attuazione delle richieste del Garante, pena una sanzione fino a 20 milioni di euro.

Aggiornato il 04 aprile 2023 alle ore 09:14