Dati sensibili e AI: cosa non dovresti mai rivelare a ChatGPT

L’Intelligenza artificiale generativa, spesso associata dal grande pubblico a ChatGPT come esempio più noto, sta cambiando il mondo. Secondo alcune recenti statistiche, proprio ChatGPT avrebbe raggiunto un livello di competenza medica superiore a quello dei dottori professionisti.

Nel 90 per cento dei casi infatti, avrebbe effettuato diagnosi corrette, rispetto al 74 per cento dei dottori con risorse tradizionali (questa percentuale sale al 76 per cento considerando i medici con il supporto dell’Intelligenza artificiale).

Nonostante le sue innegabili capacità, non bisogna ignorare i rischi che pone sul fronte della privacy, in particolar modo nel caso in cui non venisse utilizzato con cautela. In questo articolo vedremo come vengono trattati i dati che condividi, quali informazioni puoi fornire con sicurezza, i comportamenti che dovresti evitare e qualche buona abitudine per usare questo strumento in modo sicuro.

Cosa succede ai dati che condividi con ChatGPT?

ChatGPT, e così tanti altri strumenti simili per funzionamento e logica di base, può anche usare i dati forniti dagli utenti per elaborare le proprie risposte. Questi dati possono essere memorizzati pro tempore per potenziare il modello. L’IA, non è altro che un insieme di regole che determinano le modalità e le capacità di apprendimento del LLM (Large Language Model), attraverso una procedura nota come “training”.

Secondo OpenAI, circa il 2 per cento delle interazioni con gli utenti viene archiviato per una revisione manuale da parte di esperti umani, con l’obiettivo di ottimizzare il modello.

Questo approccio pone diverse questioni sul fronte della privacy:

  • I dati condivisi sono al sicuro? Nonostante siano arrivate diverse rassicurazioni in tal senso, qualsiasi sistema memorizzi temporaneamente le informazioni è potenzialmente a rischio “leak” (termine anglosassone sempre più usato anche in Italia che si riferisce alle perdite di dati).
  • Che tipo di dati vengono conservati? OpenAI dichiara di raccogliere informazioni strettamente legate alle modalità d’uso del servizio, ma non si può escludere che ci siano anche dati personali o sensibili, condivisi inconsapevolmente dagli utenti.

Quali dati si possono condividere in sicurezza?

Anche se si tratta di un campo in continua evoluzione, alcuni argomenti sono considerati al sicuro anche nel caso in cui vengano condivisi con ChatGPT:

  • Richieste generiche di informazioni: domande su argomenti accademici, tecnici o curiosità generali non pongono rischi per la privacy.
  • Testi non identificabili: traduzioni di documenti generici o suggerimenti creativi per brainstorming e idee.
  • Task generici: ad esempio, richieste di generazione di contenuti non legati a dati personali.

Ad esempio, nel caso in cui dovessi chiedere a ChatGPT di proporti qualche idea per una campagna pubblicitaria, non correresti alcun rischio, a meno che non vengano forniti dati sensibili.

Quali dati non dovresti condividere mai?

Alcune informazioni non dovrebbero mai essere rivelate a strumenti basati sull’Intelligenza artificiale, poiché potrebbero essere conservate temporaneamente e utilizzate per addestrare modelli futuri:

  • Password: non usare ChatGPT per creare o memorizzare le password. L’80 per cento delle violazioni di dati nel 2023 è stato causato da credenziali compromesse, secondo un rapporto. Per le password e i nomi utente è meglio affidarsi a password manager affidabili.
  • Informazioni bancarie: qualsiasi dato sensibile come numeri di carte di credito o dettagli di un conto bancario può essere sfruttato per vari scopi, nel caso in cui finisca nelle mani sbagliate (ad esempio a seguito di una violazione di sicurezza).
  • Dati personali identificabili: nome e cognome, indirizzo, numero di telefono, o altre informazioni sensibili che potrebbero essere utilizzate per furti d’identità.
  • Informazioni aziendali di valore: business plan, progetti interni o dati relativi ai clienti sono a rischio e andrebbero trattati con estrema cautela.

Consigli per proteggere la privacy quando usi ChatGPT

Se vuoi continuare a usare strumenti di Intelligenza artificiale in modo sicuro, segui queste best practice:

  1. Condividi solo lo stretto indispensabile. Limitati a ciò che è strettamente necessario per arrivare alla risposta che desideri. Meno informazioni condividi, minore sarà il rischio.
  2. Utilizza un conservatore delle password. Non usare ChatGPT per creare e gestire le tue credenziali di sicurezza. Sul mercato ci sono molti strumenti più affidabili, sviluppati specificamente a questo scopo.
  3. Leggi l’informativa sulla policy. Prima di utilizzare qualsiasi strumento basato sull’AI, leggi attentamente la privacy policy per capire come verranno usati i dati da te forniti.
  4. Proteggi la tua connessione. Collegati tramite VPN per mettere al sicuro la tua connessione e ridurre il rischio che i tuoi dati vengano intercettati. Non dimenticare di scegliere la migliore VPN per garantire la massima sicurezza e prestazioni.
  5. Non condividere informazioni sensibili. Non fornire dati identificabili come nome, numeri di telefono o indirizzo.

Disattiva il salvataggio delle chat. Se possibile, non permettere alla piattaforma IA di memorizzare le chat e le informazioni fornite, così da ridurre ulteriormente i rischi.

Aggiornato il 26 novembre 2024 alle ore 10:32