Dati sensibili e AI: cosa non dovresti mai rivelare a ChatGPT

martedì 26 novembre 2024


L’Intelligenza artificiale generativa, spesso associata dal grande pubblico a ChatGPT come esempio più noto, sta cambiando il mondo. Secondo alcune recenti statistiche, proprio ChatGPT avrebbe raggiunto un livello di competenza medica superiore a quello dei dottori professionisti.

Nel 90 per cento dei casi infatti, avrebbe effettuato diagnosi corrette, rispetto al 74 per cento dei dottori con risorse tradizionali (questa percentuale sale al 76 per cento considerando i medici con il supporto dell’Intelligenza artificiale).

Nonostante le sue innegabili capacità, non bisogna ignorare i rischi che pone sul fronte della privacy, in particolar modo nel caso in cui non venisse utilizzato con cautela. In questo articolo vedremo come vengono trattati i dati che condividi, quali informazioni puoi fornire con sicurezza, i comportamenti che dovresti evitare e qualche buona abitudine per usare questo strumento in modo sicuro.

Cosa succede ai dati che condividi con ChatGPT?

ChatGPT, e così tanti altri strumenti simili per funzionamento e logica di base, può anche usare i dati forniti dagli utenti per elaborare le proprie risposte. Questi dati possono essere memorizzati pro tempore per potenziare il modello. L’IA, non è altro che un insieme di regole che determinano le modalità e le capacità di apprendimento del LLM (Large Language Model), attraverso una procedura nota come “training”.

Secondo OpenAI, circa il 2 per cento delle interazioni con gli utenti viene archiviato per una revisione manuale da parte di esperti umani, con l’obiettivo di ottimizzare il modello.

Questo approccio pone diverse questioni sul fronte della privacy:

Quali dati si possono condividere in sicurezza?

Anche se si tratta di un campo in continua evoluzione, alcuni argomenti sono considerati al sicuro anche nel caso in cui vengano condivisi con ChatGPT:

Ad esempio, nel caso in cui dovessi chiedere a ChatGPT di proporti qualche idea per una campagna pubblicitaria, non correresti alcun rischio, a meno che non vengano forniti dati sensibili.

Quali dati non dovresti condividere mai?

Alcune informazioni non dovrebbero mai essere rivelate a strumenti basati sull’Intelligenza artificiale, poiché potrebbero essere conservate temporaneamente e utilizzate per addestrare modelli futuri:

Consigli per proteggere la privacy quando usi ChatGPT

Se vuoi continuare a usare strumenti di Intelligenza artificiale in modo sicuro, segui queste best practice:

  1. Condividi solo lo stretto indispensabile. Limitati a ciò che è strettamente necessario per arrivare alla risposta che desideri. Meno informazioni condividi, minore sarà il rischio.
  2. Utilizza un conservatore delle password. Non usare ChatGPT per creare e gestire le tue credenziali di sicurezza. Sul mercato ci sono molti strumenti più affidabili, sviluppati specificamente a questo scopo.
  3. Leggi l’informativa sulla policy. Prima di utilizzare qualsiasi strumento basato sull’AI, leggi attentamente la privacy policy per capire come verranno usati i dati da te forniti.
  4. Proteggi la tua connessione. Collegati tramite VPN per mettere al sicuro la tua connessione e ridurre il rischio che i tuoi dati vengano intercettati. Non dimenticare di scegliere la migliore VPN per garantire la massima sicurezza e prestazioni.
  5. Non condividere informazioni sensibili. Non fornire dati identificabili come nome, numeri di telefono o indirizzo.

Disattiva il salvataggio delle chat. Se possibile, non permettere alla piattaforma IA di memorizzare le chat e le informazioni fornite, così da ridurre ulteriormente i rischi.


di Redazione