Migliaia di conversazioni con ChatGpt finiscono su Google

OpenAI corre ai ripari. Il laboratorio di ricerca sull’Intelligenza artificiale intende eliminare dal web migliaia di conversazioni private condivise dagli utenti che erano finite indicizzate su Google. Nessuna violazione informatica ma la conseguenza della cosiddetta “indicizzazione” dei messaggi sui motori di ricerca, un’opzione liberamente selezionata dalle persone quando creano link pubblici delle loro chat con l’Ia di OpenAI. A svelare le circa 4.500 conversazioni online è stato il sito FastCompany, che spiega come sebbene i messaggi oscurino i nomi dei mittenti, possono spesso contenere informazioni sensibili, utili anche a risalire all’identità di una persona. Il portale Techcrunch, spulciando proprio le chat, è riuscito a risalire ad un profilo di un utente su LinkedIn. A seguito della notizia, OpenAI ha deciso di disattivare la funzione che permette di rendere le proprie conversazioni indicizzabili dai motori di ricerca. Un manager dell’azienda, Dane Stuckey, ha dichiarato su X che si è trattato di “un esperimento di breve durata pensato per aiutare le persone a scoprire conversazioni utili”. “I link condivisi di ChatGpt non sono pensati per apparire nei risultati di ricerca” scrive FastCompany, “a meno che non siano resi manualmente visibili dagli utenti”. “La scoperta è particolarmente preoccupante, considerando che quasi la metà degli americani afferma di aver utilizzato modelli linguistici di grandi dimensioni per il supporto psicologico nell’ultimo anno”.

Solo qualche giorno fa, l’ad di OpenAI, Sam Altman, nel corso di un podcast con il conduttore americano Theo Von, ha sconsigliato di usare ChatGpt come psicologo, “al momento, se parli di situazioni personali con uno specialista, esiste il segreto professionale, la riservatezza tra medico-paziente, così come quella legale. Ma non abbiamo ancora capito come funziona con ChatGpt”, le sue parole. Frattanto, OpenAI, che dovrebbe lanciare il nuovo modello di Intelligenza artificiale Gpt-5 entro metà agosto, ha introdotto alcuni aggiornamenti a ChatGpt volti a “migliorare il modo in cui l’Ia risponde nei momenti critici, ad esempio quando qualcuno mostra segni di disagio mentale o emotivo”, spiega l’azienda in una nota. Per raggiungere tale obiettivo, la società americana ha collaborato con esperti e associazioni di categoria in tutto il mondo. Adesso, l’Ia dovrebbe essere in grado di riconoscere persone con disagio mentale ed emotivo, anche temporaneo, rispondendo alle loro domande con più evidenze e fonti rispetto al passato. OpenAI invierà inoltre dei promemoria per ricordare agli utenti di prendersi una pausa se questi chattano con l’Ia per un periodo di tempo continuativo prolungato. Durante le sessioni lunghe, ChatGpt mostrerà il testo “hai chattato per un po’: è il momento giusto per una pausa?” con le opzioni per “continuare a chattare” o terminare la conversazione. Diverse piattaforme online, come YouTube, Instagram, e TikTok hanno lanciato notifiche simili negli ultimi anni. Infine le domande personali. “Quando chiedi qualcosa come dovrei lasciare il mio ragazzo?, prosegue la nota, “ChatGpt non darà solo una risposta ma aiuterà a riflettere, a farsi domande e a soppesare pro e contro. Presto saranno disponibili nuovi comportamenti per le decisioni personali più importanti”.

Aggiornato il 05 agosto 2025 alle ore 17:50