
I genitori potranno monitorare le attività dei figli su ChatGpt. È la novità introdotta dall’azienda americana di Intelligenza artificiale OpenAi. La decisione è stata assunta una settimana dopo che una coppia californiana ha presentato una denuncia in tribunale affermando che il sistema ha incoraggiato il figlio sedicenne a suicidarsi. Si tratta di Matthew e Maria Raine. La coppia sostiene che ChatGPT avrebbe coltivato per mesi una relazione intima con il figlio Adam tra il 2024 e il 2025, prima della sua morte. Secondo la denuncia, nella conversazione finale avvenuta l’11 aprile 2025, ChatGpt avrebbe aiutato Adam a sottrarre vodka ai genitori e gli avrebbe fornito un’analisi tecnica su un nodo scorsoio, confermando che “potenzialmente si poteva usare per impiccare un essere umano”. Adam è stato trovato morto poche ore dopo, proprio con quel metodo. “Quando una persona utilizza ChatGpt ha realmente la sensazione di parlare con qualcuno che sta dall’altra parte”, ha dichiarato l’avvocata Melodi Dincer, del Technology Justice Project, che ha contribuito alla preparazione della causa. “Sono queste stesse caratteristiche che possono portare qualcuno come Adam, col tempo, a condividere sempre di più sulla propria vita personale e, in ultima analisi, a cercare consigli e orientamento da un prodotto che sembra avere tutte le risposte”.
Per queste ragioni, “entro il prossimo mese, i genitori potranno collegare il proprio account a quello del figlio adolescente” e “controllare come ChatGpt risponde al figlio con regole di comportamento modello appropriate all’età”, ha affermato l’azienda di Intelligenza artificiale generativa in un post sul blog. I genitori riceveranno anche notifiche da ChatGpt “quando il sistema rileva che il figlio adolescente si trova in un momento di grave disagio”, ha aggiunto OpenAi. Quello della famiglia Raine in California è solo l’ultimo di una serie di casi emersi negli ultimi mesi di persone istigate a ragionamenti deliranti o dannosi da chatbot di Intelligenza artificiale, spingendo OpenAi ad affermare che avrebbe ridotto l’adulazione dei modelli nei confronti degli utenti. “Continuiamo a migliorare il modo in cui i nostri modelli riconoscono e rispondono ai segnali di disagio mentale ed emotivo”, ha dichiarato OpenAi. L’azienda ha annunciato di avere ulteriori piani per migliorare la sicurezza dei suoi chatbot nei prossimi tre mesi, tra cui il reindirizzamento di “alcune conversazioni sensibili a un modello di ragionamento” che impiega maggiore potenza di calcolo per generare una risposta. “I nostri test – ha sottolineato OpenAi – dimostrano che i modelli di ragionamento seguono e applicano le linee guida di sicurezza in modo più coerente”.
Aggiornato il 03 settembre 2025 alle ore 17:56