Se l'IA diventa un "terapeuta" pericoloso
Description
Negli ultimi anni negli Stati Uniti come in Europa si sono verificati dei casi di suicidio di persone che si erano rivolte esclusivamente a chatbot di intelligenza artificiale per ricevere un sostegno psicologico.
Vi racconteremo quali sono i limiti dell’utilizzo di questi strumenti come unici terapeuti cui affidarsi per la propria salute mentale.
Scriveteci all’indirizzo segnalazioni@facta.news o segnalateci le notizie che volete verificare al numero 3421829843.
Seguiteci sul nostro sito Facta.news, sui nostri profili Facebook, Instagram, Telegram, TikTok e Bluesky
Condotto da Simone Fontana e Anna Toniolo
Episodio scritto da Simone Fontana e Anna Toniolo
Prodotto da Jessica Mariana Masucci
LINK UTILI
No, l’intelligenza artificiale non è la tua psicoterapeuta - Facta
Un adolescente aveva tendenze suicide. ChatGPT era l'amico con cui si era confidato - The New York Times
I chatbot "terapeuti" rappresentano un pericolo per i bambini, avvertono i consulenti - The Times
Quello che mia figlia ha detto a ChatGPT prima di togliersi la vita - The New York Times
Uno psichiatra si è finto adolescente con i chatbot terapeutici. Le conversazioni erano allarmanti - Time
CREDIT BRANI
“Dynamic world” di StockStudio
“Cinematic Time Lapse” di Lexin Music
Learn more about your ad choices. Visit megaphone.fm/adchoices