DiscoverVeramenteSe l'IA diventa un "terapeuta" pericoloso
Se l'IA diventa un "terapeuta" pericoloso

Se l'IA diventa un "terapeuta" pericoloso

Update: 2025-08-29
Share

Description

Negli ultimi anni negli Stati Uniti come in Europa si sono verificati dei casi di suicidio di persone che si erano rivolte esclusivamente a chatbot di intelligenza artificiale per ricevere un sostegno psicologico.


Vi racconteremo quali sono i limiti dell’utilizzo di questi strumenti come unici terapeuti cui affidarsi per la propria salute mentale.




Scriveteci all’indirizzo segnalazioni@facta.news o segnalateci le notizie che volete verificare al numero 3421829843.


Seguiteci sul nostro sito Facta.news, sui nostri profili Facebook, Instagram, Telegram, TikTok e Bluesky


Condotto da Simone Fontana e Anna Toniolo 


Episodio scritto da Simone Fontana e Anna Toniolo 


Prodotto da Jessica Mariana Masucci


LINK UTILI


No, l’intelligenza artificiale non è la tua psicoterapeuta - Facta


Un adolescente aveva tendenze suicide. ChatGPT era l'amico con cui si era confidato - The New York Times


I chatbot "terapeuti" rappresentano un pericolo per i bambini, avvertono i consulenti - The Times


Quello che mia figlia ha detto a ChatGPT prima di togliersi la vita - The New York Times


Un uomo mette fine alla sua vita dopo che un chatbot AI lo ha "incoraggiato" a sacrificarsi per fermare il cambiamento climatico - Euronews 


Uno psichiatra si è finto adolescente con i chatbot terapeutici. Le conversazioni erano allarmanti - Time


CREDIT BRANI


“Dynamic world” di StockStudio 


“Documentary” di Coma-media 


“Cinematic Time Lapse” di Lexin Music 



Learn more about your ad choices. Visit megaphone.fm/adchoices

Comments 
00:00
00:00
x

0.5x

0.8x

1.0x

1.25x

1.5x

2.0x

3.0x

Sleep Timer

Off

End of Episode

5 Minutes

10 Minutes

15 Minutes

30 Minutes

45 Minutes

60 Minutes

120 Minutes

Se l'IA diventa un "terapeuta" pericoloso

Se l'IA diventa un "terapeuta" pericoloso

Facta