Idées noires, isolement… Les risques de prendre l'IA pour un psy
Description
Aux États-Unis, plusieurs jeunes se sont suicidés après avoir échangé avec des robots conversationnels. Sept plaintes ont été déposées contre OpenAI, le géant américain qui développe ChatGPT. La promesse est tentante : être écouté par un robot toujours disponible. Tantôt psychologues, tantôt amoureux, ces compagnons boostés à l’intelligence artificielle peuvent s’avérer très dangereux.
Dans une enquête publiée le 14 novembre, le Parisien a échangé avec plusieurs personnes, surtout des jeunes, qui ont pris l’habitude d’échanger avec l’IA, que ce soit pour des échanges amicaux, ou amoureux.
La journaliste qui a écrit cette enquête, Elsa Mari, est dans Code source aujourd’hui. Elle a testé ces outils numériques et a investigué sur ses dérives.
Écoutez Code source sur toutes les plates-formes audio : Apple Podcast (iPhone, iPad), Amazon Music, Podcast Addict ou Castbox, Deezer, Spotify.
Crédits. Direction de la rédaction : Pierre Chausse - Rédacteur en chef : Jules Lavie - Reporter : Barbara Gouy - Production : Anaïs Godard, Thibault Lambert, et Clara Garnier-Amouroux - Réalisation et mixage : Julien Montcouquiol - Musiques : François Clos, Audio Network.
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.























