¿Por qué GPT falla en lo básico pero hace cosas que no le enseñaron? IA, Hinton y amenazas con C. Ferri y J. Flores. E46
Update: 2024-10-17
Description
Uno de los padres del aprendizaje profundo de las redes neuornales, Geoffrey Hinton, se ha llevado el Premio Nobel. El ha sido clave en que hoy contemos con herramientas como ChatGPT. Sin embargo, un año antes del galardón, abandonó sus investigaciones en Google, aterrado por lo que los modelos de lenguaje y otras IA que entrenaban en su empresa estaban consiguiendo. Superando capacidades humanas, tomando algo parecido a 'consciencia'. Siendo, en suma, una potencial amenaza. Hoy tratamos ver hasta qué pundo ees así o la visión de Hinton es quizás demasiado apocalíptica o mecanicista de la inteligencia humana, con Julia Flores y uno de los evaluadores de GPT, César Ferri. Él acaba de publicar un estudio en que demuestra que, justamente, los modelos de lenguaje han empezado a decepcionarnos porque vemos constantemente que no son fiables. Son capaces de resolver ecuaciones propias de un doctorado en física, pero prácticamente no saben sumar. ”'Piensan' de otra manera”.
Comments
Top Podcasts
The Best New Comedy Podcast Right Now – June 2024The Best News Podcast Right Now – June 2024The Best New Business Podcast Right Now – June 2024The Best New Sports Podcast Right Now – June 2024The Best New True Crime Podcast Right Now – June 2024The Best New Joe Rogan Experience Podcast Right Now – June 20The Best New Dan Bongino Show Podcast Right Now – June 20The Best New Mark Levin Podcast – June 2024
In Channel