DiscoverLos Dioses de la IARedes Neuronales: del Perceptrón a los Transformers
Redes Neuronales: del Perceptrón a los Transformers

Redes Neuronales: del Perceptrón a los Transformers

Update: 2025-09-02
Share

Description

¿Qué une a un perceptrón de los 50 con ChatGPT en tu celular?
La respuesta: las redes neuronales y su evolución hasta hoy.

En este episodio de Los Dioses de la IA, David Uvalle y Alberto Cruz explican de forma clara y divertida cómo funcionan las redes neuronales y por qué el deep learning revolucionó la tecnología.

Desde los mitos de la prueba de Turing, pasando por el perceptrón y el método de backpropagation, hasta la explosión de AlexNet (2012) y los Transformers (2017) que hoy sostienen modelos como ChatGPT y Grok.

Con ejemplos que aterrizan (gatos, niños aprendiendo, capas que reconocen orejas y bigotes), y con la historia de investigadores clave como Ilia Sutskever o Ashish Vaswani, descubrirás quiénes realmente están moviendo el futuro de la inteligencia artificial… más allá de Elon Musk o Sam Altman.


Si alguna vez dijiste “las redes neuronales son magia”, este capítulo es tu respuesta.
Dale play y comparte. Porque entenderlas no es opcional, es sobrevivir al futuro.

Minuto a minuto — Episodio 8

[00:00:00 ] Intro: la máquina como espejo[00:01:30 ] Stanford: posgrado en IA (DL/ML/RL)[00:02:04 ] ¿Qué se aprende realmente? Proyectos (Pac-Man con IA)[00:03:14 ] ¿Para qué problemas sirve la IA? Criterios[00:05:53 ] Especialización: redes neuronales / deep learning[00:06:28 ] Historia rápida: Turing, perceptrón, clasificación vs regresión[00:11:03 ] Entrenamiento: error, penalización, backpropagation[00:13:43 ] Humanos vs redes: pocos ejemplos vs millones[00:15:08 ] Por qué la IA puede superar a expertos en tareas acotadas[00:20:16 ] Escalar: cómputo, paralelización y meses de entrenamiento[00:22:22 ] 2012: AlexNet y el salto del deep learning[00:28:18 ] 2017: Transformers y el mecanismo de atención[00:30:16 ] A quién seguir para ver el futuro (Sutskever, Vaswani)[00:33:05 ] Industria y talento: Google/OpenAI/Meta, equipos y traspasos[00:34:19 ] Cierre

Comments 
loading
00:00
00:00
1.0x

0.5x

0.8x

1.0x

1.25x

1.5x

2.0x

3.0x

Sleep Timer

Off

End of Episode

5 Minutes

10 Minutes

15 Minutes

30 Minutes

45 Minutes

60 Minutes

120 Minutes

Redes Neuronales: del Perceptrón a los Transformers

Redes Neuronales: del Perceptrón a los Transformers

Básico.fm