Redes Neuronales: del Perceptrón a los Transformers
Description
¿Qué une a un perceptrón de los 50 con ChatGPT en tu celular?
La respuesta: las redes neuronales y su evolución hasta hoy.
En este episodio de Los Dioses de la IA, David Uvalle y Alberto Cruz explican de forma clara y divertida cómo funcionan las redes neuronales y por qué el deep learning revolucionó la tecnología.
Desde los mitos de la prueba de Turing, pasando por el perceptrón y el método de backpropagation, hasta la explosión de AlexNet (2012) y los Transformers (2017) que hoy sostienen modelos como ChatGPT y Grok.
Con ejemplos que aterrizan (gatos, niños aprendiendo, capas que reconocen orejas y bigotes), y con la historia de investigadores clave como Ilia Sutskever o Ashish Vaswani, descubrirás quiénes realmente están moviendo el futuro de la inteligencia artificial… más allá de Elon Musk o Sam Altman.
Si alguna vez dijiste “las redes neuronales son magia”, este capítulo es tu respuesta.
Dale play y comparte. Porque entenderlas no es opcional, es sobrevivir al futuro.
Minuto a minuto — Episodio 8
[00:00:00 ] Intro: la máquina como espejo[00:01:30 ] Stanford: posgrado en IA (DL/ML/RL)[00:02:04 ] ¿Qué se aprende realmente? Proyectos (Pac-Man con IA)[00:03:14 ] ¿Para qué problemas sirve la IA? Criterios[00:05:53 ] Especialización: redes neuronales / deep learning[00:06:28 ] Historia rápida: Turing, perceptrón, clasificación vs regresión[00:11:03 ] Entrenamiento: error, penalización, backpropagation[00:13:43 ] Humanos vs redes: pocos ejemplos vs millones[00:15:08 ] Por qué la IA puede superar a expertos en tareas acotadas[00:20:16 ] Escalar: cómputo, paralelización y meses de entrenamiento[00:22:22 ] 2012: AlexNet y el salto del deep learning[00:28:18 ] 2017: Transformers y el mecanismo de atención[00:30:16 ] A quién seguir para ver el futuro (Sutskever, Vaswani)[00:33:05 ] Industria y talento: Google/OpenAI/Meta, equipos y traspasos[00:34:19 ] Cierre