Cómo pedirle bien a la IA (ChatGPT/Gemini): de bonito a comprobable
Description
Convierte a ChatGPT/Gemini en investigador confiable: contexto, rol y criterios para pasar del “resumen bonito” a evidencia verificable.
Aprende ventanas de contexto, multimodalidad y razonamiento en cadena. David Uvalle explica cómo se entrenan los LLMs y Alberto aplica a casos reales (análisis local CDMX/BJ, elección de modelos y cuándo usar Perplexity/ LMArena.ai ).
Claves: prompts efectivos, sesgos y pros/contras con fuentes, evaluación de modelos.
Sigue el podcast y deja tu valoración
Capítulos con timestamps
00:00 – Intro: del “resumen bonito” a la evidencia
00:33 – Problema real: suena seguro… pero no dice nada nuevo
01:14 – Por qué tanta gente quiere “aprender a pedirle bien”
02:58 – Contexto y rol: de “explica X” a “asesor energético en México”
05:10 – ¿Buscan en internet o construyen con lo que saben?
06:13 – Evitar sesgos: pide pros y contras con fuentes
06:28 – Diseña agentes: rol, tono, fuentes y alcance (ej. finanzas BJ)
08:49 – ¿Qué pasa “por dentro” cuando le das un rol?
09:51 – Carga tus datos privados y examina al agente antes de usarlo
11:51 – ¿Por qué cada modelo “piensa” distinto? (datos, alineación, RLHF)
16:45 – Palabras → vectores: atención y predicción de la siguiente palabra
18:53 – ¿Por qué parece que entiende ideas? (atención + alineación)
23:15 – Ventana de contexto: por qué a veces “pierde el hilo”
25:05 – Multimodalidad: texto, imagen, audio, video; cómo se combinan
27:16 – Ejemplo CLIP: pedir por texto o por imagen
28:21 – Razonamiento en cadena: pídelo y revisa el proceso
30:10 – Ojo: muchos modelos “te dan la razón” (alineación)
31:30 – Tip pro: LLM Arena para elegir el modelo correcto
33:14 – Perplexity para investigación y orquestación de modelos
33:54 – Cierre: de usuario pasivo a investigador con IA




