Discover
IA al Día
IA al Día
Author: Jaime Figueres, Arturo Pardo y Alejandro Durán
Subscribed: 0Played: 0Subscribe
Share
© Jaime Figueres, Arturo Pardo y Alejandro Durán
Description
IA al Día es el podcast donde exploramos cómo la Era de la Inteligencia está transformando nuestra forma de vivir, trabajar y conectar en el mundo hispanohablante. Cada semana, entrevistamos a expertas y expertos que lideran el desarrollo y la aplicación de la IA en diversos campos, repasamos las noticias más relevantes, y analizamos tanto los beneficios como las amenazas de esta revolución tecnológica.
8 Episodes
Reverse
Este episodio parte de una pregunta incómoda: ¿qué pasa cuando la tecnología avanza más rápido que nuestra capacidad de usarla bien? Las noticias de la semana no hablan de un futuro hipotético, sino de consecuencias concretas y documentadas: empresas que despiden miles de empleados mientras sus propias herramientas de IA generan apagones y código defectuoso, plataformas corporativas hackeadas con técnicas básicas porque los protocolos de seguridad no fueron diseñados para agentes autónomos, y una carrera de adopción que mide cuántas personas usan la IA pero no qué tan bien lo hace.Al mismo tiempo, los laboratorios no están pausando. Esta semana se documentaron los primeros casos públicos y verificables de modelos de IA participando activamente en su propio entrenamiento, mejorando sus propios procesos de mejora, y descubriendo en horas avances que a investigadores humanos les tomaron años. Esa aceleración hace la brecha más urgente, no menos: si las capacidades crecen más rápido de lo que las organizaciones, las leyes y las personas pueden absorberlas, los errores de esta etapa se vuelven estructurales.El episodio cierra explorando quién tiene la responsabilidad de cerrar esa brecha: el mercado, que aprende a base de errores; el Estado, que regula antes de que ocurran los desastres; o las propias empresas de IA, que como Anthropic lanzan veinte productos en tres meses mientras crean un instituto para estudiar sus impactos. Para países pequeños como Costa Rica, la brecha de adopción no es solo un riesgo, sino también una ventana estratégica si se construye capacidad responsable antes de que llegue la presión de adoptarlo todo a la vez.IA al Día es conducido por Arturo Pardo, Alejandro Durán y Jaime Figueres.Temas: 101,450 empleos perdidos con IA como factor citado, la paradoja de Amazon entre adopción forzada y herramientas que fallan, el quiz del NYT donde la IA supera a escritores humanos, agentes de IA que se mejoran a sí mismos mientras sus creadores duermen, el experimento de Karpathy con 700 cambios autónomos en dos días, el paper Hyperagents y el modelo chino MiniMax M2.7, la crisis energética de los centros de datos y el déficit eléctrico de la red PJM, la moratoria de Denver y la apuesta espacial de Elon Musk, el lanzamiento del Anthropic Institute y su estudio de 81,000 entrevistas en 159 países, el hackeo de la plataforma interna de McKinsey, Claude Computer Use, Mistral Forge y la reorganización de Microsoft hacia la superinteligencia.
Impacto de la IA en el mercado laboral, agentes de IA en productividad empresarial, apuestas de capital contra el paradigma LLM, OpenClaw como sistema operativo de agentes personales, adopción tecnológica en el sector público costarricense, talento y ecosistema emprendedor en IA, salud digital y la CCSS ante la IA médica.Microsoft, Google y Meta lanzaron agentes que organizan, ejecutan y coordinan trabajo de forma autónoma, mientras OpenClaw, el software de agentes de código abierto más descargado de la historia, consolidó su adopción masiva, con China liderando su uso por encima de Estados Unidos. Al mismo tiempo, los primeros datos duros sobre el impacto en el empleo llegaron: un estudio de Anthropic y un mapa interactivo de Andrej Karpathy revelaron que los trabajadores jóvenes en empleos expuestos ya están siendo contratados un 14% menos, y el Banco de Inglaterra comenzó a preparar escenarios de choque económico por IA.En el plano del capital y la visión de largo plazo, Yann LeCun apostó mil millones de dólares a que los grandes modelos de lenguaje son un callejón sin salida, lanzando AMI Labs desde París para construir "world models" que entiendan el mundo físico, no solo el texto. Una señal de que el paradigma dominante tiene disidentes poderosos, y de que la geopolítica de la IA se juega también en las decisiones de dónde se instalan los laboratorios y quién los financia.El episodio cerró con una conversación central junto a Adolfo Cruz Luthmer, presidente de CAMTIC, quien puso sobre la mesa la paradoja costarricense: un ecosistema tecnológico reconocido internacionalmente convive con instituciones públicas que normalizan el "no se puede." El caso del OIJ procesando 16 terabytes en doce años no es una anécdota; es un síntoma cultural. La pregunta que quedó abierta es si Costa Rica tiene la agilidad institucional y la voluntad política para pasar, en los próximos doce meses, de ser un mercado receptor de IA a un productor activo de soluciones.
Navegación autónoma de computadoras, renuncia por principios en OpenAI, récords financieros de NVIDIA, agentes de IA autocorrectivos, impacto real en el mercado laboral, Ghost GDP, crisis de contratación juvenil, soberanía energética de los data centers, el Ratepayer Protection Pledge, OpenAI compitiendo con GitHub, ética de la IA en defensa, autonomía letal, transparencia en el razonamiento de los modelos, el índice de fluidez en IA, fallos de privacidad en las gafas de Meta, el fin del coding tradicional, GPT-5.4, Gemini 3.1 Flash-Lite, Nano Banana 2, la brecha de género en la adopción tecnológica, habilidades humanas irreemplazables, el futuro de la educación y políticas públicas para la competitividad nacional.Esta semana, el panorama de la inteligencia artificial se define por una tensión palpable entre el crecimiento financiero explosivo y una creciente ansiedad social. Mientras NVIDIA reporta ingresos históricos de 68 mil millones de dólares y los "hyperscalers" se preparan para invertir 700 mil millones en infraestructura, los datos laborales muestran una realidad dual: no hay un colapso sistémico del empleo, pero sí una alarmante caída del 14% en la contratación de jóvenes en sectores expuestos a la IA. La narrativa de una crisis inminente corre más rápido que los hechos, alimentada por experimentos como los de Andrej Karpathy, donde agentes de IA ya mejoran su propio código de forma autónoma, sugiriendo un horizonte "post-AGI" donde el humano deja de supervisar para simplemente gestionar resultados.El episodio también profundiza en las fracturas éticas y de privacidad que están surgiendo en los laboratorios más grandes del mundo. La renuncia de la directora de robótica de OpenAI tras un contrato con el Pentágono marca un hito en la resistencia interna contra el uso de IA en contextos militares de "autonomía letal". Paralelamente, el reporte sobre las gafas inteligentes de Meta revela una falla crítica de privacidad, con trabajadores en Kenia procesando imágenes íntimas de usuarios sin su consentimiento. Estas señales subrayan que, mientras los modelos se vuelven más transparentes en su razonamiento interno (como el nuevo GPT-5.4), la vigilancia humana sobre su uso y sus implicaciones éticas parece estar disminuyendo peligrosamente.El tema central aborda la brecha de adopción, advirtiendo que el escepticismo tecnológico no está distribuido de forma equitativa. Con una marcada diferencia de género y edad en el uso de herramientas de IA, corremos el riesgo de cimentar una nueva desigualdad salarial y operativa. En un mundo donde el "coding" se considera prácticamente resuelto, la ventaja competitiva se desplaza hacia el juicio contextual, la coordinación política y la capacidad de reunir el contexto que las máquinas no pueden ver. El episodio concluye con un llamado a la acción para países y empresas: la transición no es opcional, y quedarse atrás en la curva de adopción es hoy el riesgo económico más real de todos.
Hardware wearable con IA, identidad digital post-mortem, automatización del trabajo de cuello blanco, rondas de inversión en IA, el conflicto ético entre Anthropic y el Pentágono, soberanía digital, alfabetización en inteligencia artificial. En este episodio recibimos a Agustín Gómez Meléndez, estadístico, especialista en ciencia de datos y director de investigación de la Fundación Costarricense de IA Responsable, para analizar las señales más disruptivas del momento en inteligencia artificial. Desde Apple acelerando el desarrollo de gafas inteligentes y AirPods con cámara, hasta la colaboración entre Jony Ive y OpenAI para crear un altavoz que aprende de quién lo usa, queda claro que la IA está migrando de la pantalla al cuerpo humano.El mercado laboral profesional ocupa el centro de la conversación: con predicciones de que entre el 20% y el 50% de los trabajadores de oficina en EE.UU. podrían verse desplazados en los próximos años, y empresas como Baker McKenzie ya recortando cientos de puestos, Agustín ofrece su lectura desde la academia y la investigación sobre cómo los países latinoamericanos pueden prepararse para esta transición. La pregunta no es si viene el cambio, sino cómo evitar que profundice las desigualdades ya existentes.El episodio también aborda la dimensión geopolítica y ética de la IA a través del tenso pulso entre Anthropic y el Departamento de Defensa de EE.UU., donde Dario Amodei se negó a eliminar salvaguardas que protegen contra vigilancia masiva y armas autónomas, mientras OpenAI aprovechó el vacío firmando con el Pentágono. Este conflicto ilustra una realidad que afecta directamente a países como Costa Rica: la infraestructura de la IA más avanzada del mundo está en manos de un puñado de corporaciones privadas, y navegar esa dependencia requiere estrategia, no improvisación.Cerramos con orientación práctica para líderes organizacionales e individuos que enfrentan esta transición hoy. Agustín comparte sus recomendaciones sobre cómo estructurar la gobernanza de IA dentro de las organizaciones y, sobre todo, qué puede hacer la persona común para mantenerse relevante en un entorno laboral que se está redibujando en tiempo real.
Cumbre global de inteligencia artificial en India, inversiones masivas en infraestructura tecnológica, competencia entre laboratorios de IA, destilación de modelos y robo de capacidades, riesgos emergentes en ciberseguridad, impacto real de la IA en la productividad laboral, baja adopción global de herramientas de IA, lanzamiento de nuevos modelos como Claude Sonnet 4.6, Gemini, Qwen y Grok, discusión sobre el papel de países pequeños en la economía de la inteligencia artificial.El episodio analiza varios acontecimientos recientes en el ecosistema global de inteligencia artificial. La conversación inicia revisando una cumbre internacional realizada en Nueva Delhi donde participaron 88 países y líderes de las principales empresas tecnológicas para discutir el futuro de la gobernanza y la infraestructura de IA. A partir de ese evento se explora cómo el desarrollo de esta tecnología se está convirtiendo en un asunto geopolítico y económico de gran escala, con inversiones multimillonarias y alianzas estratégicas alrededor de semiconductores, centros de datos y capacidades tecnológicas. Posteriormente se examinan varias señales relevantes del momento actual de la inteligencia artificial. Entre ellas se discute el fenómeno de la destilación de modelos, donde algunos laboratorios utilizan las respuestas de modelos más avanzados para entrenar sus propios sistemas, lo que plantea preguntas sobre propiedad intelectual, competencia tecnológica y seguridad. También se aborda el impacto de la IA en la ciberseguridad, tanto por su uso en ataques automatizados como por los riesgos derivados del acceso que tienen los asistentes inteligentes a información sensible dentro de organizaciones. Finalmente la conversación se centra en una pregunta estratégica para países como Costa Rica: qué papel pueden jugar en un mundo donde la inteligencia artificial se convierte en infraestructura crítica. Se analiza la diferencia entre competir en el entrenamiento de grandes modelos, que requiere enormes cantidades de capital y energía, y capturar valor en la capa de uso, aplicaciones sectoriales y adaptación tecnológica. En ese contexto se discuten factores como la energía renovable del país, la conectividad, el talento y las decisiones de política pública necesarias para posicionarse en la economía global de la IA.
Infraestructura espacial para inteligencia artificial, IA y operaciones militares, conflicto ético entre empresas y gobiernos, renuncias en equipos de seguridad de IA, publicidad en asistentes inteligentes, modelos gratuitos sin anuncios, competencia entre laboratorios, descubrimientos científicos hechos por IA, razonamiento avanzado en modelos, agentes matemáticos autónomos, generación de video con IA en China, competencia tecnológica global.El episodio inicia con varias señales que muestran cómo la inteligencia artificial está dejando de ser solamente software para convertirse en infraestructura estratégica. Se analiza la visión de llevar centros de datos y energía al espacio como respuesta a los límites energéticos de la IA en la Tierra, el conflicto entre empresas de IA y el sector defensa, y la dificultad de controlar el uso de modelos cuando se integran en sistemas más grandes. También se discute la competencia entre modelos de negocio, desde la introducción de publicidad en asistentes hasta estrategias basadas en servicios gratuitos sin anuncios.El tema de fondo es la idea de que la inteligencia artificial se está convirtiendo en un eje de poder geopolítico. Se explora la hipótesis de que podríamos estar entrando en una nueva guerra fría tecnológica donde gobiernos y empresas compiten por infraestructura, talento y capacidades estratégicas. A diferencia de la guerra fría original, esta competencia incluye actores privados con poder comparable al de algunos estados y tecnologías con usos civiles y militares indistinguibles.El episodio plantea que la carrera de inteligencia artificial tiene una dinámica difícil de detener porque ningún actor puede desacelerar sin perder ventaja frente a los demás. La discusión gira alrededor de si el desarrollo acelerado de estos sistemas puede ser gobernado efectivamente o si estamos avanzando hacia un escenario donde la inteligencia artificial se convierte en una infraestructura crítica que redefine el equilibrio de poder global.
Consumo energético de la IA, Anuncios del Super Bowl con IA, Reporte Internacional de Seguridad de IA 2026, declaraciones de Dario Amodei sobre la "adolescencia" de la IA, plataforma Rent A Human, lanzamiento de Codex 5.3, lanzamiento de Claude Opus 4.6, contextos de 1 millón de tokens, fusión SpaceX y xAI de Elon Musk, ganancias de Microsoft, "martes negro" del software tradicional, plugin legal de Claude, data centers y energía nuclear, competencia entre laboratorios de IA.El episodio arranca analizando la tendencia viral de avatares animados en ChatGPT, los anuncios con IA en el Super Bowl y el posicionamiento de Anthropic frente a la publicidad, y un reporte internacional de seguridad que alerta sobre capacidades emergentes de los modelos, incluyendo riesgos en ciberseguridad y acceso a información sobre armas. También se discuten las declaraciones de Dario Amodei comparando la IA actual con una adolescencia tecnológica, y los lanzamientos de Codex 5.3 y Claude Opus 4.6 con su ventana de contexto de un millón de tokens.El tema de fondo es la pregunta sobre si tiene sentido la inversión global en IA. Los conductores explican la carrera financiera entre los grandes laboratorios, OpenAI, Anthropic, Google, Meta y xAI, por llegar a cotizar en bolsa o asegurar fondeo, y cómo la infraestructura de data centers requiere inversiones astronómicas. También se analiza el llamado "martes negro", cuando el lanzamiento de plugins especializados de Claude (como el legal) borró cientos de miles de millones en valor bursátil de empresas de software tradicional.A diferencia de revoluciones tecnológicas anteriores, la demanda de procesamiento para IA es prácticamente ilimitada, vehículos autónomos, agentes económicos, wearables, robótica, lo que justifica la inversión sostenida. La competencia se está cerrando a cinco actores globales, y quien llegue primero a la superinteligencia podría convertirse en la entidad corporativa más influyente de la historia.
Redes sociales de agentes autónomos, Financiamiento e infraestructura de OpenAI, Caída de Microsoft en bolsa, "Selfware" o software autónomo, Disminución en contratación de juniors, Automatización de la "economía humana", Tarea vs. Propósito, Contexto en Costa Rica y Latinoamérica.Este episodio explora avances en sistemas agenticos la masiva inversión en centros de datos por parte de gigantes tecnológicos. Se enfatiza que la automatización no solo elimina tareas mecánicas, sino que exige una redefinición del propósito humano en el trabajo y una actualización constante de habilidades. Se advierte sobre la urgencia de innovación en contextos como el costarricense para evitar el rezago ante la rápida evolución de estos modelos. Más que una amenaza, la tecnología actúa como un potenciador de capacidades siempre que exista una adopción estratégica y consciente.




