DiscoverFLASH DIARIO de El Siglo 21 es Hoy
FLASH DIARIO de El Siglo 21 es Hoy
Claim Ownership

FLASH DIARIO de El Siglo 21 es Hoy

Author: @LocutorCo

Subscribed: 24Played: 1,538
Share

Description

Noticias de ciencia y tecnología en Flash Diario, de El Siglo 21 es Hoy.

Este es el pódcast informativo que te mantiene al día con las noticias más relevantes del mundo tecnológico y científico. ¡En 5 minutos!

Noticias de tecnología, noticias de ciencia, noticias de entretenimiento digital. Y también noticias de economía digital. Es un producto informativo de ElSiglo21esHoy.com

Cada episodio de Flash Diario te ofrece una dosis diaria de noticias de actualidad en formato breve y conciso, presentando las noticias más importantes en diferentes ámbitos como la tecnología, la ciencia, la cultura y la sociedad. Con Flash Diario no tienes que preocuparte por perderte ninguna novedad o avance importante en tu día a día.

En 5 minutos (promedio) te ofrecemos la información más relevante de manera clara y precisa, para que puedas estar al tanto de lo que sucede en el mundo sin perder tiempo ni detalles.

Flash Diario es el compañero perfecto para las personas que quieren estar al tanto de las últimas noticias pero no tienen tiempo para seguir programas más largos y detallados.

Con Flash Diario estarás siempre actualizado, informado y preparado para cualquier conversación o situación que se presente. ¡Suscríbete ahora y no te pierdas ni un solo flash informativo!

Suscríbete gratis en:
➜ YouTube: https://bit.ly/FlashDiario
➜ Spotify: https://spoti.fi/3MRBhwH
➜ Apple Podcasts: https://apple.co/3BR7AWe

Conviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.
777 Episodes
Reverse
Disney nombra a Josh D’Amaro como CEO y apuesta por parques, videojuegos e inteligencia artificial para conquistar nuevas generacionesPor Félix Riaño @LocutorCoDisney acaba de tomar una decisión que habla mucho de hacia dónde va la cultura digital del entretenimiento. La junta directiva anunció que Josh D’Amaro, veterano de casi tres décadas y jefe de parques y experiencias, va a asumir como nuevo director ejecutivo el 18 de marzo. El relevo pone fin a una búsqueda larga y observada por toda la industria. Bob Iger, figura central del Disney moderno, va a quedarse como asesor hasta finales de año y luego se va a retirar. La pregunta que flota es sencilla y potente: ¿qué significa que Disney elija a un líder formado en parques, viajes y experiencias físicas, en un momento donde la pantalla, la IA y los videojuegos marcan el ritmo cultural?Cuando Disney crece más viajando que contando historias en pantallaDurante años, Disney fue vista como una fábrica de historias para cine y televisión. Hoy, los números cuentan otra cosa. La división que dirigía Josh D’Amaro genera cerca de 36.000 millones de dólares al año y aporta alrededor del sesenta por ciento de las ganancias. Parques, cruceros, hoteles y productos licenciados pesan más que películas y series. Esa realidad explica por qué la junta votó de forma unánime por D’Amaro.El cambio también llega acompañado de una novedad histórica. Dana Walden va a convertirse en la primera directora creativa global en los 103 años de la empresa. Su tarea va a ser cuidar que cada historia, en cualquier formato, respete el espíritu Disney. Estamos ante un rediseño del poder interno que mezcla experiencia física, narrativa y tecnología.El contexto no es sencillo. El negocio tradicional de la televisión sigue perdiendo fuerza. El streaming compite en un mercado saturado. Plataformas como Netflix, YouTube y TikTok marcan hábitos nuevos, sobre todo entre adolescentes y jóvenes adultos. Disney necesita atraer a esas audiencias sin romper el vínculo con familias que llevan generaciones creciendo con sus personajes.A esto se suma la llegada de la inteligencia artificial. Disney ya anunció un acuerdo con OpenAI para llevar personajes al entorno de Sora, una apuesta que abre debates sobre creatividad, derechos y empleo. El reto para D’Amaro va a ser equilibrar innovación, negocio y valores, en medio de un cambio cultural profundo.La señal que manda Disney es clara. La empresa va a apostar por experiencias completas. Historias que no viven solo en una pantalla, sino que se recorren, se juegan y se comparten. La inversión en un universo conectado con Fortnite va en esa dirección. Parques que dialogan con videojuegos. Series que alimentan atracciones. Tecnología que amplía mundos conocidos.D’Amaro llega con fama de gestor cercano y de entender cómo se construye emoción en el mundo físico. Walden va a cuidar el relato. Iger va a acompañar la transición. Disney entra así en una etapa donde la cultura digital se cruza con el viaje, el juego y la inteligencia artificial. No es un giro pequeño. Es una redefinición de lo que significa entretener en el siglo veintiuno.Si miramos la historia, Disney siempre ha cambiado de piel cuando la cultura lo exigía. En los años treinta apostó por la animación sonora. En los cincuenta llevó sus historias a la televisión. En los noventa construyó imperios de franquicias. En la década pasada compró estudios para acumular propiedad intelectual. Ahora, el énfasis se mueve hacia la experiencia.Los parques recibieron cerca de ciento cuarenta y cinco millones de visitantes en 2024. La flota de cruceros sigue creciendo. Hay un parque en construcción en Abu Dabi, el primero en Medio Oriente. Al mismo tiempo, Disney prepara servicios deportivos directos al consumidor y ajusta su oferta de streaming.Desde la perspectiva de la cultura digital, esto refleja una idea potente: las audiencias ya no quieren solo mirar. Quieren participar, recorrer, personalizar y jugar. Disney está reorganizando su liderazgo para responder a ese deseo.Disney eligió a Josh D’Amaro para liderar una etapa donde experiencia, tecnología y relato van juntos. El cambio dice mucho sobre el futuro del entretenimiento. Cuéntanos qué piensas de esta decisión y acompáñanos cada día siguiendo Flash Diario en Spotify.🔗 BibliografíaThe New York Times – https://www.nytimes.com/2026/02/03/business/disney-damaro-ceo.htmlCNN – https://edition.cnn.com/2026/02/03/media/disney-new-ceo-josh-damaro-bob-igerThe Economist – https://www.economist.com/business/2026/02/03/disneys-new-boss-faces-a-tricky-balancing-actCBS News – https://www.cbsnews.com/boston/news/josh-damaro-disney-ceo-medfield-massachusetts/Conviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 
Sony patenta un control sin botones físicos para PlayStation 6 basado en pantallas táctiles y vibraciónPor Félix Riaño @LocutorCoSony vuelve a mover el tablero con una patente que ha hecho ruido entre jugadores y desarrolladores. El documento describe un control para la futura PlayStation 6 que elimina los botones físicos y los reemplaza por superficies táctiles con respuesta háptica. La idea es que cada persona pueda colocar los botones donde quiera, cambiar su tamaño y adaptar el mando a cada juego o a cada mano. La patente fue registrada en 2023 y aprobada el 27 de enero de 2026, y fue detectada por medios especializados como Video Games Chronicle.La propuesta suena futurista, pero también despierta dudas. Muchos jugadores recuerdan lo difícil que es jugar con controles táctiles en pantallas planas. Otros ven aquí una puerta abierta a la accesibilidad y a nuevas formas de jugar. ¿Está Sony probando el camino del control del futuro o solo protegiendo una idea que nunca veremos en tiendas?La idea emociona, pero muchos jugadores no quieren perder botones reales.La patente se titula “Dispositivos y métodos para un control de videojuegos”. En los dibujos se ve un mando con forma conocida, parecida al DualSense, pero sin cruceta, sin botones frontales y sin palancas físicas. En su lugar, hay dos grandes superficies táctiles configurables.Sony explica que los controles tradicionales tienen una limitación: su diseño fijo. Los botones siempre están en el mismo lugar, con el mismo tamaño, pensados para una mano promedio que no existe en la vida real. Con este nuevo concepto, cada persona podría mover los botones, agrandarlos, reducirlos o incluso eliminarlos según el juego.Además, el sistema detectaría gestos como toques, deslizamientos, presión, pellizcos y hasta la cercanía del dedo antes de tocar la superficie. Todo acompañado por vibraciones y relieves que ayudarían a “sentir” dónde está cada control.Aquí aparece el gran debate. Jugar sin botones físicos cambia por completo la relación entre manos y cerebro. Cuando usas un mando tradicional, no necesitas mirar tus dedos. La memoria muscular hace el trabajo. En una superficie táctil, ese punto de referencia desaparece.Muchos jugadores ya han probado controles táctiles en teléfonos y saben que es fácil fallar un toque en medio de una escena rápida. Sony propone resolver esto con vibración avanzada y superficies que cambian de forma, pero no está claro si eso va a reemplazar la sensación de un botón real.También existe el temor de los toques accidentales. En los años noventa hubo controles táctiles que movían al personaje solo por apoyar el dedo. La patente menciona sensores de presión y calor para diferenciar un descanso de una orden, pero todo sigue en el terreno de la teoría.Este tipo de ideas no aparecen de la nada. Sony lleva más de una década usando superficies táctiles en sus mandos. El panel central del DualSense existe desde 2013. Esta patente parece una expansión extrema de ese concepto.Al mismo tiempo, el mercado ya ofrece soluciones más conservadoras. Controles modulares con botones intercambiables permiten adaptar el mando sin perder el contacto físico. Muchos jugadores prefieren ese camino.La gran pregunta es qué va a hacer Sony con esta patente. Registrar una idea no significa lanzarla al mercado. Puede ser un plan a largo plazo, una opción alternativa para ciertos jugadores o simplemente una forma de bloquear a la competencia. Con PlayStation 6 todavía lejos, hay tiempo para probar, descartar o combinar ideas.La discusión también toca el tema de accesibilidad. Un mando sin botones fijos podría ayudar a personas con movilidad reducida o con manos más pequeñas o más grandes de lo habitual. Ajustar el tamaño y la posición de los controles por perfil de usuario abre posibilidades que hoy no existen en un mando estándar.En este punto, es imposible no pensar en el control adaptativo de Xbox, que apuesta por botones físicos externos y configurables. Sony parece explorar el extremo opuesto: menos piezas, más software y más sensores.También hay un factor generacional. Jugadores jóvenes crecen usando pantallas táctiles desde la infancia. Para ellos, este tipo de interacción puede resultar natural. Para jugadores veteranos, puede sentirse extraña.Todo esto ocurre en un contexto complejo. Los costos de memoria y componentes siguen altos, y la industria del hardware avanza con cautela. Tal vez este mando nunca llegue. Tal vez llegue como opción secundaria. O tal vez termine mezclando botones físicos y pantallas. Hoy, la patente solo nos deja una pista del laboratorio de ideas de Sony.Sony imagina un control sin botones físicos para PlayStation 6, basado en pantallas táctiles y vibración avanzada. La idea abre posibilidades de personalización y accesibilidad, pero también genera dudas entre jugadores tradicionales.Cuéntame qué opinas y sigue Flash Diario en Spotify para más historias de tecnología y videojuegos.BibliografíaGamesRadarT3 ComicBook TechPowerUp Video Games Chronicle Conviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 
IA traza ruta en Marte

IA traza ruta en Marte

2026-02-0212:40

NASA y Anthropic probaron Claude para planear rutas del rover Perseverance en Marte.Por Félix Riaño @LocutorCoEn Marte, manejar un rover no se parece a jugar con un control. La señal tarda varios minutos en ir y volver entre la Tierra y Marte, así que nadie puede “conducir en vivo”. Por eso, el equipo de la NASA prepara cada recorrido con antelación, como si dibujara un camino con migas de pan: una lista de puntos, llamados “waypoints”, que el rover va siguiendo.Ahora pasó algo nuevo: la NASA y el equipo del Laboratorio de Propulsión a Chorro, el JPL, usaron un modelo de inteligencia artificial de Anthropic, llamado Claude, para proponer ese camino antes de enviarlo. Y no fue una prueba de juguete: Perseverance recibió esas instrucciones y avanzó en el cráter Jezero, en dos recorridos hechos el 8 y el 10 de diciembre de 2025.La pregunta que queda flotando es directa: si una IA ayuda a planear rutas en Marte, ¿qué otras tareas lentas y delicadas va a empezar a asumir en misiones espaciales?La IA dibuja el camino, pero humanos revisan cada paso.Vamos a ubicar la escena. Perseverance es un rover de seis ruedas, del tamaño de un carro pequeño, que explora el cráter Jezero desde febrero de 2021. Su meta grande es científica: estudiar rocas, buscar pistas sobre el pasado de Marte y guardar muestras para que, algún día, puedan llegar a la Tierra. Para lograr eso, Perseverance tiene que moverse por terrenos difíciles: piedras sueltas, campos de rocas, ondulaciones de arena, y pendientes que pueden hacer que las ruedas patinen.En la Tierra, el equipo del JPL suele mirar imágenes tomadas desde órbita y también fotos del propio rover. Con eso marcan una ruta segura y escriben comandos que se envían a Marte. En esta prueba, una IA con capacidad de “ver” analizó imágenes de alta resolución de la cámara HiRISE, que va a bordo del orbitador Mars Reconnaissance Orbiter. Además, usó modelos digitales de elevación, que son mapas en 3D del terreno para medir pendientes.Con esa información, la IA propuso un camino continuo, con waypoints. Después, los ingenieros pasaron esas instrucciones por un “gemelo digital”, una simulación del rover, para comprobar más de quinientas mil variables de telemetría. Ahí revisan cosas como posición estimada, riesgos de obstáculos y límites del software de vuelo.Ahora vamos al problema de fondo: planear rutas consume tiempo humano. Y en misiones espaciales, el tiempo es oro, porque cada sol —cada día marciano— tiene ventanas de trabajo limitadas. Si el equipo se queda horas dibujando un trayecto, queda menos espacio para decidir qué roca analizar, qué muestra guardar, o qué experimento hacer.También hay un riesgo que asusta a cualquier ingeniero: que el rover quede atrapado. La historia de Marte ya tiene cicatrices. Spirit, un rover anterior de la NASA, quedó atascado en arena en 2009 y no volvió a moverse. Nadie quiere repetir eso con un vehículo que vale muchísimo dinero y años de trabajo. Por eso, aunque suene tentador delegar a una IA, el listón de seguridad es altísimo.Y aquí aparece otra tensión: una IA puede proponer un camino “lógico” según las imágenes de arriba, pero puede no ver detalles del suelo que sí revelan las cámaras a ras de terreno. En esta prueba, el equipo humano tuvo acceso a imágenes del suelo que la IA no había usado al planear, y por eso ajustó pequeños tramos.Vamos con lo que pasó, paso a paso, para que se entienda sin tecnicismos raros. El 8 de diciembre de 2025, Perseverance hizo un recorrido de doscientos diez metros usando waypoints propuestos por IA. Dos días después, el 10 de diciembre, avanzó doscientos cuarenta y seis metros con el mismo enfoque. Sumados, son cuatrocientos cincuenta y seis metros en esos dos recorridos. En varias notas periodísticas se resume como “alrededor de cuatrocientos metros” porque se habla del tramo de la demostración como un bloque.Pero Perseverance no es un carro que sigue una línea pintada. El rover tiene un sistema llamado AutoNav, que toma decisiones en tiempo real mientras avanza. AutoNav puede ajustar el trayecto para rodear una piedra o evitar una zona fea, incluso si el camino predefinido decía otra cosa. Por eso, cuando la NASA mostró la comparación entre la ruta planeada y la ruta real, se ven diferencias pequeñas: la idea general se mantiene, pero el rover corrige al vuelo.Lo más interesante es el método de trabajo. La IA no “mandó” el rover sola. Propuso la ruta con waypoints y comandos, y el equipo humano revisó, simuló y retocó antes de enviar. Ese es el punto: automatización con supervisión fuerte. Según lo reportado, el equipo estima que este tipo de apoyo puede reducir a la mitad el tiempo de planeación de rutas. Eso no significa menos cuidado. Significa que la parte repetitiva puede tomar menos horas, y el equipo puede dedicar más energía al análisis científico.Vamos a ampliar el contexto para que esta noticia tenga más sentido. Primero, hablemos de por qué HiRISE importa. Esa cámara, en órbita, toma imágenes de gran detalle de la superficie marciana. Con esas fotos, los equipos pueden ver patrones de terreno y detectar zonas peligrosas. Si a eso le sumas modelos digitales de elevación, ya no es solo “ver una foto”: es medir pendientes y entender si el rover va a quedar inclinado o si una rueda puede perder tracción.Segundo, hay un detalle de “lenguaje” que suena raro, pero es útil: la NASA usa formatos específicos para mandar comandos. En este caso se menciona Rover Markup Language, o RML, un lenguaje basado en XML. En internet, los modelos públicos pueden no mostrar ejemplos de ese lenguaje, porque no hay un estándar ampliamente publicado. Pero dentro del entorno de trabajo, con datos y herramientas internas, la IA sí pudo generar instrucciones que luego se verificaron. Ese contraste es una enseñanza: el mismo modelo puede comportarse distinto según el acceso a información, a formatos y a herramientas.Tercero, esto conecta con una tendencia mayor en robótica: modelos visión-lenguaje-acción. En palabras simples: sistemas que ven, describen lo que ven y luego actúan. En la Tierra ya se usan en fábricas y laboratorios. En el espacio, el premio es enorme porque la distancia obliga a que los robots sean más autónomos. Si una sonda está lejos, la latencia hace que esperar instrucciones sea lento. Por eso la NASA habla de un futuro donde estas técnicas ayuden a recorridos de kilómetros, y también a detectar “cosas interesantes” para ciencia, revisando montañas de imágenes.Y un dato extra para aterrizar la escala: Perseverance lleva años recorriendo Marte y ya se acerca a distancias acumuladas que, para un robot en otro planeta, son una hazaña de ingeniería. Esa experiencia de manejo, sumada a AutoNav, crea el escenario perfecto para probar IA en la parte de planeación. No es un salto al vacío. Es un paso medido, con frenos, simulación y revisión humana.La NASA ya probó rutas planeadas por IA para Perseverance en Marte, con revisión humana y simulación antes de enviar comandos. El rover avanzó en diciembre de 2025 y AutoNav ajustó detalles en marcha. Esto puede ahorrar tiempo de planeación y abrir espacio para más ciencia. Cuéntame: ¿te da confianza esta idea? Sigue Flash Diario en Spotify.Bibliografia:The RegisterNASA Jet Propulsion LaboratoryNASAEngadgetAnthropicNASA ScienceNASAWATCHIFLScienceConviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 
Apple compra Q.ai por hasta dos mil millones y apuesta por IA silenciosa para Siri y AirPodsPor Félix Riaño @LocutorCoApple acaba de hacer una de las compras más grandes de su historia reciente y casi nadie lo vio venir. La empresa de la manzana adquirió la startup israelí Q.ai, una compañía que llevaba más de tres años trabajando en silencio, sin mostrar productos y sin hacer ruido mediático. El valor estimado del acuerdo ronda entre mil quinientos y dos mil millones de dólares, una cifra que la convierte en la segunda adquisición más costosa de Apple, solo por detrás de Beats en dos mil catorce.Q.ai se dedica a algo muy particular: enseñar a las máquinas a entendernos sin que tengamos que hablar en voz alta. Su tecnología combina aprendizaje automático, análisis de audio y seguimiento de movimientos faciales. Apple no ha explicado aún dónde va a usar estas ideas, pero las pistas apuntan a Siri, a los AirPods y a los visores de realidad mixta.Una compra tecnológica que abre posibilidades… y también dudas razonables.Q.ai nació en dos mil veintidós, fundada por Aviad Maizels, Yonatan Wexler y el doctor Avi Barliya. Desde el inicio decidieron trabajar en modo sigiloso. Nada de presentaciones públicas, nada de demos abiertas. La idea era desarrollar una tecnología capaz de interpretar la comunicación humana más allá de la voz tradicional.Los inversionistas que apostaron temprano por Q.ai sabían que no era un proyecto sencillo. Fondos como GV, Kleiner Perkins y Spark acompañaron el proceso con paciencia y con dinero suficiente para investigar a fondo. Para ellos, el valor no estaba en lanzar rápido un producto, sino en resolver un problema profundo: cómo lograr que los dispositivos entiendan a las personas en entornos reales, con ruido, con distracciones y con limitaciones sociales.Apple observó ese trabajo durante años. Ahora decide integrar al equipo completo y llevar esa investigación directamente a sus productos, desde audífonos hasta sistemas de inteligencia artificial personal.Hablar con asistentes de voz sigue siendo incómodo para muchas personas. En una casa compartida, en una oficina, en el transporte público o en una cafetería, usar la voz en alto genera incomodidad. Por eso, aunque la inteligencia artificial avanza rápido, la mayoría de usuarios termina escribiendo en pantallas pequeñas.Q.ai se enfocó justo en ese bloqueo cotidiano. Según patentes analizadas por medios tecnológicos, su sistema usa sensores ópticos para detectar micro movimientos en labios, mejillas y mandíbula. Esos movimientos se traducen en palabras o comandos, incluso cuando el sonido es mínimo o casi inexistente.El desafío técnico es enorme. La cara humana se mueve de forma distinta en cada persona, cambia con la luz, con la barba, con gafas o con el cansancio. Lograr precisión en ese contexto exige modelos complejos, entrenamiento largo y mucha prueba y error. A eso se sumó un contexto social duro: cerca del treinta por ciento del equipo fue llamado al servicio militar en Israel durante dos mil veintitrés, lo que interrumpió rutinas y obligó a trabajar bajo presión constante.Apple decide comprar Q.ai justo cuando su estrategia de inteligencia artificial necesita un impulso. Siri ha tenido retrasos y comparaciones incómodas frente a otros asistentes. Integrar una tecnología que permita hablar en susurros, o incluso sin sonido, cambia las reglas del juego.Los analistas creen que esta tecnología puede llegar primero a los AirPods, combinando micrófonos, sensores y algoritmos para entender al usuario en medio del ruido. También se menciona su posible uso en el Vision Pro, donde la interacción silenciosa resulta casi obligatoria.Aviad Maizels ya conoce este camino. En dos mil trece vendió PrimeSense a Apple, una compra que terminó dando vida al Face ID. Hoy repite la historia con una tecnología aún más invisible. Apple, por su parte, apuesta por una idea sencilla: que la computación se adapte a nosotros, y no al revés.El tamaño de la compra dice mucho. Beats costó tres mil millones de dólares y cambió el negocio de audio de Apple. Q.ai, con una cifra cercana a los dos mil millones, apunta a cambiar la forma de interactuar con la inteligencia artificial. No se trata de un modelo de lenguaje nuevo, sino de una nueva interfaz humana.Medios como TechCrunch y CNBC explican que Q.ai también trabaja en mejorar el reconocimiento de voz en ambientes difíciles, como calles concurridas o espacios cerrados con eco. Esto encaja con la evolución de Siri y con la estrategia de Apple Intelligence.También hay debate interno. Parte de la fuerza laboral de Apple ha pedido revisar su relación con Israel. La empresa sabe que integrar este equipo traerá conversaciones complejas, tanto técnicas como éticas. Aun así, la decisión está tomada: Apple prefiere comprar talento y conocimiento antes que empezar desde cero.Apple compra Q.ai y apuesta por una inteligencia artificial que entiende susurros y gestos faciales. La promesa es usar la tecnología sin hablar en voz alta. El impacto puede sentirse en AirPods, Siri y futuros dispositivos. ¿Te gustaría interactuar con IA de forma silenciosa? Cuéntanos qué piensas y sigue Flash Diario en Spotify. BibliografíaCTech – Calcalist Tech9to5MacPhoneArenaCNBCTechCrunchConviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 
Chrome ya navega solo

Chrome ya navega solo

2026-01-2911:33

Google navega por tiGoogle integra Auto Browse en Chrome para delegar tareas web a la inteligencia artificial GeminiPor Félix Riaño @LocutorCoGoogle transforma Chrome en un navegador asistido por IA que ejecuta tareas reales por el usuario.Google está dando un paso que cambia la forma en que usamos internet todos los días. El navegador Chrome, que millones de personas abren cada mañana, ahora puede navegar solo. La nueva función se llama Auto Browse y pone a la inteligencia artificial de Gemini a manejar el navegador como si fuera una persona. Buscar productos, comparar precios, revisar correos antiguos, organizar viajes o preparar formularios ya no depende solo del usuario. Chrome puede hacerlo por encargo.La promesa es clara: menos clics, menos pestañas abiertas y menos tiempo frente a la pantalla. Pero también aparecen preguntas grandes. ¿Hasta dónde conviene delegar el control del navegador? ¿Qué riesgos tiene dejar que una IA actúe en nuestro nombre? Y, sobre todo, ¿quién responde si algo sale mal?Punto de giro narrativoDelegar navegación ahorra tiempo, pero traslada el control a la máquina.Auto Browse es una función integrada en Chrome que permite pedirle a Gemini que complete tareas complejas en la web. No se trata de responder preguntas ni resumir páginas. Aquí la IA hace clics reales, abre pestañas, revisa historiales y avanza paso a paso dentro de sitios web.Google mostró ejemplos muy concretos. Reordenar una chaqueta comprada el año pasado. Buscar un cupón de descuento antes de pagar. Revisar apartamentos guardados y descartar los que no aceptan mascotas. Comparar vuelos en distintas fechas.Todo ocurre dentro de Chrome, usando una nueva barra lateral que mantiene a Gemini visible mientras el usuario sigue navegando. La IA puede trabajar en segundo plano mientras tú haces otra cosa. Esa es la apuesta: convertir al navegador en un asistente activo, no en una simple ventana al internet.El problema aparece cuando esa ayuda empieza a tomar decisiones. Auto Browse puede iniciar sesiones, recorrer tiendas y preparar compras, pero Google deja algo muy claro: el usuario sigue siendo responsable de cada acción. En la versión de prueba hay un aviso directo. “Usa Gemini con cuidado y toma el control si es necesario”.Esto no es solo un detalle legal. Los sistemas de navegación automática pueden ser engañados por sitios maliciosos mediante técnicas conocidas como inyección de instrucciones. Una página puede intentar convencer a la IA de hacer algo distinto a lo que pidió el usuario.Por ahora, Google pone límites. Las acciones sensibles, como pagar con tarjeta o publicar en redes sociales, requieren aprobación humana. La IA se detiene, explica qué hizo y pregunta si puede seguir. Aun así, el debate está abierto. Más automatización implica más superficie de riesgo.Google no está sola en esta carrera. OpenAI lanzó su propio navegador, Atlas, diseñado desde cero alrededor de la inteligencia artificial. Perplexity tiene Comet. Opera y otros navegadores ya integran agentes similares. Chrome responde integrando estas funciones sin obligar al usuario a cambiar de herramienta.Auto Browse está disponible desde ahora en Estados Unidos para quienes pagan los planes AI Pro y AI Ultra de Google. No hay fecha confirmada para otros países ni para usuarios gratuitos. Google suele desplegar estas funciones de forma gradual, así que la expansión es muy probable.La visión de fondo es ambiciosa. Demis Hassabis, director de Google DeepMind, habla de un asistente universal capaz de planear y actuar en nombre del usuario en cualquier dispositivo. Chrome es una pieza central de ese plan. La navegación deja de ser manual y pasa a ser delegada.Este movimiento también tiene un contexto legal y estratégico. Google reforzó Chrome con inteligencia artificial luego de que un juez federal en Estados Unidos rechazara obligar a la empresa a vender el navegador por su dominio en el mercado de búsqueda. El argumento fue que la inteligencia artificial ya está cambiando el panorama competitivo.Además de Auto Browse, Chrome integra Nano Banana, una herramienta de generación y edición de imágenes que funciona directamente en el navegador. También suma la función Personal Intelligence, que conecta datos de Gmail, Calendario, Fotos, YouTube y Búsqueda para dar respuestas personalizadas.Todo funciona con el modelo Gemini 3. Parte del procesamiento ocurre en el dispositivo, pero los datos también viajan a la nube. Google afirma que el usuario puede decidir qué aplicaciones se conectan y cuándo. La personalización es opcional, pero el rumbo es claro: Chrome va camino a ser un asistente que recuerda, anticipa y actúa.Chrome ya no solo muestra páginas. Ahora puede recorrer la web por ti. Auto Browse promete ahorrar tiempo, pero exige confianza y atención. La pregunta es cuánto control estás dispuesto a ceder.Cuéntanos qué opinas y sigue Flash Diario en Spotify para más historias de tecnología explicadas sin rodeos.BibliografíaWiredCNBCABC NewsGizmodoEngadgetTechCrunchCNETConviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 
Aurora Therapeutics quiere escalar terapias Crispr personalizadas para enfermedades raras usando una nueva ruta regulatoriaPor Félix Riaño @LocutorCoEn Estados Unidos, un bebé llamado KJ recibió un tratamiento de edición genética hecho para su caso, y los médicos creen que le salvó la vida. Ese detalle suena a ciencia ficción, pero está pasando ya: un equipo diseñó una terapia personalizada en unos seis meses, para corregir una mutación rara que le estaba causando una acumulación peligrosa de amonio en su cuerpo. KJ salió del hospital en junio.Ahora, la pregunta es otra: ¿esto se puede repetir para más personas, sin que cada paciente tenga que esperar años? Ahí entra Aurora Therapeutics, una nueva empresa cofundada por Jennifer Doudna, una de las científicas detrás de Crispr y ganadora del Nobel en 2020. Aurora quiere convertir estos “tratamientos a la medida” en algo más común para enfermedades raras. ¿El atajo? Una ruta nueva en la FDA, la agencia que autoriza medicamentos en Estados Unidos.)Y aquí viene el giro: si el regulador acepta aprobar terapias con datos de pocas personas, ¿cómo se protege la seguridad cuando el tratamiento es distinto en cada paciente?Suena rápido, pero el riesgo es editar donde no tocaPlanteamiento descriptivo (más de 100 palabras)Vamos por partes y sin tecnicismos raros. Crispr es una familia de herramientas que ayuda a “apuntar” a un lugar específico del material genético para hacer un cambio. En el caso de terapias personalizadas, la idea es sencilla de decir y difícil de ejecutar: si una enfermedad viene de una mutación concreta, se intenta corregir esa mutación concreta.El problema es que muchas enfermedades raras tienen poquísimos pacientes. Entonces, hacer ensayos clínicos grandes, con cientos o miles de personas, se vuelve casi imposible. Y ahí aparece un debate enorme: ¿cómo apruebas un tratamiento cuando no puedes reunir tanta gente para probarlo?Aurora Therapeutics dice que va a apoyarse en una ruta nueva de la FDA llamada “plausible mechanism pathway”, que busca aprobar terapias personalizadas para enfermedades raras y graves cuando un ensayo grande no es realista.Aquí está la tensión: la promesa de “medicina a la carta” choca con la realidad de la seguridad y la evidencia. En medicina, normalmente se exigen estudios con muchos pacientes para saber dos cosas: si funciona, y si es seguro. En enfermedades raras, ese estándar clásico se vuelve una pared: no hay suficientes personas para llenar un estudio grande, y cada mutación puede ser diferente.Aurora quiere empezar por una enfermedad metabólica llamada fenilcetonuria, o PKU, que se detecta con tamizaje al nacer. La PKU puede llevar a niveles tóxicos de fenilalanina en sangre y, sin manejo temprano, afectar el desarrollo del cerebro. En Estados Unidos se habla de unas 13.500 personas viviendo con PKU. El reto extra: hay más de mil mutaciones distintas que pueden causarla. (WIRED)Entonces, aunque el “motor” de la terapia sea el mismo, el “destino” cambia. Y cuando cambias el destino, también cambian los riesgos: el editor podría actuar donde no debe, lo que se conoce como efectos fuera del objetivo. (La apuesta de Aurora se apoya en una idea de plataforma. Es decir: mantener el mismo proceso de diseño y fabricación, y cambiar una pieza que guía al editor hacia la mutación correcta. En el caso de KJ, la guía se diseñó para su mutación exacta, por eso su tratamiento era para él y para nadie más.Con PKU, Aurora quiere hacer “versiones” que cambien esa guía, para cubrir muchas mutaciones sin tener que empezar desde cero con un proceso regulatorio eterno cada vez. Y aquí la nueva ruta de la FDA es el centro del plan: en el artículo de la New England Journal of Medicine, los autores describen que, si un fabricante muestra éxito en varios pacientes consecutivos con terapias personalizadas relacionadas, la FDA podría avanzar hacia una autorización de comercialización del “producto”, usando esa experiencia para acelerar aprobaciones similares basadas en la misma tecnología.¿Y el “cinturón de seguridad” de todo esto? La ciencia está empujando en paralelo herramientas para controlar a Crispr, como anti-CRISPR diseñados con ayuda de inteligencia artificial, que funcionan como apagadores para que el editor no se quede activo más tiempo del debido. Un estudio en Nature Chemical Biology publicado el 26 de enero de 2026 describe el diseño “de novo” de inhibidores potentes para sistemas tipo Cas13, usando enfoques de diseño de proteínas guiados por IA.Vale la pena entender dos historias que se están juntando aquí: regulación y control tecnológico. Por el lado regulatorio, Reuters contó que la FDA presentó esta ruta de “mecanismo plausible” como una forma de permitir acceso más rápido a terapias para enfermedades extremadamente raras y graves, con aprobación basada en datos de pocos pacientes, y con seguimiento posterior usando evidencia del mundo real para confirmar beneficios y vigilar seguridad. Esa última parte es importante, porque no se trata de “aprobar y ya”, se trata de aprobar con condiciones y vigilancia fuerte. (Reuters)Por el lado tecnológico, el tema de los “apagadores” está creciendo porque la medicina no quiere un editor encendido sin control. Phys.org resume el problema así: aunque Crispr puede ser muy preciso, hay riesgos cuando el sistema actúa fuera del objetivo, y encontrar inhibidores naturales ha sido lento; por eso se explora el diseño con IA para crear inhibidores que funcionen como freno.Y aquí hay un matiz que me parece fascinante para contarlo en Flash Diario: la carrera ya no es solo “editar mejor”. También es “editar y poder detenerlo a tiempo”. Si Aurora logra una plataforma repetible y, a la vez, la ciencia logra controles más finos, la conversación cambia: pasamos de casos heroicos aislados, como el de KJ, a un modelo donde más familias podrían tener una opción realista.Pero queda una pregunta enorme para 2026: ¿cómo se diseña un sistema que sea rápido, personalizado y también verificable, cuando cada paciente es un mundo distinto?Aurora Therapeutics, con Jennifer Doudna, quiere llevar la edición genética personalizada a más pacientes con enfermedades raras, usando una ruta nueva de la FDA. La promesa es velocidad y acceso; el reto es seguridad y evidencia cuando cada terapia cambia. Quiero leerte: ¿te emociona o te preocupa este camino? Sigue Flash Diario en Spotify.Bibliografía WiredReutersNew England Journal of MedicineNature Chemical BiologyPhys.orgBioPharma DiveConviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 
Apple renueva AirTag con mayor alcance, sonido más fuerte y soporte directo en Apple WatchPor Félix Riaño @LocutorCoDespués de cinco años sin cambios físicos, Apple pone al día su rastreador más popular. Llega la segunda generación de AirTag, ya disponible desde hoy. Mantiene el precio, mantiene el diseño y mantiene la pila reemplazable. Lo que cambia está por dentro: más alcance real al buscar, un sonido mucho más fácil de oír y nuevas formas de encontrarlo desde el reloj. ¿La pregunta? Si estas mejoras justifican el salto para quien ya tiene uno, o si son la base para competir con lo que viene de otras marcas.Más potencia, mismo formato, y un nuevo competidor que ya viene en camino.El nuevo AirTag usa el chip Ultra Wideband U2, el mismo que ya está en los iPhone y relojes recientes. Ese cambio permite que la búsqueda de precisión llegue hasta un cincuenta por ciento más lejos. En la práctica, levantas el iPhone y recibes señales visuales, vibración y sonido que te guían paso a paso. Por primera vez, esa búsqueda también funciona desde Apple Watch Series 9 en adelante y desde Apple Watch Ultra 2.El altavoz también sube de nivel: suena un cincuenta por ciento más fuerte y se oye desde el doble de distancia. Hay un nuevo tono, pensado para destacar entre ruidos cotidianos. El Bluetooth mejora su alcance general y la batería sigue siendo una CR2032, con más de un año de uso estimado y reemplazo sencillo.El éxito del AirTag también trajo debates serios. En el pasado se usó para rastrear personas sin permiso. Apple respondió con alertas de seguimiento no deseado, avisos en iPhone y Android y sistemas de identificación que cambian con frecuencia. Todo eso sigue presente en esta generación.Además, el ecosistema es exigente: para activar el nuevo AirTag necesitas iPhone o iPad con iOS 26, cuenta de Apple y sesión iniciada en iCloud. Para algunos usuarios, esa barrera es real. A eso se suma un detalle que muchos siguen pidiendo: el AirTag no trae orificio para llavero. Sigues necesitando funda o accesorio. Funciona, pero no es perfecto.Apple mantiene el precio: veintinueve dólares por unidad y noventa y nueve dólares el paquete de cuatro. La compatibilidad con accesorios antiguos sigue intacta. También crece una función muy práctica: Share Item Location, que permite compartir la ubicación de una maleta con aerolíneas. Ya funciona con más de cincuenta aerolíneas y, según datos del sector, ha reducido retrasos y pérdidas de equipaje de forma notable.En sostenibilidad, el AirTag usa plástico reciclado en su carcasa, tierras raras recicladas en los imanes y oro reciclado en las placas. El empaque es de papel. No es una revolución visual, pero sí un ajuste fino que refuerza una categoría que ya es parte del día a día.El mercado se está calentando. Mientras Apple actualiza, otras marcas avanzan. En el código de HyperOS ya aparecieron referencias al Xiaomi Tag, con versiones con y sin UWB y pila CR2032. Samsung y Motorola también empujan sus opciones. Aun así, AirTag sigue dominando gracias a la red Find My, que usa millones de dispositivos cercanos para ubicar objetos perdidos.El nuevo AirTag requiere iOS 26.2.1 para activar todas sus funciones. Esa actualización también llega a iPhone desde 2019. En relojes, la búsqueda de precisión se limita a modelos recientes. El mensaje es claro: Apple afina su rastreador y prepara el terreno para una competencia más dura en 2026.AirTag 2 mantiene precio y forma, pero mejora alcance, sonido y uso desde el reloj. Si viajas o pierdes llaves seguido, vale la pena mirarlo. Cuéntanos tu experiencia y sigue Flash Diario en Spotify.BibliografíaWiredEngadgetGizmodoTechCrunchConviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 
Problemas de spam y retrasos en Gmail durante el fin de semana afectan a millones de usuarios.Por Félix Riaño @LocutorCo Si tu bandeja de entrada de Gmail se volvió un caos este fin de semana, no fuiste la única persona. Durante varias horas, el sistema automático de filtros de Gmail dejó de funcionar como siempre. Correos que debían ir a Promociones, Social o Actualizaciones terminaron mezclados con mensajes personales. Al mismo tiempo, aparecieron avisos diciendo que algunos correos no habían sido revisados por spam o software peligroso. Google reconoció el problema y aseguró que ya está solucionado. La pregunta que queda en el aire es simple: ¿cómo pudo fallar un sistema en el que confiamos todos los días para trabajar, estudiar y comunicarnos?Confiamos en filtros invisibles, hasta que dejan de funcionar.Vamos a poner el contexto desde el inicio. El sábado 24 de enero de 2026, muy temprano en la mañana, usuarios de Gmail en varias regiones empezaron a notar algo extraño. La pestaña Principal se llenó de correos promocionales, boletines y mensajes automáticos. Muchos pensaron que habían tocado alguna opción por error, pero no. El problema estaba del lado de Google.Según el panel oficial de estado de Google Workspace, el fallo comenzó alrededor de las cinco de la mañana, hora del Pacífico. El sistema de clasificación automática empezó a colocar mal los correos y, además, mostró avisos de spam que no correspondían. Gmail, que desde 2013 usa pestañas para ordenar el correo, dejó de separar el ruido de los mensajes importantes. Para millones de personas, la rutina diaria con el correo se rompió de golpe.El problema no fue solo visual. Muchos usuarios vieron un mensaje preocupante en algunos correos: “Gmail no ha analizado este mensaje para detectar spam, remitentes no verificados o software dañino”. Ese aviso generó dudas y nervios. ¿Era solo un error del texto o de verdad el sistema de seguridad no estaba revisando los mensajes?A esto se sumaron retrasos en la entrega de correos. Para quienes dependen del correo para recibir códigos de verificación o mensajes urgentes, la situación fue complicada. En redes sociales, las quejas se multiplicaron. Personas en Estados Unidos y otros países contaron que su bandeja de entrada parecía volver al pasado, a una época sin filtros automáticos. El fallo dejó algo muy claro: dependemos mucho de estos sistemas para mantener el orden y la seguridad digital.La buena noticia llegó el domingo por la mañana. Google marcó el incidente como resuelto y afirmó que los filtros de Gmail ya estaban funcionando de nuevo para todas las personas. En un comunicado, explicó que el problema causó una mala clasificación de correos, avisos de spam incorrectos y demoras en la recepción de mensajes.Google también avisó que algunos avisos podían seguir apareciendo en correos enviados antes de que el fallo se corrigiera. Además, prometió publicar un informe interno explicando qué ocurrió exactamente. Mientras tanto, recomendó a los usuarios tener cuidado con correos de remitentes desconocidos y revisar manualmente las pestañas si algo parecía fuera de lugar. Poco a poco, las bandejas de entrada fueron recuperando el orden habitual.Este incidente sirve para entender cómo funciona Gmail por dentro. El sistema de pestañas usa algoritmos que analizan el contenido, el remitente y el comportamiento del usuario. Con eso decide si un correo va a Principal, Promociones, Social o Spam. Cuando ese sistema falla, el impacto es inmediato y muy visible.No es la primera vez que Gmail enfrenta problemas técnicos, pero sí es uno de los más llamativos por lo cotidiano del servicio. Millones de personas usan Gmail para el trabajo, el estudio y la vida personal. Un fallo de pocas horas basta para generar confusión y desconfianza. También deja una lección práctica: conviene revisar de vez en cuando las carpetas de spam y promociones, y no depender al cien por cien del filtrado automático. La tecnología ayuda mucho, pero no es infalible.Gmail tuvo un fallo que mezcló correos, mostró avisos de spam incorrectos y causó retrasos. Google dice que ya está solucionado y que publicará un informe. Si notaste algo raro, revisa tus carpetas y mantén atención extra por unos días. Cuéntanos tu experiencia y sigue Flash Diario en Spotify.BibliografíaMSNTechCrunch9to5GoogleEngadgetForbesConviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 
Apple prueba un pin con inteligencia artificial que escucha y observa, reabriendo el debate sobre privacidadPor Félix Riaño @LocutorCoApple vuelve a experimentar con un formato inesperado. Según varios reportes, la empresa está trabajando en un pequeño pin con inteligencia artificial. Sería un dispositivo para llevar en la ropa, con micrófonos, cámaras y un altavoz. La idea es que escuche comandos de voz y ayude a interactuar con Siri de una forma más directa.Este movimiento llega en un momento delicado. Apple lleva meses recibiendo críticas por el retraso de su estrategia de inteligencia artificial. Mientras otros gigantes avanzan rápido, Apple va con pasos medidos.La gran pregunta es sencilla y potente: ¿puede Apple lanzar un dispositivo que escucha conversaciones sin dañar su imagen de empresa protectora de la privacidad?Un pin que escucha todo pone en tensión la promesa histórica de privacidad.Los reportes coinciden en varios detalles técnicos. El pin que Apple está probando tendría tres micrófonos, dos cámaras frontales, un altavoz y un botón físico. Su tamaño sería parecido al de un AirTag, un disco pequeño y plano, hecho de aluminio y vidrio.La función principal sería escuchar comandos de voz con precisión. También podría captar imágenes y video, siempre bajo control del usuario. El dispositivo se cargaría de forma inalámbrica, igual que el Apple Watch.La idea es que funcione como una puerta directa a Siri, especialmente a la versión conversacional que Apple está preparando. Esa nueva Siri permitiría charlas más naturales, parecidas a las de ChatGPT o Google Gemini.Aquí aparece el conflicto. Apple ha construido su reputación alrededor de la privacidad. Su director ejecutivo, Tim Cook, repite que proteger los datos personales es una prioridad absoluta.Un pin con micrófonos y cámaras despierta dudas inmediatas. Aunque Apple ya tiene dispositivos que escuchan, como el iPhone o el Apple Watch, estos están claramente visibles y su uso es conocido. Un pin en la ropa cambia la percepción social.Además, la historia reciente no ayuda. El pin de inteligencia artificial de Humane fracasó. Era caro, confuso y generó rechazo. Muchos usuarios y críticos lo vieron como un objeto incómodo y poco útil. Apple conoce ese antecedente y sabe que el margen de error es mínimo.Por ahora, Apple no ha confirmado nada. Todo indica que el proyecto está en una fase temprana y podría cancelarse. Eso es habitual en la empresa. Apple prueba muchas ideas que nunca llegan al mercado.Si el pin avanza, no sería un reemplazo del teléfono. Sería un complemento para acceder a Siri sin sacar el iPhone del bolsillo. También podría servir como laboratorio para futuros productos, como gafas inteligentes.El contexto es clave. Empresas como Meta ya venden gafas con inteligencia artificial. Amazon compró Bee, un brazalete que escucha. OpenAI, junto a Jony Ive, prepara su propio dispositivo. Apple no quiere quedarse atrás, pero tampoco quiere traicionar sus principios.📖El pin estaría pensado para funcionar con la nueva Siri que Apple planea integrar en iOS 27. Esa versión permitiría mantener conversaciones completas, recordar contexto y responder con más naturalidad.A diferencia de otros productos, el pin no tendría todavía un sistema claro para sujetarse a la ropa. Ese detalle es más importante de lo que parece. Humane tuvo problemas serios con sus imanes.También existe la opción de que el pin nunca se venda solo. Podría llegar integrado con otros productos, como futuras gafas inteligentes. Apple suele usar estos prototipos para aprender.Analistas recuerdan que Apple ha patentado ideas muy extrañas que jamás vimos en tiendas. Este pin podría ser una más. Un experimento interno para entender cómo interactuamos con la inteligencia artificial fuera de la pantalla del teléfono.Apple está probando un pin con inteligencia artificial que escucha y observa. El proyecto abre dudas sobre privacidad y utilidad real. Vamos a ver si esta idea avanza o se queda en laboratorio.Cuéntanos qué opinas y sigue Flash Diario en Spotify para más historias de tecnología. BibliografíaThe TelegraphMacRumorsEngadgetGizmodo9to5MacConviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 
Auriculares abiertos tipo clip llegan con Sony y cambian cómo escuchamos música sin aislarnos del entornoPor Félix Riaño @LocutorCoSony acaba de presentar los nuevos LinkBuds Clip, unos auriculares inalámbricos que no se meten dentro del oído. En lugar de eso, se sujetan por detrás de la oreja, dejando el canal auditivo libre. Esta decisión responde a una tendencia que está creciendo rápido: escuchar música, pódcast o llamadas sin quedar aislados del mundo que nos rodea. La idea es sencilla de entender, pero sus efectos pueden cambiar la forma en la que usamos auriculares en la calle, en la oficina o haciendo deporte. ¿Hasta qué punto queremos escuchar lo que pasa afuera mientras usamos el celular?Escuchar más afuera también significa renunciar a parte del sonido.Los nuevos Sony LinkBuds Clip pertenecen a una familia que la marca japonesa ya conoce bien. Sony lleva varios años probando diseños abiertos, como los primeros LinkBuds con forma de dona. Ahora da un paso distinto y adopta un sistema tipo clip, parecido al de otros modelos recientes del mercado.Estos auriculares no sellan el oído. El sonido se dirige hacia la entrada del canal auditivo, mientras el usuario sigue escuchando conversaciones, tráfico o avisos del entorno. Sony apunta a personas que caminan por la ciudad, trabajan en oficina, hacen ejercicio al aire libre o simplemente no se sienten cómodas con auriculares tradicionales.Los LinkBuds Clip ya están disponibles en negro, verde, lavanda y un color llamado “greige”, que mezcla beige y gris. El precio ronda los 230 dólares, unos 210 euros al cambio aproximado.El diseño abierto tiene ventajas claras, pero también plantea dilemas. Al no sellar el oído, estos auriculares no pueden ofrecer graves profundos como los modelos cerrados. Eso afecta la música con bajos fuertes, como el pop electrónico o el hip hop. Sony lo sabe y por eso no presenta estos auriculares como una herramienta para audiófilos.Otro punto delicado es el ajuste. Los auriculares tipo clip no se adaptan igual a todas las orejas. Algunas personas sienten presión o fatiga después de un rato. Para responder a esto, Sony incluye unas almohadillas de ajuste opcionales que se colocan en el conector del auricular y ayudan a repartir mejor el peso.También hay límites técnicos. No tienen cancelación activa de ruido, no incluyen carga inalámbrica y algunas funciones avanzadas de otros modelos de Sony aquí no están presentes. El reto es convencer al público de que el beneficio de escuchar el entorno compensa esas ausencias.Sony intenta equilibrar la experiencia con varias herramientas. Los LinkBuds Clip ofrecen hasta nueve horas de uso continuo, y el estuche añade veintiocho horas más, para un total de treinta y siete horas. Con solo tres minutos de carga, se puede obtener alrededor de una hora de reproducción, algo útil para salidas rápidas.En la app Sony Sound Connect, el usuario va a poder ajustar un ecualizador de diez bandas y elegir entre tres modos de sonido. El modo estándar sirve para música general. El modo Voice Boost está pensado para pódcast y llamadas en ambientes ruidosos. El modo de reducción de fuga de sonido baja el volumen y recorta frecuencias altas para no molestar a otras personas en espacios silenciosos.Para llamadas, Sony combina micrófonos con sensores de conducción ósea y reducción de ruido asistida por inteligencia artificial. La idea es que la voz se escuche estable incluso cuando no hay silencio alrededor.Sony no llega sola a este terreno. El mercado de auriculares abiertos tipo clip está creciendo rápido. Modelos como los Bose Ultra Open, los Shokz OpenDots One, los AeroClip de Soundcore o propuestas recientes de JBL y Huawei muestran que muchas personas buscan alternativas a los auriculares que se meten dentro del oído.Los estudios de mercado citados por medios especializados indican que este segmento es uno de los que más crece en audio personal. La razón es sencilla: comodidad, seguridad en la calle y menos sensación de encierro auditivo.Sony ya había experimentado con esta filosofía desde 2022, pero el LinkBuds Clip es su primer intento con diseño de pinza. No busca reemplazar a los modelos con cancelación de ruido, sino convivir con ellos como una opción distinta para momentos concretos del día.Sony entra con fuerza al mundo de los auriculares abiertos tipo clip con los LinkBuds Clip. Ofrecen comodidad, buena autonomía y llamadas fiables, a cambio de sacrificar aislamiento y graves potentes. Si te interesa escuchar música sin desconectarte del entorno, este formato merece atención. Cuéntanos qué opinas y sigue Flash Diario en Spotify para más historias de tecnología.Bibliografía El Siglo 21 es HoyThe VergeWhat Hi-FiBloombergEngadgetCNETConviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 
Una misteriosa barra de átomos de hierro aparece en la Nebulosa del Anillo y desconcierta a la astronomíaPor Félix Riaño @LocutorCoAstrónomos detectaron una estructura de hierro dentro de la Nebulosa del Anillo que no encaja con ningún modelo conocido  La noticia llega desde uno de los objetos más estudiados del cielo nocturno. La Nebulosa del Anillo, también llamada Messier 57, volvió a sorprender a la ciencia. A unos dos mil seiscientos años luz de la Tierra, dentro de esta nube brillante que marca la muerte de una estrella parecida al Sol, apareció algo inesperado: una barra estrecha y alargada formada solo por átomos de hierro. No hay oxígeno, ni hidrógeno, ni helio siguiendo ese patrón. Solo hierro. La estructura mide unos seis billones de kilómetros de extremo a extremo y cruza el centro de la nebulosa como una cicatriz cósmica. Los investigadores reconocen que no saben cómo llegó ahí. Y esa duda abre preguntas inquietantes sobre el destino de los planetas cuando una estrella muere. ¿Podría la Tierra acabar convertida en una nube parecida dentro de miles de millones de años?Todos miraban la nebulosa, pero nadie había visto esto antesLa Nebulosa del Anillo se formó hace unos cuatro mil años, un suspiro en tiempos cósmicos. Nació cuando una estrella con el doble de la masa del Sol agotó su combustible, se infló hasta convertirse en una gigante roja y expulsó sus capas externas. Ese material creó un anillo luminoso de gas, mientras el núcleo quedó reducido a una enana blanca, más o menos del tamaño de la Tierra. Durante décadas, telescopios de todo tipo la observaron en luz visible, infrarroja y ultravioleta. Aun así, esta barra de hierro pasó desapercibida. La razón está en la tecnología. El hallazgo fue posible gracias a un nuevo instrumento llamado WEAVE, instalado en el Telescopio William Herschel, que permite analizar la luz punto por punto en toda la nebulosa. Al revisar los datos, los científicos vieron una línea brillante donde no debía haber nada especial.El problema no es detectar la barra. El problema es explicarla. En las nebulosas planetarias, los elementos suelen mezclarse y distribuirse en formas redondeadas, arcos o burbujas. Aquí ocurre algo distinto. Solo el hierro aparece concentrado en una franja recta. Ningún otro elemento químico sigue esa geometría ni comparte el mismo movimiento. Las mediciones muestran velocidades de entre veinte y cincuenta kilómetros por segundo, valores que no encajan con chorros de materia ni con explosiones conocidas. Además, para liberar hierro del polvo cósmico se necesitan choques muy rápidos o gas a millones de grados, señales que no se observan en esta zona. Aun así, al comparar con imágenes infrarrojas del telescopio James Webb, los astrónomos notaron menos polvo justo donde hay más hierro. Algo está destruyendo ese polvo, pero nadie sabe cómo. Las teorías actuales no alcanzan para cerrar el caso.Una de las ideas más comentadas es tan inquietante como fascinante. La barra podría ser el rastro de un planeta rocoso que orbitaba esa estrella y fue desintegrado cuando la estrella se expandió. La cantidad de hierro detectada equivale, más o menos, a la masa del hierro que tendría un planeta como la Tierra o Venus. Ese material habría quedado alineado por procesos que aún no entendemos bien. Los propios investigadores advierten que esta explicación es provisional. También existe la posibilidad de que la barra revele una fase desconocida en la forma en que las estrellas expulsan su materia al morir. Para resolverlo, el equipo va a realizar nuevas observaciones con mayor resolución. Si aparecen barras parecidas en otras nebulosas, la historia cambiará. Lo que hoy parece raro podría resultar común en el ciclo de vida de las estrellas.La Nebulosa del Anillo es tan popular que aparece en libros escolares y guías para aficionados. Con binoculares ya se distingue como un pequeño aro difuso en la constelación de Lyra. Que un objeto tan observado escondiera una estructura desconocida durante más de dos siglos dice mucho sobre los límites de nuestras herramientas. WEAVE funciona con cientos de fibras ópticas que recogen luz de cada punto del objeto observado. Antes, los astrónomos usaban rendijas estrechas que podían pasar por alto detalles si no apuntaban justo en el ángulo adecuado. Este avance técnico abre la puerta a revisar viejos conocidos con ojos nuevos. Además, hay unas tres mil nebulosas planetarias catalogadas en nuestra galaxia. Muchas podrían guardar sorpresas similares. Estudiarlas ayuda a entender cómo los elementos creados en las estrellas terminan formando nuevos sistemas planetarios. En otras palabras, historias como esta explican de dónde viene el hierro que llevamos en la sangre.Una barra gigante de hierro apareció en el corazón de la Nebulosa del Anillo y dejó a la ciencia llena de preguntas. Nadie sabe aún cómo se formó ni qué la explica mejor. Este tipo de hallazgos recuerda que el universo sigue guardando secretos. Si te gustan estas historias, acompáñanos y sigue Flash Diario en SpotifyBibliografíaSky News – Ring nebula: mysterious iron bar in spaceReuters – Astronomers spot mysterious iron bar in well-known Ring NebulaSpace.com – Astronomers discover an enormous iron bar in the famous Ring NebulaMonthly Notices of the Royal Astronomical Society – Artículo científicoConviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 
El primer hardware de OpenAIOpenAI prepara su primer dispositivo físico para 2026 junto a Jony Ive, con interacción por voz y sin pantalla Por Félix Riaño @LocutorCoOpenAI, la empresa conocida por crear ChatGPT, ya tiene una fecha clara para mostrar su primer dispositivo físico. La presentación va a llegar en la segunda mitad de 2026.La confirmación vino desde Davos, en Suiza, durante el Foro Económico Mundial. Allí habló Chris Lehane, una de las voces que representa a OpenAI ante gobiernos y medios.Desde hace meses, Sam Altman, director ejecutivo de OpenAI, viene hablando de un nuevo tipo de dispositivo con inteligencia artificial. Un objeto pequeño, sin pantalla y pensado para acompañar a las personas durante el día.El diseño está en manos de Jony Ive, uno de los diseñadores más influyentes del mundo. La gran pregunta es sencilla: ¿qué clase de tecnología puede reemplazar parte de nuestra relación con el celular?Un dispositivo que acompaña, pero no distrae.Para entender esta historia hay que conocer a sus protagonistas.Sam Altman es el director ejecutivo de OpenAI. Es la persona que lidera el desarrollo de ChatGPT y quien ha insistido en que la inteligencia artificial debe sentirse natural y cercana. Desde 2024 habla de crear un dispositivo más tranquilo que un smartphone.Jony Ive es el diseñador que durante años definió cómo lucen y se usan productos como el iPhone, el iPad y el Apple Watch. En 2025, OpenAI compró su empresa de hardware, llamada io.Chris Lehane es el jefe de asuntos globales de OpenAI. Su trabajo es explicar qué hace la empresa y hacia dónde va. En Davos confirmó que el proyecto de hardware sigue avanzando y que se va a mostrar en 2026.La idea central es clara: un dispositivo sin pantalla, controlado por voz, que funcione como un compañero inteligente.Crear un nuevo tipo de dispositivo no es fácil. Ya hubo intentos recientes de productos con inteligencia artificial que no lograron convencer al público. Algunos eran incómodos, otros poco claros en su utilidad.OpenAI quiere evitar esos errores. Por eso habla de simplicidad extrema. Un objeto que se use sin tutoriales largos y sin depender de aplicaciones visibles.También aparece un tema sensible: la privacidad. Un dispositivo que escucha y observa el entorno necesita reglas claras. OpenAI sabe que va a tener que explicar muy bien cómo se usan los datos y cuándo el aparato está activo.Otro desafío es cultural. Las personas ya viven pegadas al celular. Convencerlas de usar otro dispositivo requiere una experiencia realmente cómoda y útil en la vida diaria.Chris Lehane fue cuidadoso con las fechas. OpenAI va a mostrar el dispositivo en la segunda mitad de 2026, pero todavía no promete ventas inmediatas. La llegada al público podría pasar a 2027.El dispositivo, según reportes, sería pequeño y ligero, con un peso estimado entre 10 y 15 gramos. Tendría micrófonos y sensores para entender el entorno. Todo funcionaría por voz y conexión con ChatGPT.OpenAI habría elegido a Foxconn como socio de fabricación, una empresa conocida por producir millones de dispositivos electrónicos. La producción se haría en Vietnam o en Estados Unidos.Sam Altman insiste en que este producto no va a reemplazar el celular. Su objetivo es convertirse en un tercer dispositivo esencial, junto al teléfono y al computador portátil.Dentro de OpenAI, el proyecto tiene nombres internos como “Gumdrop” y “Sweetpea”. Estos nombres se usan mientras el producto final sigue en desarrollo.La empresa también ha reforzado sus modelos de audio, lo que indica que la voz va a ser el centro de la experiencia. Esto encaja con la idea de una inteligencia artificial ambiental, que responde cuando la necesitas y se queda en silencio el resto del tiempo.A largo plazo, OpenAI explora más formatos: gafas inteligentes, altavoces y otros objetos conectados. El dispositivo de 2026 sería el primer paso de una estrategia más amplia.El resultado final todavía es un misterio. Pero el mensaje es claro: OpenAI quiere que la inteligencia artificial salga de la pantalla y se integre en la rutina diaria de forma calmada y sencilla.El proyecto busca una relación más tranquila con la tecnología.Cuéntanos qué piensas y sigue Flash Diario en Spotify.BibliografíaAxios – OpenAI is on track to unveil its first device in 2026Bitcoin.com – OpenAI confirms 2026 rollout windowTweakTown – OpenAI to unveil first deviceOodaloop – OpenAI aims to debut first device in 2026CryptoBriefing – OpenAI hardware launch 2026Conviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 
La venta del chip H200 de Nvidia a China se aprobó, pero todo se detuvo después Antes del freno en aduanas, Estados Unidos y China llevaban años tensando el acceso a chips de inteligencia artificial clave.Por Félix Riaño @LocutorCo. La historia empieza con una aparente luz verde. El gobierno de Estados Unidos dijo que Nvidia podía volver a vender su chip H200 a China. Parecía un alivio para el mercado y para la propia Nvidia. El H200 es uno de sus procesadores de inteligencia artificial más potentes, usado en centros de datos y en el entrenamiento de modelos de IA. China es uno de los grandes compradores del mundo, así que la noticia movió expectativas, pedidos y producción.Pero pocos días después, algo cambió. Los chips no entraron a China. No hubo anuncios públicos ni ruedas de prensa. Hubo silencios, llamadas internas y órdenes verbales en las aduanas. La pregunta es sencilla y a la vez enorme: ¿cómo pasamos de una aprobación oficial a un bloqueo total en cuestión de días?Cuando todo parecía listo, las aduanas chinas dijeron “alto” sin explicaciones clarasVamos por partes y en orden. La semana pasada, la administración de Donald Trump aprobó formalmente que Nvidia reanudara las ventas del chip H200 a China. Esta aprobación llegó con condiciones muy concretas.Primero, cada chip debía pasar por pruebas de terceros para verificar sus especificaciones técnicas. Segundo, China solo podía recibir hasta la mitad de los H200 que Nvidia vendiera a clientes de Estados Unidos. Tercero, Nvidia debía garantizar que había suficientes chips para el mercado estadounidense antes de exportar uno solo.Además, Washington impuso una tasa del veinticinco por ciento que debía pagarse al gobierno de Estados Unidos por cada chip vendido. Todo esto se presentó como un marco de control estricto. Aun así, para Nvidia era una oportunidad. Las empresas chinas ya habían mostrado interés. Algunas estimaciones hablaban de más de un millón de pedidos previstos.Aquí es donde la historia se complica. Aunque Estados Unidos dio su aprobación, en China ocurrió otra cosa. Según reportes publicados por Reuters y el Financial Times, las autoridades aduaneras chinas empezaron a bloquear la entrada de los chips H200.En ciudades como Shenzhen, las empresas de logística recibieron instrucciones claras: no podían tramitar el despacho aduanero de esos chips. Al mismo tiempo, funcionarios del gobierno llamaron a empresas tecnológicas locales y les advirtieron que evitaran comprar el H200, salvo que fuera realmente necesario.No se explicó si era una prohibición formal o una medida temporal. Esa falta de claridad encendió todas las alarmas. Los proveedores de Nvidia, que ya estaban produciendo piezas específicas para el H200, frenaron sus fábricas para evitar pérdidas. Muchas de esas piezas no sirven para otros chips. El riesgo de quedarse con inventarios inútiles era real.Con el bloqueo en marcha, Nvidia quedó en una posición incómoda. La empresa esperaba empezar envíos en marzo y algunos lotes ya habían llegado a Hong Kong. El freno chino tomó a muchos por sorpresa.Dentro de China, el debate es intenso. Varias agencias del gobierno tienen opiniones distintas. Algunas quieren acceso a chips avanzados para investigación y desarrollo. Otras empujan con fuerza el uso de procesadores nacionales para lograr autosuficiencia tecnológica. Esa tensión interna se refleja en decisiones confusas y cambiantes.Mientras tanto, varias empresas chinas cancelaron pedidos del H200. Algunas están buscando alternativas en el mercado gris, incluso chips más avanzados de Nvidia que Estados Unidos prohíbe exportar. Otras están migrando a soluciones locales, aunque rindan menos.Para Nvidia, el mensaje es claro: aunque una venta esté aprobada sobre el papel, la realidad política puede cambiar el tablero en cualquier momento.Este episodio no es un caso aislado. El H200 se ha convertido en un símbolo de la disputa tecnológica entre Estados Unidos y China. Para Washington, permitir su venta con controles busca mantener influencia y recaudar ingresos. Para Pekín, limitar su entrada puede acelerar el desarrollo de chips propios.Empresas chinas como Huawei y otros fabricantes locales están aumentando producción de procesadores de inteligencia artificial. El objetivo es depender menos de tecnología extranjera, aunque el camino sea más lento y costoso.En los mercados, la reacción fue inmediata. Las acciones de Nvidia bajaron levemente tras conocerse el bloqueo. Inversores y analistas miran ahora dos fechas clave: la reapertura de los mercados tras el festivo en Estados Unidos y los resultados financieros de Nvidia a finales de febrero.Todo esto ocurre mientras la cadena global de semiconductores sigue bajo presión. Cada decisión política tiene efectos en fábricas, empleo, precios y desarrollo tecnológico en todo el mundo.Cuéntanos qué opinas y sigue Flash Diario en Spotify para entender cada giro de esta guerra tecnológica.BibliografíaYahoo Finance – Trump Administration Clears Nvidia's H200 AI Chip Sales To ChinaReuters – Nvidia suppliers halt H200 output after China blocks chip shipmentsFinancial Times – Suppliers of parts for Nvidia’s H200 chips pause productionInvesting.com – Nvidia suppliers halt H200 output after China blocks shipmentsNDTV – China blocks Nvidia H200 AI chip imports despite US export clearanceThe Guardian – China blocks Nvidia H200 AI chips cleared for exportConviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 
Samsung despeja la duda sobre Galaxy AISamsung confirma que las funciones básicas de Galaxy AI van a seguir siendo gratuitas sin fecha límite.  Por Félix Riaño @LocutorCo. Samsung puso fin a una de las dudas más repetidas entre los usuarios de teléfonos Galaxy. La marca actualizó silenciosamente sus textos legales y confirmó que las funciones básicas de Galaxy AI van a seguir siendo gratis de forma indefinida. Con este cambio, desaparece la amenaza de una suscripción obligatoria para las herramientas de inteligencia artificial que ya vienen incluidas en los dispositivos compatibles. Gratis para siempre, pero con una frontera clara.  Galaxy AI debutó en dos mil veinticuatro con la serie Galaxy S24. Desde entonces, Samsung mantenía una nota que hablaba de uso gratuito “hasta dos mil veinticinco”, lo que dejaba abierta la posibilidad de cobros futuros.Ese texto fue modificado recientemente y ahora afirma que las funciones básicas de Galaxy AI proporcionadas por Samsung serán gratuitas de manera indefinida, según revelóAndroid Authority.  La preocupación de los usuarios era clara: pagar por funciones que ya usaban a diario. La confusión aumentó porque Samsung mezclaba funciones propias con otras que dependen de servicios externos. De acuerdo con PhoneArena, la nueva política separa lo que será gratis de lo que podría convertirse en un servicio pago más adelante.Samsung confirma que herramientas como Call Assist, Writing Assist, Note Assist, Photo Assist, Audio Eraser, Bixby e Interpreter seguirán siendo gratuitas.Eso sí, funciones nuevas, avanzadas o desarrolladas por terceros podrían tener costo en el futuro, como advierte SamMobile y refuerza PCMag.  Samsung calma a los usuarios actuales: Galaxy AI básico no se va a cobrar. Pero deja claro que la inteligencia artificial premium podría tener precio más adelante.Esta historia fue explicada en formato pódcast en Flash Diario deEl Siglo 21 es Hoy. Conviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 
Estos audífonos de 5.000 euros dicen poder reemplazar un estudio completo de sonido  El creador del MP3 impulsa unos audífonos que simulan hasta 16 altavoces reales en 360 gradosDurante años, el audio profesional tuvo una regla casi intocable: para mezclar bien hacía falta una sala grande, muchos altavoces y una inversión enorme.Esa idea es la que pone en tensión Okeanos Pro, un sistema de audífonos profesionales presentado por Brandenburg Labs que promete recrear un estudio completo de sonido envolvente sin usar un solo altavoz físico.Esta historia se explica en detalle en un pódcast Flash Diario de ElSiglo21esHoy.com, donde se analiza por qué esta tecnología está llamando la atención de ingenieros de sonido, universidades y centros de investigación.El sistema puede simular hasta 16 altavoces virtuales, incluyendo configuraciones avanzadas como 9.1.6, usadas en cine, música inmersiva y realidad virtual. Los altavoces quedan “anclados” en el espacio y reaccionan al movimiento de la cabeza en tiempo real, como si estuvieran realmente en la sala. Todo se controla desde un navegador web, sin mover equipos ni recalibrar un estudio físico.El contexto completo, con explicaciones pensadas para todo público, forma parte de un episodio de Flash Diario deElSiglo21esHoy.com, centrado en tecnología, ciencia y entretenimiento digital.Detrás del proyecto está Karlheinz Brandenburg, uno de los creadores del MP3. El precio ronda los 5.000 euros, una cifra alta para unos audífonos, pero muy inferior a construir un estudio real con dieciséis altavoces, tratamiento acústico y calibración profesional. Okeanos Pro ya se usa en universidades de Europa y Estados Unidos y se presenta como una alternativa real para producir y enseñar audio inmersivo sin depender de una sala dedicada.El análisis completo y las implicaciones de este movimiento están disponibles en Flash Diario, el pódcast diario de ElSiglo21esHoy.com, donde se siguen de cerca estas tecnologías que buscan cambiar industrias enteras.BibliografíaNotebookcheckGearnewsDigital ReviewsEDM.comMusicTechEl Siglo 21 es HoyConviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 
Lo adelantamos en 2024: Apple pone el cerebro de Siri en manos de GoogleApple acaba de confirmar algo que en Flash Diario ya habíamos contado hace año y medio: Google va a estar en la base de la inteligencia artificial del iPhone. Lo que en julio de 2024 era una advertencia, hoy es un acuerdo firmado por varios años.Apple anunció que usará modelos Gemini de Google como base técnica de Siri y de Apple Intelligence a partir de 2026. No se trata de una función más. Se trata de quién sostiene el corazón de la IA del iPhone.En 2024 dijimos que Apple iba a integrar Gemini junto a ChatGPT. En 2026, Gemini pasa a ser la base. Apple acepta apoyo externo en la capa más profunda de su tecnología, algo poco habitual en una empresa obsesionada con el control total de su ecosistema.Según Apple y Google, el procesamiento seguirá ocurriendo en el dispositivo y en la infraestructura privada de Apple, conocida como Private Cloud Compute. Gemini no aparecerá como app ni como asistente visible, pero sí entrenará y reforzará a los modelos que hacen funcionar Siri.Este giro llega tras retrasos, cambios de ejecutivos y una recepción fría de las primeras funciones de Apple Intelligence. Analistas citados por BBC y The Verge coinciden en que Apple necesitaba acelerar, y rápido.Para Google, el premio es enorme: su inteligencia artificial pasa a sostener la experiencia de más de dos mil millones de dispositivos Apple activos en el mundo. Para reguladores, el movimiento levanta cejas: Google ya domina Android, Chrome y la búsqueda web. Ahora también se cuela en el centro del iPhone.Apple insiste en que la privacidad no se toca y que cualquier uso directo de modelos externos requerirá permiso del usuario, como ocurre hoy con ChatGPT. OpenAI seguirá ahí, pero deja de ser la base principal.La verdadera prueba llegará en 2026. Ahí se sabrá si Apple ganó velocidad… o si cedió demasiado control. Lo que sí está claro es esto: esta historia ya la habíamos contado cuando casi nadie hablaba de ella.  BibliografíaFlash Diario ReutersThe VergeBBCThe New York TimesCNBCConviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 
Qué es Anthropic, qué es Claude y por qué ahora entran en medicina y cienciaPor Félix Riaño @LocutorCoAnthropic, una empresa dedicada a crear inteligencia artificial, anunció nuevas funciones para su sistema llamado Claude, pensadas para salud y ciencias de la vida. La novedad se llama Claude for Healthcare y viene acompañada de una ampliación de Claude for Life Sciences. La propuesta busca ayudar a personas, hospitales, aseguradoras y equipos científicos a entender información médica, organizar datos y reducir tareas administrativas, siempre bajo normas estrictas de privacidad en Estados Unidos. El anuncio llega en medio de una carrera entre grandes empresas de IA por entrar al sector salud, uno de los más delicados y regulados.Antes de hablar de medicina, empecemos desde cero.Vamos paso a paso. Primero, ¿qué es Anthropic? Anthropic es una empresa de tecnología fundada en Estados Unidos que se dedica a crear sistemas de inteligencia artificial. Su enfoque público gira alrededor de seguridad, control y uso responsable de la IA. No fabrica teléfonos ni apps de salud. Su producto principal es un sistema de IA conversacional llamado Claude.Ahora, ¿qué es Claude? Claude es un programa de inteligencia artificial que puede leer textos, resumir información, responder preguntas, analizar documentos y ayudar a escribir. Funciona de forma parecida a otros asistentes de IA conocidos, pero Anthropic lo ha orientado mucho a empresas, investigación y trabajos complejos. Hasta ahora, Claude se usaba sobre todo para programación, análisis de documentos largos y apoyo a equipos técnicos.Con este anuncio, Anthropic está diciendo: “vamos a llevar a Claude a la salud”. Eso es importante porque la salud no es un tema cualquiera. Aquí hay datos personales, diagnósticos, tratamientos y decisiones que afectan vidas. Por eso, antes de hablar de funciones, Anthropic insiste en un marco legal: HIPAA, una ley de Estados Unidos que regula cómo se manejan los datos médicos de las personas.Claude for Healthcare es, en esencia, una versión de Claude preparada para trabajar con información médica dentro de esas reglas. No es un médico digital. No receta medicamentos. No hace diagnósticos. Su función es ayudar a entender información y a ordenar procesos.Aquí aparece la gran pregunta: ¿por qué hace falta algo así? Porque el sistema de salud suele ser confuso. Muchas personas reciben resultados de laboratorio que no entienden. Ven números, rangos, siglas y comentarios técnicos. Luego van a una consulta con poco tiempo y muchas dudas.Anthropic quiere que Claude ayude en ese punto. Si una persona decide conectar sus datos, Claude puede resumir su historial médico, explicar resultados con palabras sencillas y ayudar a preparar preguntas para hablar con el médico. La idea no es reemplazar al profesional, sino llegar mejor informado a la conversación.Pero aquí está el riesgo. Cuando una IA habla con tono seguro, algunas personas pueden darle más autoridad de la que tiene. Por eso, Anthropic dice que Claude siempre recuerda sus límites, muestra avisos y dirige a profesionales de salud. Aun así, expertos piden prudencia: cualquier herramienta que maneje datos médicos debe usarse con cuidado y criterio.En el lado de hospitales y aseguradoras, el problema es distinto. Hay una enorme carga administrativa. Autorizaciones previas, apelaciones de seguros, revisión de normas, búsqueda de códigos médicos. Son tareas largas, repetitivas y propensas a errores. Claude entra aquí como asistente administrativo avanzado. Puede buscar información en bases oficiales, cruzar datos y ayudar a redactar documentos. Pero, de nuevo, con revisión humana obligatoria.Ahora sí, veamos qué trae exactamente este anuncio. Para organizaciones de salud en Estados Unidos, Claude puede conectarse a bases de datos oficiales. Por ejemplo, a la base de coberturas de Medicare y Medicaid, que define qué tratamientos están cubiertos y bajo qué condiciones. También puede consultar los códigos médicos que se usan para facturación y gestión de reclamos, y verificar datos de profesionales de la salud.Claude también puede acceder a grandes bibliotecas de investigación médica, con millones de artículos científicos. Esto sirve para resumir estudios y apoyar decisiones informadas, siempre como ayuda, no como autoridad final.En ciencias de la vida, que es el mundo de la investigación médica y farmacéutica, Anthropic amplía el uso de Claude hacia ensayos clínicos. Claude puede trabajar con datos de plataformas usadas en investigación, seguir indicadores como reclutamiento de pacientes y ayudar a redactar borradores de protocolos y documentos regulatorios. Esto apunta a reducir meses de trabajo administrativo y repetitivo.Para personas usuarias, las funciones de salud están en fase beta y solo disponibles en Estados Unidos para planes pagos. Claude puede conectarse a servicios que agrupan historiales médicos y a apps de salud de Apple y Android. Anthropic no anunció fechas para otros países.Para entender el alcance real de esto, conviene separar tres ideas.Primera: esto no es una IA médica autónoma. Claude no “sabe medicina” por sí mismo. Funciona leyendo información existente, organizándola y explicándola mejor. Su valor está en el apoyo, no en la decisión final.Segunda: la privacidad es central en el discurso de Anthropic. La empresa dice que las personas deciden qué datos compartir, pueden retirar permisos y que la información médica no se usa para entrenar modelos. Eso es lo que permite que hospitales y empresas consideren usar estas herramientas.Tercera: el contexto del momento. Este anuncio no ocurre en el vacío. Otras empresas de IA también están lanzando productos para salud. Eso significa más competencia, más atención pública y más presión para hacerlo bien. En salud, la confianza se construye despacio. Un error puede dañar esa confianza muy rápido.La promesa de Anthropic es que Claude ayude a personas y profesionales a entender mejor información compleja, ahorrar tiempo y reducir fricción. El límite está en no cruzar la línea entre ayudar y decidir por otros.Anthropic, una empresa de inteligencia artificial, llevó su sistema Claude al sector salud con nuevas funciones para entender datos médicos y apoyar tareas administrativas y científicas. La propuesta apunta a ordenar información, no a reemplazar médicos. Por ahora, el despliegue se concentra en Estados Unidos. ¿Te sentirías más tranquilo yendo al médico si alguien te ayuda a entender tus exámenes antes? Cuéntamelo y sigue Flash Diario.Anthropic creó Claude, una IA que ahora entra en salud para explicar datos médicos y apoyar trámites, sin reemplazar médicos.Bibliografíahttps://www.anthropic.com/news/healthcare-life-scienceshttps://www.siliconrepublic.com/machines/anthropic-claude-healthcare-tools-ai-openai-data-privacyhttps://thehackernews.com/2026/01/anthropic-launches-claude-ai-for.htmlhttps://www.nbcnews.com/tech/tech-news/anthropic-health-care-rcna252872https://www.bloomberg.com/news/articles/2026-01-11/anthropic-adds-features-for-doctors-patients-in-health-care-pushhttps://siliconangle.com/2026/01/11/anthropic-pushes-healthcare-help-patients-understand-medical-records/https://fortune.com/2026/01/11/anthropic-unveils-claude-for-healthcare-and-expands-life-science-features-partners-with-healthex-to-let-users-connect-medical-records/https://www.fiercehealthcare.com/ai-and-machine-learning/jpm26-anthropic-launches-claude-healthcare-targeting-health-systems-payersConviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 
Materia oscura y neutrinos podrían interactuar y cambiar el modelo actual del universo, según nuevos estudios cosmológicosPor Félix Riaño @LocutorCoHoy vamos a hablar de una idea que puede cambiar cómo entendemos el universo. Científicos están encontrando señales de que la materia oscura, esa sustancia invisible que sostiene a las galaxias, podría estar interactuando con los neutrinos, partículas diminutas que atraviesan todo sin detenerse. Esta posible relación aparece al comparar datos del universo temprano con observaciones actuales. Si se confirma, el modelo cosmológico que usamos desde hace décadas quedaría incompleto. Y cuando eso pasa, la ciencia avanza. La pregunta es sencilla: ¿y si dos de los grandes misterios del cosmos llevan miles de millones de años influyéndose entre sí?El modelo funciona… hasta que el universo no obedece.Empecemos por entender a los protagonistas. Los neutrinos son partículas extremadamente pequeñas, con muy poca masa, que viajan por el universo casi a la velocidad de la luz. Cada segundo, alrededor de cien billones de neutrinos atraviesan tu cuerpo sin que lo notes. No se quedan, no chocan, siguen su camino.La materia oscura es aún más extraña. Representa cerca del ochenta y cinco por ciento de toda la materia del universo. No emite luz, no la refleja y no puede verse con telescopios. Sabemos que existe porque su gravedad mantiene unidas a las galaxias y controla cómo se mueven.Durante mucho tiempo, los científicos asumieron que neutrinos y materia oscura no interactúan entre sí. Esa idea es parte del modelo cosmológico estándar, conocido como Lambda-CDM, que explica cómo nació y evolucionó el universo.El problema aparece cuando se comparan dos momentos del cosmos. Por un lado, el universo joven, observado a través del Fondo Cósmico de Microondas, una especie de eco térmico del Big Bang. Por otro, el universo actual, medido con mapas detallados de galaxias y lentes gravitacionales.Las matemáticas dicen que las estructuras del universo deberían haberse agrupado más con el paso del tiempo. Galaxias más juntas, regiones más densas. Pero cuando se observa el presente, la materia está un poco menos agrupada de lo esperado.Esta diferencia se conoce como la tensión S8. No es un error enorme, pero tampoco desaparece. Lleva años inquietando a los cosmólogos. Un equipo de la Universidad de Sheffield propone una explicación: una interacción muy leve entre neutrinos y materia oscura, suficiente para frenar el crecimiento de las grandes estructuras cósmicas.La idea surge al combinar muchas observaciones distintas. Datos recogidos por la Dark Energy Camera del telescopio Víctor M. Blanco en Chile, mapas de galaxias del Sloan Digital Sky Survey y mediciones del universo temprano realizadas por el Atacama Cosmology Telescope y la misión Planck de la Agencia Espacial Europea.Al unir toda esta información, los investigadores vieron que un modelo donde neutrinos y materia oscura intercambian una pequeña cantidad de impulso encaja mejor con lo que vemos hoy. No estamos ante una prueba definitiva. La señal estadística es prometedora, pero necesita más confirmaciones.Los próximos pasos incluyen observaciones más precisas del Fondo Cósmico de Microondas y estudios detallados de lente gravitacional. Si los resultados se repiten, los físicos van a tener nuevas pistas para buscar la naturaleza real de la materia oscura también en laboratorios terrestres.Este estudio no aparece de la nada. Durante más de dos décadas, científicos han explorado la posibilidad de que la materia oscura interactúe con otras partículas. Existen muchos trabajos previos que analizan cómo estas interacciones afectarían la formación de galaxias, la radiación del Big Bang y la distribución de materia en el cosmos.Los neutrinos ya han obligado antes a revisar los modelos. Durante años se pensó que no tenían masa. Hoy sabemos que sí la tienen, aunque sea mínima. Ese descubrimiento ya llevó a extender el modelo estándar de partículas.En los próximos años, telescopios como el Observatorio Vera Rubin van a medir el universo con un nivel de detalle nunca visto. Esos datos permitirán comprobar si esta interacción es real o si estamos frente a una coincidencia estadística. En ciencia, las ideas sobreviven cuando resisten nuevas mediciones.Nuevas observaciones sugieren que materia oscura y neutrinos podrían interactuar, ayudando a explicar una tensión cosmológica persistente. Si se confirma, el modelo actual del universo necesitará ajustes. Queremos saber qué piensas. Escucha Flash Diario en Spotify y acompáñanos cada día.Científicos detectan señales de interacción entre materia oscura y neutrinos, una pista que podría cambiar cómo entendemos el universo.BibliografíaSpace.com“It would be a fundamental breakthrough: Mysterious dark matter may interact with cosmic ghost particles”Por Robert Lea.Nature Astronomy“A solution to the S8 tension through neutrino–dark matter interactions”New Scientist“Ghostly particles might just break our understanding of the universe”Por Karmela Padavic-Callaghan.Universe Today“A New Study Finds a Subtle Dance Between Dark Matter and Neutrinos”Conviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 
Nasa ordena la primera evacuación médica de la Estación Espacial Internacional por la salud de un astronauta Por Félix Riaño @LocutorCoPor primera vez en más de sesenta y cinco años de vuelos tripulados, NASA ha tomado una decisión inédita: terminar antes de tiempo una misión espacial por una razón médica. La tripulación conocida como Crew-11 va a regresar a la Tierra antes de lo previsto tras detectarse una condición médica seria en uno de sus integrantes. La agencia no ha dado detalles sobre el diagnóstico, por respeto a la privacidad del paciente, pero sí ha sido clara en algo: no se trata de una lesión ni de un problema causado por las actividades espaciales.La decisión se anunció en una rueda de prensa en Washington y marca también la primera evacuación médica en la historia de la Estación Espacial Internacional, que lleva habitada de forma continua desde el año dos mil. ¿Qué tan preparada está una estación espacial para una situación así? ¿Y por qué, si solo una persona está enferma, deben volver los cuatro?  Un problema humano obliga a cambiar toda la agenda científica en órbita Crew-11 llegó a la Estación Espacial Internacional en agosto a bordo de una cápsula **SpaceX Crew Dragon. La misión estaba pensada para durar unos seis meses, con regreso programado para finales de febrero. El equipo está formado por la comandante estadounidense Zena Cardman, el astronauta veterano Mike Fincke, el japonés Kimiya Yui, de la agencia espacial JAXA, y el cosmonauta ruso Oleg Platonov.Todo parecía seguir el plan hasta que Nasa canceló, de forma repentina, una caminata espacial prevista para esta semana. Poco después se confirmó que uno de los astronautas había presentado una condición médica seria. Según explicó el administrador de Nasa, Jared Isaacman, la persona afectada está estable, pero existe un riesgo persistente que hace aconsejable el regreso inmediato.  La Estación Espacial Internacional cuenta con equipos médicos básicos, medicamentos y sistemas de comunicación seguros que permiten a médicos en la Tierra evaluar a los astronautas, casi como una consulta médica por videollamada. El problema aparece cuando el diagnóstico requiere pruebas avanzadas o tratamientos prolongados. En microgravedad, incluso algo que en la Tierra sería manejable puede volverse complejo.El jefe médico de Nasa, James Polk, fue claro: esta es la primera vez que una misión estadounidense se acorta por un tema de salud. Aunque no se trata de una evacuación de emergencia, la agencia ha decidido actuar con máxima precaución. Además, existe una regla clave: nunca puede haber más personas en la estación que asientos disponibles en las cápsulas acopladas, que funcionan como botes salvavidas. Por eso, aunque solo una persona esté enferma, todo el equipo debe regresar junto.  El plan ahora es realizar un regreso controlado en los próximos días. La cápsula Crew Dragon va a amerizar en el océano Pacífico, frente a la costa de California, con equipos médicos esperando para evaluar a los astronautas apenas toquen el agua. Desde allí serán trasladados al Centro Espacial Johnson, en Texas.La estación no va a quedar vacía. Permanecerán a bordo el astronauta estadounidense Chris Williams y dos cosmonautas rusos, quienes mantendrán operativos los sistemas básicos. Eso sí, como explicó el científico espacial Simeon Barber, parte del trabajo experimental tendrá que ponerse en pausa. La prioridad va a ser el mantenimiento y la seguridad, hasta que llegue la siguiente tripulación, prevista para febrero.Este episodio también demuestra algo importante: incluso con décadas de experiencia, el factor humano sigue marcando los límites de la exploración espacial.  Aunque esta es la primera evacuación médica de la Estación Espacial Internacional, no es la primera vez que la salud obliga a cambiar planes en el espacio. En mil novecientos ochenta y cinco, el cosmonauta soviético Vladimir Vasyutin regresó antes de tiempo de una estación espacial por una infección grave. Desde entonces, los protocolos médicos se han refinado mucho.Los astronautas reciben entrenamiento como oficiales médicos y están preparados para actuar ante problemas cardíacos, neurológicos o traumatismos. Aun así, como explicó el exastronauta y médico Tom Marshburn, el espacio permite estabilizar a una persona durante días, pero no mantener tratamientos largos.Este caso también llega en un momento especial: Nasa planea retirar la Estación Espacial Internacional entre dos mil treinta y dos mil treinta y uno. Cada incidente aporta información valiosa para futuras estaciones comerciales y para misiones más largas, como las que buscan llevar personas de nuevo a la Luna y, más adelante, a Marte. Nasa va a traer de vuelta antes de tiempo a la tripulación Crew-11 por una condición médica seria en uno de sus miembros. Es un hecho histórico que muestra hasta dónde llega la precaución en el espacio. Si te interesa entender cómo se cuida la vida humana más allá de la Tierra, sigue Flash Diario en Spotify y comparte este episodio. BibliografíaBBC News: https://www.bbc.co.uk/news/articles/cd9e2y7nkv8oThe Guardian: https://www.theguardian.com/science/2026/jan/08/nasa-spacewalk-medical-issue-astronautSpaceflight Now: https://spaceflightnow.com/2026/01/09/crew-11-to-cut-mission-short-and-return-to-earth-due-to-medical-issue/Conviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 
Gmail activa inteligencia artificial Gemini para resumir correos, proponer tareas y convertir el inbox en asistentePor Félix Riaño @LocutorCoGmail va a cambiar otra vez. Google acaba de presentar una nueva forma de usar el correo electrónico, pensada para personas que reciben muchos mensajes todos los días y sienten que nunca terminan de ponerse al día. La novedad se llama AI Inbox y ya está en pruebas cerradas en Estados Unidos.Esta función lee los correos, entiende el contexto y propone acciones concretas, como responder un mensaje importante, pagar una factura o reagendar una cita. Todo funciona con el modelo de inteligencia artificial Gemini, integrado directamente en Gmail.Google dice que el objetivo es ayudarte a organizarte mejor. Pero también reconoce que la inteligencia artificial puede equivocarse. Entonces la pregunta aparece sola: ¿esto de verdad nos va a ahorrar tiempo o va a crear nuevos problemas?Punto de giro narrativoLa ayuda suena perfecta, pero confiarle tu correo a una IA genera dudas.Gmail nació en dos mil cuatro y hoy lo usan más de tres mil millones de personas en todo el mundo. En estos veinte años, el correo dejó de ser solo mensajes personales y pasó a ser contratos, facturas, tareas del colegio, compras y avisos de bancos.Para responder a ese caos, Google presentó AI Inbox, una nueva pestaña dentro de Gmail. Allí aparecen dos bloques principales. El primero muestra tareas sugeridas, como responder al entrenador de tu hijo o pagar una cuota antes de la fecha límite. El segundo bloque agrupa temas importantes, como compras, finanzas o entregas.Cada sugerencia lleva al correo original, para que puedas revisar el contexto completo y confirmar la información.Google ya intentó algo parecido en dos mil veintitrés, cuando su asistente aún se llamaba Bard. En ese momento, los resúmenes de correo fallaron con frecuencia y entregaron datos incorrectos. Eso dejó una sensación de desconfianza.Hoy, Google reconoce que Gemini puede cometer errores, y Gmail lo advierte claramente dentro de la interfaz. Para un correo casual, un error puede ser menor. Pero en un mensaje de trabajo, una cita médica o un pago, un fallo puede generar consecuencias reales.A esto se suma la preocupación por la privacidad. AI Inbox necesita leer todos los correos. Google asegura que esos datos no se usan para entrenar sus modelos y que el procesamiento ocurre en un entorno aislado. Además, todas estas funciones se pueden desactivar.Google va a desplegar estas funciones por etapas. AI Inbox empezará con un grupo reducido de usuarios de confianza en Estados Unidos. El inbox tradicional va a seguir existiendo y se podrá cambiar entre vistas cuando quieras.Al mismo tiempo, Google va a liberar funciones que antes eran de pago. Help Me Write va a estar disponible gratis y permitirá redactar correos desde una idea breve. Los AI Overviews resumirán hilos largos de correos y aparecerán automáticamente. Las respuestas sugeridas ahora se adaptarán mejor a tu tono personal.Los planes Google AI Pro y Ultra, desde veinte dólares al mes, añadirán corrección avanzada de estilo y búsquedas inteligentes que resumen todo tu correo sobre un tema específico.Este anuncio forma parte de una estrategia más amplia. Google está integrando Gemini en casi todos sus productos. El propio Sundar Pichai explicó que Gmail entra oficialmente en la “era Gemini”.Google quiere que dejes de usar herramientas externas para resumir correos o corregir textos. Todo quiere hacerlo dentro de Gmail.Por ahora, estas funciones solo estarán disponibles en inglés y en Estados Unidos. Google promete expansión a otros países y otros idiomas a lo largo del año. Latinoamérica y Europa tendrán que esperar un poco más para probar este nuevo inbox inteligente.Resumen final y recomendaciónGmail va a usar Gemini para leer correos, resumirlos y proponer tareas. Google promete orden y ahorro de tiempo. La confianza será la clave.Cuéntanos qué opinas y sigue Flash Diario en Spotify.BibliografíaWired – Google adds AI Inbox to GmailGoogle Blog – Gmail enters the Gemini eraCNBC – Google adds Gemini features to GmailThe Independent – Gmail brings more AI to your inboxTechCrunch – Gmail debuts a personalized AI InboxConviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 
loading
Comments (2)

Annakaye Bennett

💚WATCH>>ᗪOᗯᑎᒪOᗩᗪ>>👉https://co.fastmovies.org

Jan 15th
Reply

Annakaye Bennett

🔴WATCH>>ᗪOᗯᑎᒪOᗩᗪ>>👉https://co.fastmovies.org

Jan 15th
Reply
loading