DiscoverFLASH DIARIO de El Siglo 21 es Hoy
FLASH DIARIO de El Siglo 21 es Hoy
Claim Ownership

FLASH DIARIO de El Siglo 21 es Hoy

Author: @LocutorCo

Subscribed: 24Played: 1,475
Share

Description

Noticias de ciencia y tecnología en Flash Diario, de El Siglo 21 es Hoy.

Este es el pódcast informativo que te mantiene al día con las noticias más relevantes del mundo tecnológico y científico. ¡En 5 minutos!

Noticias de tecnología, noticias de ciencia, noticias de entretenimiento digital. Y también noticias de economía digital. Es un producto informativo de ElSiglo21esHoy.com

Cada episodio de Flash Diario te ofrece una dosis diaria de noticias de actualidad en formato breve y conciso, presentando las noticias más importantes en diferentes ámbitos como la tecnología, la ciencia, la cultura y la sociedad. Con Flash Diario no tienes que preocuparte por perderte ninguna novedad o avance importante en tu día a día.

En 5 minutos (promedio) te ofrecemos la información más relevante de manera clara y precisa, para que puedas estar al tanto de lo que sucede en el mundo sin perder tiempo ni detalles.

Flash Diario es el compañero perfecto para las personas que quieren estar al tanto de las últimas noticias pero no tienen tiempo para seguir programas más largos y detallados.

Con Flash Diario estarás siempre actualizado, informado y preparado para cualquier conversación o situación que se presente. ¡Suscríbete ahora y no te pierdas ni un solo flash informativo!

Suscríbete gratis en:
➜ YouTube: https://bit.ly/FlashDiario
➜ Spotify: https://spoti.fi/3MRBhwH
➜ Apple Podcasts: https://apple.co/3BR7AWe

Conviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.
760 Episodes
Reverse
Materia oscura y neutrinos podrían interactuar y cambiar el modelo actual del universo, según nuevos estudios cosmológicosPor Félix Riaño @LocutorCoHoy vamos a hablar de una idea que puede cambiar cómo entendemos el universo. Científicos están encontrando señales de que la materia oscura, esa sustancia invisible que sostiene a las galaxias, podría estar interactuando con los neutrinos, partículas diminutas que atraviesan todo sin detenerse. Esta posible relación aparece al comparar datos del universo temprano con observaciones actuales. Si se confirma, el modelo cosmológico que usamos desde hace décadas quedaría incompleto. Y cuando eso pasa, la ciencia avanza. La pregunta es sencilla: ¿y si dos de los grandes misterios del cosmos llevan miles de millones de años influyéndose entre sí?El modelo funciona… hasta que el universo no obedece.Empecemos por entender a los protagonistas. Los neutrinos son partículas extremadamente pequeñas, con muy poca masa, que viajan por el universo casi a la velocidad de la luz. Cada segundo, alrededor de cien billones de neutrinos atraviesan tu cuerpo sin que lo notes. No se quedan, no chocan, siguen su camino.La materia oscura es aún más extraña. Representa cerca del ochenta y cinco por ciento de toda la materia del universo. No emite luz, no la refleja y no puede verse con telescopios. Sabemos que existe porque su gravedad mantiene unidas a las galaxias y controla cómo se mueven.Durante mucho tiempo, los científicos asumieron que neutrinos y materia oscura no interactúan entre sí. Esa idea es parte del modelo cosmológico estándar, conocido como Lambda-CDM, que explica cómo nació y evolucionó el universo.El problema aparece cuando se comparan dos momentos del cosmos. Por un lado, el universo joven, observado a través del Fondo Cósmico de Microondas, una especie de eco térmico del Big Bang. Por otro, el universo actual, medido con mapas detallados de galaxias y lentes gravitacionales.Las matemáticas dicen que las estructuras del universo deberían haberse agrupado más con el paso del tiempo. Galaxias más juntas, regiones más densas. Pero cuando se observa el presente, la materia está un poco menos agrupada de lo esperado.Esta diferencia se conoce como la tensión S8. No es un error enorme, pero tampoco desaparece. Lleva años inquietando a los cosmólogos. Un equipo de la Universidad de Sheffield propone una explicación: una interacción muy leve entre neutrinos y materia oscura, suficiente para frenar el crecimiento de las grandes estructuras cósmicas.La idea surge al combinar muchas observaciones distintas. Datos recogidos por la Dark Energy Camera del telescopio Víctor M. Blanco en Chile, mapas de galaxias del Sloan Digital Sky Survey y mediciones del universo temprano realizadas por el Atacama Cosmology Telescope y la misión Planck de la Agencia Espacial Europea.Al unir toda esta información, los investigadores vieron que un modelo donde neutrinos y materia oscura intercambian una pequeña cantidad de impulso encaja mejor con lo que vemos hoy. No estamos ante una prueba definitiva. La señal estadística es prometedora, pero necesita más confirmaciones.Los próximos pasos incluyen observaciones más precisas del Fondo Cósmico de Microondas y estudios detallados de lente gravitacional. Si los resultados se repiten, los físicos van a tener nuevas pistas para buscar la naturaleza real de la materia oscura también en laboratorios terrestres.Este estudio no aparece de la nada. Durante más de dos décadas, científicos han explorado la posibilidad de que la materia oscura interactúe con otras partículas. Existen muchos trabajos previos que analizan cómo estas interacciones afectarían la formación de galaxias, la radiación del Big Bang y la distribución de materia en el cosmos.Los neutrinos ya han obligado antes a revisar los modelos. Durante años se pensó que no tenían masa. Hoy sabemos que sí la tienen, aunque sea mínima. Ese descubrimiento ya llevó a extender el modelo estándar de partículas.En los próximos años, telescopios como el Observatorio Vera Rubin van a medir el universo con un nivel de detalle nunca visto. Esos datos permitirán comprobar si esta interacción es real o si estamos frente a una coincidencia estadística. En ciencia, las ideas sobreviven cuando resisten nuevas mediciones.Nuevas observaciones sugieren que materia oscura y neutrinos podrían interactuar, ayudando a explicar una tensión cosmológica persistente. Si se confirma, el modelo actual del universo necesitará ajustes. Queremos saber qué piensas. Escucha Flash Diario en Spotify y acompáñanos cada día.Científicos detectan señales de interacción entre materia oscura y neutrinos, una pista que podría cambiar cómo entendemos el universo.BibliografíaSpace.com“It would be a fundamental breakthrough: Mysterious dark matter may interact with cosmic ghost particles”Por Robert Lea.Nature Astronomy“A solution to the S8 tension through neutrino–dark matter interactions”New Scientist“Ghostly particles might just break our understanding of the universe”Por Karmela Padavic-Callaghan.Universe Today“A New Study Finds a Subtle Dance Between Dark Matter and Neutrinos”Conviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 
Nasa ordena la primera evacuación médica de la Estación Espacial Internacional por la salud de un astronauta Por Félix Riaño @LocutorCoPor primera vez en más de sesenta y cinco años de vuelos tripulados, NASA ha tomado una decisión inédita: terminar antes de tiempo una misión espacial por una razón médica. La tripulación conocida como Crew-11 va a regresar a la Tierra antes de lo previsto tras detectarse una condición médica seria en uno de sus integrantes. La agencia no ha dado detalles sobre el diagnóstico, por respeto a la privacidad del paciente, pero sí ha sido clara en algo: no se trata de una lesión ni de un problema causado por las actividades espaciales.La decisión se anunció en una rueda de prensa en Washington y marca también la primera evacuación médica en la historia de la Estación Espacial Internacional, que lleva habitada de forma continua desde el año dos mil. ¿Qué tan preparada está una estación espacial para una situación así? ¿Y por qué, si solo una persona está enferma, deben volver los cuatro?  Un problema humano obliga a cambiar toda la agenda científica en órbita Crew-11 llegó a la Estación Espacial Internacional en agosto a bordo de una cápsula **SpaceX Crew Dragon. La misión estaba pensada para durar unos seis meses, con regreso programado para finales de febrero. El equipo está formado por la comandante estadounidense Zena Cardman, el astronauta veterano Mike Fincke, el japonés Kimiya Yui, de la agencia espacial JAXA, y el cosmonauta ruso Oleg Platonov.Todo parecía seguir el plan hasta que Nasa canceló, de forma repentina, una caminata espacial prevista para esta semana. Poco después se confirmó que uno de los astronautas había presentado una condición médica seria. Según explicó el administrador de Nasa, Jared Isaacman, la persona afectada está estable, pero existe un riesgo persistente que hace aconsejable el regreso inmediato.  La Estación Espacial Internacional cuenta con equipos médicos básicos, medicamentos y sistemas de comunicación seguros que permiten a médicos en la Tierra evaluar a los astronautas, casi como una consulta médica por videollamada. El problema aparece cuando el diagnóstico requiere pruebas avanzadas o tratamientos prolongados. En microgravedad, incluso algo que en la Tierra sería manejable puede volverse complejo.El jefe médico de Nasa, James Polk, fue claro: esta es la primera vez que una misión estadounidense se acorta por un tema de salud. Aunque no se trata de una evacuación de emergencia, la agencia ha decidido actuar con máxima precaución. Además, existe una regla clave: nunca puede haber más personas en la estación que asientos disponibles en las cápsulas acopladas, que funcionan como botes salvavidas. Por eso, aunque solo una persona esté enferma, todo el equipo debe regresar junto.  El plan ahora es realizar un regreso controlado en los próximos días. La cápsula Crew Dragon va a amerizar en el océano Pacífico, frente a la costa de California, con equipos médicos esperando para evaluar a los astronautas apenas toquen el agua. Desde allí serán trasladados al Centro Espacial Johnson, en Texas.La estación no va a quedar vacía. Permanecerán a bordo el astronauta estadounidense Chris Williams y dos cosmonautas rusos, quienes mantendrán operativos los sistemas básicos. Eso sí, como explicó el científico espacial Simeon Barber, parte del trabajo experimental tendrá que ponerse en pausa. La prioridad va a ser el mantenimiento y la seguridad, hasta que llegue la siguiente tripulación, prevista para febrero.Este episodio también demuestra algo importante: incluso con décadas de experiencia, el factor humano sigue marcando los límites de la exploración espacial.  Aunque esta es la primera evacuación médica de la Estación Espacial Internacional, no es la primera vez que la salud obliga a cambiar planes en el espacio. En mil novecientos ochenta y cinco, el cosmonauta soviético Vladimir Vasyutin regresó antes de tiempo de una estación espacial por una infección grave. Desde entonces, los protocolos médicos se han refinado mucho.Los astronautas reciben entrenamiento como oficiales médicos y están preparados para actuar ante problemas cardíacos, neurológicos o traumatismos. Aun así, como explicó el exastronauta y médico Tom Marshburn, el espacio permite estabilizar a una persona durante días, pero no mantener tratamientos largos.Este caso también llega en un momento especial: Nasa planea retirar la Estación Espacial Internacional entre dos mil treinta y dos mil treinta y uno. Cada incidente aporta información valiosa para futuras estaciones comerciales y para misiones más largas, como las que buscan llevar personas de nuevo a la Luna y, más adelante, a Marte. Nasa va a traer de vuelta antes de tiempo a la tripulación Crew-11 por una condición médica seria en uno de sus miembros. Es un hecho histórico que muestra hasta dónde llega la precaución en el espacio. Si te interesa entender cómo se cuida la vida humana más allá de la Tierra, sigue Flash Diario en Spotify y comparte este episodio. BibliografíaBBC News: https://www.bbc.co.uk/news/articles/cd9e2y7nkv8oThe Guardian: https://www.theguardian.com/science/2026/jan/08/nasa-spacewalk-medical-issue-astronautSpaceflight Now: https://spaceflightnow.com/2026/01/09/crew-11-to-cut-mission-short-and-return-to-earth-due-to-medical-issue/Conviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 
Gmail activa inteligencia artificial Gemini para resumir correos, proponer tareas y convertir el inbox en asistentePor Félix Riaño @LocutorCoGmail va a cambiar otra vez. Google acaba de presentar una nueva forma de usar el correo electrónico, pensada para personas que reciben muchos mensajes todos los días y sienten que nunca terminan de ponerse al día. La novedad se llama AI Inbox y ya está en pruebas cerradas en Estados Unidos.Esta función lee los correos, entiende el contexto y propone acciones concretas, como responder un mensaje importante, pagar una factura o reagendar una cita. Todo funciona con el modelo de inteligencia artificial Gemini, integrado directamente en Gmail.Google dice que el objetivo es ayudarte a organizarte mejor. Pero también reconoce que la inteligencia artificial puede equivocarse. Entonces la pregunta aparece sola: ¿esto de verdad nos va a ahorrar tiempo o va a crear nuevos problemas?Punto de giro narrativoLa ayuda suena perfecta, pero confiarle tu correo a una IA genera dudas.Gmail nació en dos mil cuatro y hoy lo usan más de tres mil millones de personas en todo el mundo. En estos veinte años, el correo dejó de ser solo mensajes personales y pasó a ser contratos, facturas, tareas del colegio, compras y avisos de bancos.Para responder a ese caos, Google presentó AI Inbox, una nueva pestaña dentro de Gmail. Allí aparecen dos bloques principales. El primero muestra tareas sugeridas, como responder al entrenador de tu hijo o pagar una cuota antes de la fecha límite. El segundo bloque agrupa temas importantes, como compras, finanzas o entregas.Cada sugerencia lleva al correo original, para que puedas revisar el contexto completo y confirmar la información.Google ya intentó algo parecido en dos mil veintitrés, cuando su asistente aún se llamaba Bard. En ese momento, los resúmenes de correo fallaron con frecuencia y entregaron datos incorrectos. Eso dejó una sensación de desconfianza.Hoy, Google reconoce que Gemini puede cometer errores, y Gmail lo advierte claramente dentro de la interfaz. Para un correo casual, un error puede ser menor. Pero en un mensaje de trabajo, una cita médica o un pago, un fallo puede generar consecuencias reales.A esto se suma la preocupación por la privacidad. AI Inbox necesita leer todos los correos. Google asegura que esos datos no se usan para entrenar sus modelos y que el procesamiento ocurre en un entorno aislado. Además, todas estas funciones se pueden desactivar.Google va a desplegar estas funciones por etapas. AI Inbox empezará con un grupo reducido de usuarios de confianza en Estados Unidos. El inbox tradicional va a seguir existiendo y se podrá cambiar entre vistas cuando quieras.Al mismo tiempo, Google va a liberar funciones que antes eran de pago. Help Me Write va a estar disponible gratis y permitirá redactar correos desde una idea breve. Los AI Overviews resumirán hilos largos de correos y aparecerán automáticamente. Las respuestas sugeridas ahora se adaptarán mejor a tu tono personal.Los planes Google AI Pro y Ultra, desde veinte dólares al mes, añadirán corrección avanzada de estilo y búsquedas inteligentes que resumen todo tu correo sobre un tema específico.Este anuncio forma parte de una estrategia más amplia. Google está integrando Gemini en casi todos sus productos. El propio Sundar Pichai explicó que Gmail entra oficialmente en la “era Gemini”.Google quiere que dejes de usar herramientas externas para resumir correos o corregir textos. Todo quiere hacerlo dentro de Gmail.Por ahora, estas funciones solo estarán disponibles en inglés y en Estados Unidos. Google promete expansión a otros países y otros idiomas a lo largo del año. Latinoamérica y Europa tendrán que esperar un poco más para probar este nuevo inbox inteligente.Resumen final y recomendaciónGmail va a usar Gemini para leer correos, resumirlos y proponer tareas. Google promete orden y ahorro de tiempo. La confianza será la clave.Cuéntanos qué opinas y sigue Flash Diario en Spotify.BibliografíaWired – Google adds AI Inbox to GmailGoogle Blog – Gmail enters the Gemini eraCNBC – Google adds Gemini features to GmailThe Independent – Gmail brings more AI to your inboxTechCrunch – Gmail debuts a personalized AI InboxConviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 
Peacock se adelanta a todosPeacock será la primera plataforma de streaming en ofrecer Dolby Vision 2 y nuevo audio avanzado antes que Netflix y Apple.  Por Félix Riaño @LocutorCo. En el CES dos mil veintiséis, la feria donde se definen muchas de las tecnologías que vamos a usar en los próximos años, una plataforma dio un paso inesperado. No fue Netflix. No fue Apple TV. Tampoco Disney Plus.La noticia llegó desde Peacock, una plataforma poco conocida fuera de Estados Unidos, pero que acaba de colocarse en el centro de una discusión técnica muy importante.Peacock anunció que será la primera plataforma de streaming del mundo en integrar Dolby Vision 2 y el nuevo sistema de audio Dolby AC-4.Este anuncio importa porque cambia cómo se procesan las imágenes y el sonido dentro del televisor, incluso durante transmisiones en vivo. Y plantea una pregunta clave: ¿qué está haciendo Peacock para llegar primero y qué significa esto para quien se sienta frente a la pantalla?  El avance técnico existe, pero entenderlo cambia por completo la percepción.  Antes de entrar en la tecnología, aclaremos qué es Peacock.Peacock es la plataforma de streaming de NBCUniversal. Allí se concentran películas de Universal, series originales, programas de televisión estadounidense y, sobre todo, una apuesta fuerte por eventos en vivo.Tiene alrededor de cuarenta y un millones de suscriptores. No compite por volumen, compite por tipo de contenido. Peacock transmite deportes como la NFL, la NBA, la Premier League y los Juegos Olímpicos.Eso explica por qué Peacock resulta ideal para probar nuevas tecnologías. El streaming en vivo es uno de los escenarios más exigentes para el video digital. No hay margen para correcciones posteriores.En ese contexto, Peacock anunció que va a emitir contenido usando Dolby Vision 2 y Dolby Atmos, apoyados por el nuevo audio Dolby AC-4, tanto en eventos en directo como en contenido bajo demanda.  Ahora vamos a la parte técnica, paso a paso. HDR significa Alto Rango Dinámico. En pocas palabras, es la capacidad de una imagen para mostrar detalles en zonas muy oscuras y muy iluminadas al mismo tiempo.En HDR básico, el televisor recibe una señal y aplica ajustes generales. En HDR dinámico, como Dolby Vision, el contenido incluye metadatos.Los metadatos son instrucciones. No son la imagen en sí, son datos que le dicen al televisor cómo debe mostrar esa imagen.Dolby Vision original trabaja con metadatos escena por escena. Eso ya era un salto importante.Dolby Vision 2 va más lejos. Funciona fotograma por fotograma. Cada imagen tiene sus propias instrucciones: cuánto brillo usar, cómo tratar los colores, cómo manejar el contraste y cómo procesar el movimiento.El televisor ya no adivina. Recibe órdenes muy precisas y las adapta a sus capacidades reales.Aquí ocurre algo muy interesante. Dolby Vision 2 no intenta convertir un televisor barato en uno caro. Lo que hace es conocer sus límites y trabajar dentro de ellos.Dolby prueba televisores en sus laboratorios y crea perfiles técnicos. Con esos perfiles, el sistema sabe cuánta luz puede emitir la pantalla, qué tan profundos son sus negros y cómo responde su procesador.Con esa información, los metadatos se traducen en decisiones precisas para cada fotograma.Eso permite mejorar detalles en sombras, evitar colores exagerados y reducir problemas de movimiento.En versiones avanzadas, incluso permite a los creadores decidir cuánta interpolación de movimiento se aplica en cada momento de una película o serie.Aquí entra también el audio. Dolby AC-4 reemplaza al códec actual usado en streaming. Es más eficiente y está pensado para manejar sonido envolvente moderno.Permite, por ejemplo, priorizar las voces desde la mezcla original, sin que el televisor tenga que procesarlas después.Este nivel de procesamiento no es gratuito. Exige chips con bloques dedicados para analizar y aplicar metadatos en tiempo real.En este momento, uno de los procesadores compatibles es el Pentonic 800 de MediaTek.Por eso no todos los fabricantes pueden adoptar Dolby Vision 2 de inmediato.Algunas marcas ya confirmaron soporte en modelos dos mil veintiséis, como Hisense, TCL y Philips.Otras tomaron caminos distintos. Samsung impulsa HDR10 Plus Advanced. LG ya confirmó que sus modelos de este año no lo soportarán.En medio de esa fragmentación, Peacock tomó una decisión clara: ser la plataforma donde esta tecnología se usa primero y se pone a prueba con contenido real.Dolby Vision 2 cambia cómo el televisor toma decisiones, usando metadatos fotograma por fotograma y audio más avanzado. Peacock llega primero porque apostó por el riesgo técnico.Cuéntanos si esto cambiaría tu forma de elegir televisor y sigue Flash Diario en Spotify.  Dolby Vision 2 usa metadatos fotograma por fotograma para que el televisor decida mejor cómo mostrar cada imagen.🔗 BibliografíaWhat Hi-FiWhat Hi-FiTechRadarDeadlineTom’s GuideSi quieres, el siguiente nivel es bajar todavía más al detalle, explicando cómo el televisor transforma esos metadatos en voltajes, zonas de retroiluminación y decisiones de píxel.Conviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 
LEGO presentó en CES 2026 un ladrillo inteligente con sensores, sonido y luz, sin pantallas ni conexión a internetPor @LocutorCo Lead periodístico 🔍Todo comenzó con un video breve y desconcertante publicado por LEGO en redes sociales. Se veían manos de minifiguras, luces dentro de un bloque transparente y voces de niños diciendo que parecía estar hablando. Horas después, en el CES 2026, la marca explicó el misterio: se trata del Smart Brick, un ladrillo del tamaño exacto de un bloque 2x4 tradicional, pero con tecnología en su interior. Este anuncio marca una nueva etapa para el juego físico, con sonidos, luces y reacciones automáticas, sin pantallas y sin internet.)La tecnología aparece, pero el juego sigue siendo físico.Durante décadas, los bloques LEGO han sido piezas pasivas. No reaccionan, no emiten sonidos y no cambian su comportamiento. Todo depende de la imaginación del jugador. Eso es precisamente lo que LEGO no quiso perder.El Smart Brick nace como respuesta a una pregunta muy concreta: cómo añadir tecnología sin convertir el juego en una experiencia digital con pantallas. La solución fue esconder un pequeño computador dentro de un ladrillo clásico.Este bloque incorpora luces LED, un altavoz, sensores de movimiento, sensores de luz y un chip diseñado por la propia LEGO. El ladrillo detecta si se mueve, si se inclina, si se voltea o si se acerca a otras piezas especiales. Cuando eso ocurre, responde con sonidos y luces acordes a la acción que está sucediendo durante el juego.LEGO llevaba tiempo recibiendo críticas por enfocarse demasiado en sets pensados para exhibirse, dirigidos a adultos, con poco juego real. Al mismo tiempo, muchas propuestas tecnológicas para niños terminaron dependiendo de pantallas, aplicaciones y conexión constante a internet.Ese enfoque suele reducir el juego libre y genera preocupaciones en padres y educadores. LEGO quería evitar ese camino. El reto era enorme: crear tecnología que desapareciera en el uso, que no exigiera aprendizaje previo y que funcionara apenas el niño tocara el bloque.Además, debía ser segura. El sistema no podía estar conectado a internet, debía resistir golpes, caídas y años guardado en una caja. Incluso después de mucho tiempo sin uso, el ladrillo tenía que seguir funcionando igual. Lograr esa simplicidad fue uno de los mayores desafíos del proyecto.La respuesta fue un sistema completo llamado Smart Play. El Smart Brick se comunica con Smart Tags, pequeñas piezas planas con códigos integrados, y con Smart Minifigures, figuras que también contienen tecnología.Cuando estos elementos se combinan, el sistema entiende qué personaje está presente y qué acción ocurre. Un auto puede cambiar el sonido del motor al volcarse. Un personaje puede reaccionar si recibe un impacto. Dos coches pueden competir y un trofeo detectar cuál cruza primero la meta.Los primeros sets llegarán el 1 de marzo con Star Wars. El X-Wing de Luke Skywalker incluirá dos minifiguras inteligentes y varios Smart Tags, con un precio cercano a 100 euros. El TIE Fighter de Darth Vader rondará los 70 euros. Todo se carga de forma inalámbrica y no requiere configuración inicial.El Smart Brick utiliza un chip propio más pequeño que uno de los puntos de encaje LEGO. Incorpora sensores inerciales para detectar giros e inclinaciones, además de luces y sonido integrados.Los bloques pueden comunicarse entre sí mediante una red local basada en Bluetooth, llamada BrickNet, que les permite reconocer la posición y orientación de otros ladrillos cercanos. LEGO asegura que esta red está cifrada y que no tiene acceso directo a internet.Otro punto importante es la reutilización. Un mismo Smart Brick puede pasar de un set de Star Wars a una construcción libre, cambiando su comportamiento según los Smart Tags cercanos. Esto busca fomentar el juego prolongado y compartido entre niños y adultos.LEGO insiste en que esta tecnología no reemplaza al ladrillo clásico. La idea es mantener el juego físico en el centro y hacer que los bloques reaccionen al movimiento real.LEGO presentó un ladrillo inteligente que responde al juego físico con luces y sonidos, sin pantallas ni internet. El Smart Brick abre una nueva etapa para el juego tradicional. Queremos saber qué piensas de esta idea. Déjanos tu opinión y sigue Flash Diario en Spotify para más historias de tecnología y ciencia🔗 BibliografíaThe Brick FanThe VergeEuronews NextWiredMashableTechCrunchConviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 
Operación en CaracasCómo la tecnología permitió la captura de Nicolás Maduro en VenezuelaPor Félix Riaño @LocutorCoEn Venezuela, en su capital Caracas, ocurrió un hecho que ya es parte de la historia reciente: Estados Unidos capturó a Nicolás Maduro y a su esposa Cilia Flores durante una operación militar llamada Operation Absolute Resolve.La noticia fue contada desde el terreno por BBC, medio generalista de servicio público del Reino Unido, y ampliada por Reuters, una agencia internacional especializada en verificación y fuentes oficiales.En este episodio especial de Flash Diario vamos a hacer algo concreto y claro: primero entender qué pasó y luego explicar cómo la tecnología hizo posible esta operación, paso a paso, con lenguaje simple y sin suposiciones.Punto de giro narrativo (10 palabras)La clave no fue la fuerza, fue la infraestructura tecnológicaVamos con el relato completo, en orden, como ocurrió.Según la BBC, la orden final para iniciar la operación se dio a las 22:46 hora del este de Estados Unidos, lo que corresponde a 03:46 GMT. En Caracas todavía era plena madrugada. El objetivo era operar con oscuridad y sorpresa.Alrededor de las 02:00 hora local, habitantes de Caracas escucharon explosiones y vieron aeronaves sobrevolando la ciudad. Testigos hablaron de ventanas vibrando, ruidos intensos y confusión en grupos de mensajería. En varias zonas se registraron cortes de electricidad.Mientras eso ocurría, comenzaron a circular videos grabados por ciudadanos. La BBC explicó que su equipo de verificación analizó ese material y pudo ubicar puntos específicos alcanzados, entre ellos la base aérea Generalísimo Francisco de Miranda, conocida como La Carlota.Reuters añadió el contexto clave: la operación no fue improvisada. Hubo meses de preparación, ensayos con una réplica a tamaño real del lugar donde se encontraba el objetivo y una espera deliberada por mejores condiciones climáticas. Reuters también confirmó un dato central: participaron más de 150 aeronaves, que despegaron desde 20 bases distintas en el hemisferio occidental.Ese es el hecho noticioso. Ahora vamos a entenderlo desde la tecnología, sin repetir, siguiendo las capas que lo hicieron posible.Para comprender esta operación hay que pensarla como un sistema de cinco capas tecnológicas, todas necesarias y conectadas entre sí.Primera capa: vigilancia y datos.Antes de mover un solo helicóptero, el punto crítico es saber dónde está la persona objetivo y en qué momento. Reuters reporta que hubo trabajo de inteligencia durante meses, con información lo bastante precisa para ubicar a Nicolás Maduro en tiempo real. Esto se conoce como análisis de patrones de vida: observar rutinas, horarios y movimientos hasta reducir la incertidumbre. Sin estos datos, nada más funciona.Segunda capa: coordinación aérea y navegación.Mover más de 150 aeronaves desde 20 bases exige sincronización exacta. No se trata solo de despegar, sino de coordinar rutas, horarios, reabastecimiento, identificación de aeronaves amigas y ventanas seguras de vuelo. Aquí el clima es una variable técnica, no un detalle: Reuters explica que se retrasó la operación por nubosidad, porque volar bajo y entrar de noche requiere visibilidad controlada y sensores funcionando al máximo.Tercera capa: drones militares y sensores.Aquí es importante aclarar algo para no confundirnos. Los drones usados en este tipo de operaciones no son drones recreativos como los que se usan para turismo o fotografía. Son plataformas militares de inteligencia, vigilancia y reconocimiento, diseñadas para permanecer largas horas en el aire, detectar movimientos, captar señales y dar información continua a los centros de mando.Medios especializados en defensa, como The War Zone y Defence Blog, informaron sobre indicios del uso de drones de vigilancia furtiva en el contexto de esta operación. No se trata de “grabar un video”, sino de ofrecer una visión constante del entorno y apoyar decisiones en tiempo real.Cuarta capa: guerra electrónica y control de señales.Aquí ocurre la parte invisible. Air & Space Forces, un medio especializado en aviación militar, explicó que el poder aéreo tuvo como objetivo proteger helicópteros y fuerzas en tierra. Esto incluye interferir radares y comunicaciones del lado contrario.La guerra electrónica no es un ataque físico. Es ingeniería de radiofrecuencia: confundir sensores, degradar detecciones y ganar tiempo. Por eso, aunque la ciudad escucha aviones, el “combate” real ocurre en el espectro electromagnético.Quinta capa: electricidad e internet.Durante la operación, partes de Caracas quedaron a oscuras. El presidente Donald Trump dijo que la ciudad quedó sin luz por una capacidad técnica de Estados Unidos, sin explicar el método.Lo que sí es comprobable lo aporta NetBlocks, una organización independiente que mide conectividad. NetBlocks confirmó pérdidas de conexión a internet en zonas de Caracas coincidiendo con los cortes de energía.Esto se entiende fácil: sin electricidad se apagan antenas, repetidores y equipos de red. Cuando eso ocurre, cae el internet móvil, se dificulta comunicarse y la ciudad pierde coordinación básica justo en el momento más crítico.Al unir estas cinco capas, la historia queda clara.La captura de Nicolás Maduro en Caracas no se explica solo con soldados y helicópteros. Se explica con datos precisos, coordinación aérea, sensores avanzados, control de señales y dependencia de la infraestructura eléctrica y digitalde una ciudad moderna.La BBC mostró cómo la ciudad vivió la noche y verificó lo que circuló en redes. Reuters explicó la mecánica de fondo: preparación, clima, número de aeronaves y tiempos exactos. Air & Space Forces explicó el papel del poder aéreo y la guerra electrónica. NetBlocks aportó datos medidos que conectan apagones con caídas de internet.La conclusión es directa: en el siglo XXI, los conflictos ya no se libran solo en el terreno físico. También se libran en redes, sensores, energía y sistemas que usamos todos los díasUn último detalle ayuda a entender el impacto a largo plazo. Cuando se interrumpe la electricidad y la conectividad, la recuperación no es inmediata. Aunque vuelva la luz, los sistemas digitales necesitan reiniciarse, validarse y sincronizarse. Por eso, una operación tecnológica puede dejar efectos que duran más que la noche en la que ocurrió.Resumen final y recomendaciónEn Caracas, Venezuela, Estados Unidos capturó a Nicolás Maduro y a Cilia Flores en la operación Absolute Resolve. BBC narró la noche y verificó videos. Reuters explicó meses de preparación y un despliegue de más de 150 aeronaves. Air & Space Forces detalló el rol de la guerra electrónica. NetBlocks midió caídas de internet ligadas a apagones.Para seguir entendiendo este mundo conectado, sigue Flash Diario en Spotify. 🔗 BibliografíaBBCReutersAir & Space ForcesNetBlocksThe War ZoneDefence BlogConviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 
Meta compra Manus

Meta compra Manus

2025-12-3108:02

Meta compra Manus, una startup de agentes de inteligencia artificial autónomos que ya genera más de cien millones de dólares al añoPor Félix Riaño @LocutorCoMeta acaba de cerrar una de las compras más comentadas del año en inteligencia artificial. La empresa de Mark Zuckerberg va a integrar agentes autónomos capaces de trabajar casi sin intervención humana. Se trata de Manus, una startup fundada por emprendedores chinos y hoy con sede en Singapur, que ya tiene millones de usuarios de pago y más de cien millones de dólares en ingresos anuales. ¿Qué cambia cuando una inteligencia artificial deja de responder y empieza a actuar por su cuenta?Cuando la inteligencia artificial deja de chatear y empieza a tomar decisiones.Meta Platforms ha anunciado la compra de Manus, una startup de inteligencia artificial que se ha hecho famosa por una idea muy concreta: crear agentes que trabajan de forma autónoma. Estos agentes reciben una instrucción general, planifican los pasos, ejecutan tareas complejas y entregan un resultado final sin que el usuario tenga que intervenir todo el tiempo.Manus nació en China en el año dos mil veintidós dentro de una empresa llamada Butterfly Effect. Con el aumento de las tensiones tecnológicas entre Estados Unidos y China, la empresa trasladó su sede a Singapur y dejó de operar en territorio chino. Desde allí lanzó su producto al mercado global.En pocos meses, Manus aseguró haber conseguido millones de usuarios y más de cien millones de dólares en ingresos recurrentes al año, gracias a suscripciones mensuales y anuales. Esa cifra llamó la atención de Meta, que lleva años apostándolo todo a la inteligencia artificial.—La gran pregunta es qué diferencia a Manus de otros asistentes como los chatbots tradicionales. La respuesta está en el nivel de autonomía. Mientras la mayoría de herramientas actuales esperan instrucciones paso a paso, Manus afirma que sus agentes pueden encargarse de todo el proceso.Por ejemplo, pueden hacer una investigación de mercado completa, analizar datos financieros, revisar hojas de vida, escribir código o planear un viaje entero. Todo con una sola orden inicial. Para muchos expertos, esto marca un cambio profundo en cómo usamos la inteligencia artificial en el trabajo diario.Pero también aparecen dudas. Manus fue fundada por emprendedores chinos y tuvo inversión de empresas de ese país. En Estados Unidos, cualquier proyecto de inteligencia artificial con raíces chinas despierta preocupación política. Algunos senadores ya han cuestionado el origen del capital y el acceso a datos sensibles. Meta ha respondido que, tras la compra, no quedará ninguna participación china y que Manus dejará cualquier operación pendiente en China.Meta ha sido clara en su estrategia. Manus va a seguir funcionando como servicio independiente, con sus planes de suscripción actuales, pero sus agentes se van a integrar poco a poco en productos como Facebook, Instagram y WhatsApp, donde ya existe Meta AI.La idea encaja con la visión de Mark Zuckerberg sobre una inteligencia artificial personal, presente en el día a día de las personas y las empresas. Meta quiere que estos agentes ayuden a organizar negocios pequeños, responder clientes, analizar información y automatizar tareas repetitivas.Según reportes de medios como The Wall Street Journal y Reuters, la operación estaría valorada entre dos mil y tres mil millones de dólares. Esto convierte a Manus en una de las compras más grandes de Meta en inteligencia artificial aplicada al mundo real, con ingresos comprobados.Para Meta, hay un mensaje claro hacia inversores y competidores. Esta vez no se trata solo de investigación, sino de una inteligencia artificial que ya gana dinero y que puede escalar a miles de millones de usuarios.La compra de Manus no llega sola. Durante este año, Meta ha acelerado su gasto en inteligencia artificial. En junio invirtió más de catorce mil millones de dólares para quedarse con casi la mitad de Scale AI, una empresa especializada en datos para entrenar modelos. También ha fichado talento directamente de empresas rivales como OpenAI y Google.Manus, por su parte, asegura haber procesado más de ciento cuarenta y siete billones de tokens de texto y datos, y haber creado más de ochenta millones de computadoras virtuales para ejecutar tareas de forma paralela. Son cifras enormes, pensadas para mostrar músculo tecnológico.Antes de la compra, Manus fue comparada con DeepSeek, otro desarrollo chino que llamó la atención por su rendimiento. Incluso Microsoft llegó a probar sus agentes en Windows once para crear páginas web a partir de archivos locales.Ahora, con Meta detrás, el reto será ganar la confianza de empresas que han visto a Meta envuelta en polémicas por el uso de datos. La pregunta ya no es si los agentes autónomos funcionan, sino quién se atreverá a usarlos a gran escala.Meta apuesta fuerte por una inteligencia artificial que actúa sola y ya genera ingresos reales. Manus pasa de startup prometedora a pieza central del futuro de Meta. La carrera por los agentes autónomos acaba de acelerar. Cuéntanos qué opinas y sigue Flash Diario en Spotify.🔗 Bibliografía 🔗The Wall Street Journalhttps://www.wsj.com/tech/ai/meta-buys-ai-startup-manus-adding-millions-of-paying-users-f1dc7ef8BBC Newshttps://www.bbc.co.uk/news/articles/ce3k11q9qe1oTechCrunchhttps://techcrunch.com/2025/12/29/meta-just-bought-manus-an-ai-startup-everyone-has-been-talking-about/CNBChttps://www.cnbc.com/2025/12/30/meta-acquires-singapore-ai-agent-firm-manus-china-butterfly-effect-monicai.htmlReutershttps://www.reuters.com/world/china/meta-acquire-chinese-startup-manus-boost-advanced-ai-features-2025-12-29/Al Jazeerahttps://www.aljazeera.com/economy/2025/12/30/tech-giant-meta-buys-chinese-founded-ai-firm-manusAxioshttps://www.axios.com/2025/12/30/meta-manus-aiSi quieres, en el siguiente paso puedo crear la imagen cuadrada, realista y sin texto para la portada de este episodio.Conviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 
Rusia patenta una estación espacial giratoria que creará gravedad artificial para cuidar la salud de astronautas. Por Félix Riaño @LocutorCo  Rusia ha presentado el diseño de una estación espacial que gira para generar gravedad artificial. La idea es sencilla de explicar y compleja de construir: hacer rotar módulos habitables para que la fuerza centrífuga empuje a los astronautas contra el suelo. Así podrían caminar, dormir y trabajar sin flotar. El proyecto parte de un diseño patentado por Energia, justo cuando la International Space Station se acerca a su retiro definitivo. La pregunta es directa: ¿vamos a ver por primera vez una estación espacial donde vivir se parezca más a estar en la Tierra?La idea es antigua, pero los obstáculos técnicos siguen siendo enormes  Desde hace décadas, vivir en el espacio implica flotar. En la Estación Espacial Internacional, los astronautas pasan meses en microgravedad. Esto afecta al cuerpo humano de muchas formas. Los huesos pierden densidad. Los músculos se debilitan. El corazón se acostumbra a bombear sangre sin esfuerzo. Incluso la vista y la memoria pueden cambiar.Rusia quiere atacar ese problema de raíz. El diseño patentado describe una estación que gira cinco veces por minuto. Al hacerlo, genera una fuerza que imita el cincuenta por ciento de la gravedad de la Tierra. No sería como estar en casa, pero sí lo bastante fuerte para caminar sin despegar los pies del suelo.El concepto recuerda a escenas clásicas del cine, como la estación giratoria de 2001: A Space Odyssey, donde los personajes caminan por paredes curvas como si fuera algo normal. El problema de la gravedad no es nuevo. Desde los primeros vuelos espaciales se sabe que el cuerpo humano no está diseñado para vivir mucho tiempo sin peso. En la Estación Espacial Internacional, los astronautas hacen ejercicio unas dos horas al día solo para frenar el deterioro físico. Aun así, muchos regresan a la Tierra con dificultad para caminar.Crear gravedad artificial parece una solución clara, pero construirla es todo menos simple. Una estación giratoria necesita un equilibrio perfecto. Si gira muy rápido, provoca mareos. Si gira lento, no genera fuerza suficiente. En este diseño, los módulos habitables tendrían que extenderse unos cuarenta metros desde el centro para lograr el efecto deseado.Además, montar algo así en órbita es un desafío enorme. Cada pieza debe lanzarse por separado y ensamblarse en el espacio. Acoplar naves a una estructura que está girando añade riesgos que los ingenieros conocen bien.  El plan ruso no llega con fechas ni presupuestos confirmados. Es un diseño patentado, una señal de intención más que una obra en marcha. Aun así, aparece en un momento clave. La Estación Espacial Internacional va a retirarse alrededor de dos mil treinta. Rusia, a través de Roscosmos, ya trabaja en su propia estación orbital, conocida como ROSS, y estudia reutilizar algunos de sus módulos actuales.Mientras tanto, otras potencias avanzan por caminos distintos. NASA y la European Space Agency preparan la estación Lunar Gateway, que va a orbitar la Luna como paso previo a futuras misiones. En paralelo, empresas privadas también exploran estaciones giratorias.Este diseño ruso plantea un futuro mixto: un núcleo central sin rotación para experimentos en microgravedad y brazos exteriores con gravedad parcial para la vida diaria. Una especie de laboratorio y hogar al mismo tiempo.  La idea de una estación giratoria no nació hoy. A comienzos del siglo veinte, el científico ruso Konstantin Tsiolkovskyya hablaba de hábitats espaciales que giraban. Más tarde, el ingeniero Wernher von Braun popularizó el concepto en revistas y documentales.En mil novecientos setenta y cinco, NASA y la Universidad de Stanford propusieron el famoso Stanford Torus, una gigantesca estación en forma de anillo de casi dos kilómetros de diámetro, pensada para diez mil personas. Nunca se construyó.Más recientemente, la empresa estadounidense Vast trabaja en su propio concepto giratorio llamado Haven. Lanzaron un pequeño módulo de prueba y esperan empezar a enviar piezas mayores a partir de dos mil veintiséis.Todo esto muestra que la gravedad artificial sigue siendo una promesa pendiente. Cada intento deja lecciones técnicas, médicas y humanas para el siguiente. Rusia ha patentado una estación espacial que gira para crear gravedad artificial y cuidar la salud de los astronautas. La idea no es nueva, pero el momento es clave. El fin de la Estación Espacial Internacional abre la puerta a nuevas formas de vivir en órbita. ¿Te gustaría vivir en una estación donde se pueda caminar? Cuéntalo y sigue Flash Diario en Spotify.  BibliografíaThe Telegraphhttps://www.telegraph.co.uk/world-news/2025/12/29/russia-plans-anti-gravity-space-station/Interesting Engineeringhttps://interestingengineering.com/space/russia-patents-space-station-with-artificial-gravityThe Brighter Side of Newshttps://www.thebrighterside.news/post/russia-patents-a-modular-spacecraft-designed-to-create-artificial-gravity/The US Sunhttps://www.the-sun.com/tech/15708063/russia-plans-space-station-artificial-gravity-astronauts-walk/Conviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 
Cambiar tu Gmail

Cambiar tu Gmail

2025-12-2906:30

Google va a permitir cambiar direcciones @gmail.com sin perder datos ni accesos.Por Félix Riaño @LocutorCoDurante años, tu dirección de Gmail era una decisión para toda la vida. Si elegiste un nombre extraño, infantil o poco profesional, no había marcha atrás. Podías cambiar tu nombre visible, pero la dirección terminada en @gmail.com quedaba fija para siempre. Muchas personas convivieron con eso por trabajo, estudios y trámites oficiales. Hoy esa regla empieza a moverse.Google confirmó en una página de soporte que va a habilitar, de forma gradual, una opción muy esperada: cambiar tu dirección @gmail.com por otra nueva, sin crear una cuenta distinta y sin perder nada. La información apareció primero en India y ya está generando preguntas claras. ¿Cuándo llegará a otros países? ¿Qué pasa con los correos antiguos? ¿Habrá riesgos reales para tu cuenta?El giro llega tardeDurante mucho tiempo, Gmail fue rígido con este tema. Si tu cuenta terminaba en @gmail.com, la respuesta oficial era simple: no se puede cambiar. La única salida era crear otra cuenta desde cero. Eso implicaba mover contactos, fotos, documentos, suscripciones y accesos a servicios como YouTube, Maps o Drive. Para muchas personas, ese cambio era inviable.Ahora, en un documento oficial de ayuda, Google explica un proceso nuevo. El texto aparece, por ahora, solo en hindi. Aun así, el mensaje es claro. Vas a poder cambiar tu dirección @gmail.com por otra también terminada en @gmail.com. No será una cuenta nueva. Será la misma cuenta, con dos direcciones activas. La original quedará como alias y seguirá funcionando.Este cambio llega con reglas claras que conviene entender bien. La primera: no es inmediato para todo el mundo. Google dice que el despliegue será gradual. Eso significa que algunas personas lo verán antes y otras tendrán que esperar semanas o meses.La segunda regla es el tiempo. Una vez hagas el cambio, no vas a poder modificar ni eliminar direcciones durante doce meses completos. Un año entero. Eso obliga a pensar bien el nuevo nombre antes de confirmarlo.También hay límites. Cada cuenta podrá tener hasta cuatro direcciones en total. Es decir, la original más tres cambios posibles a lo largo del tiempo. Además, tu dirección antigua seguirá apareciendo en algunos lugares, como eventos viejos de Google Calendar creados antes del cambio. No todo se actualiza de golpe.La parte más tranquila de esta historia es la que tiene que ver con tus datos. Google asegura que nada se pierde. Fotos, correos antiguos, mensajes, archivos de Drive y compras seguirán exactamente igual.Vas a poder iniciar sesión con la dirección vieja o con la nueva. Ambas llevarán a la misma cuenta. Los correos enviados a cualquiera de las dos direcciones llegarán al mismo buzón. Incluso vas a poder seguir enviando correos desde la dirección antigua si así lo deseas.La dirección original seguirá siendo tuya para siempre. Nadie más podrá usarla. Eso reduce riesgos de suplantación o confusión. Cuando la función esté activa, el cambio se hará desde “Mi cuenta”, en la sección de información personal, tanto en computador como en móvil.Este movimiento acerca a Gmail a lo que ya ofrecen otros servicios de correo. Outlook, por ejemplo, permite crear alias y cambiar direcciones desde hace tiempo. En Google Workspace, el servicio para empresas, estas opciones existen, pero bajo administración y pago.Por ahora, todo indica que el despliegue empezó en India y luego se irá ampliando a más países. No hay fecha oficial para América Latina o Europa, pero el lenguaje de Google apunta a un lanzamiento global progresivo.Si hoy entras a la configuración y no ves la opción, es normal. No significa que tu cuenta esté excluida. Significa que todavía no te toca. La recomendación es simple: revisar de vez en cuando la sección de correo en tu cuenta de Google y esperar el aviso.🧾 Resumen final y recomendación 🧾Google va a permitir cambiar tu dirección @gmail.com sin perder correos, archivos ni accesos. La función llegará poco a poco y tendrá límites claros. Vale la pena pensar bien el nuevo nombre antes de usarla.Cuéntanos qué dirección cambiarías hoy mismo y por qué. Y recuerda seguir Flash Diario en Spotify para más historias claras sobre tecnología.  Google va a permitir cambiar tu dirección @gmail.com sin perder correos, archivos ni accesos, con reglas y espera gradual.  🔗 Bibliografía9to5GoogleTom’s HardwareBGRBusiness StandardConviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 
iOS 26.3 abre el iPhone a relojes y audífonos de otras marcas en Europa  Por Félix Riaño @LocutorCo  Apple acaba de hacer algo que durante años parecía impensable. Con iOS 26.3, el iPhone empieza a llevarse mejor con dispositivos que no son de Apple. Esto ocurre en Europa y no llega por voluntad propia, llega por obligación legal. Según explica Gadget Hacks, audífonos y relojes de otras marcas ahora pueden conectarse más fácil y recibir notificaciones completas desde el iPhone.Las dudas aparecen de inmediato: hasta dónde va a llegar esta apertura, qué funciones siguen siendo exclusivas y por qué este cambio se aplica en Europa y no en el resto del mundo.  Apple abre puertas, pero deja llaves en su bolsillo.  iOS 26.3 introduce cambios que alteran la forma en que el iPhone se conecta con otros dispositivos dentro de la Unión Europea. Apple activa nuevas funciones de interoperabilidad tras la presión directa de la Comisión Europea, en el marco de la Ley de Mercados Digitales, conocida como DMA, tal como recoge MacRumors.La lógica de esta ley es fácil de entender. Si una empresa controla una plataforma que millones de personas usan cada día, no puede cerrar el acceso a funciones básicas para favorecer solo a sus propios productos. En este caso, el iPhone actúa como esa plataforma dominante.Con esta actualización, Apple habilita dos funciones que antes estaban casi reservadas a su propio ecosistema: el emparejamiento por proximidad para accesorios de terceros y el reenvío completo de notificaciones a relojes inteligentes que no son Apple Watch. Son cambios técnicos que impactan directamente el uso cotidiano del teléfono.  Durante años, usar accesorios que no fueran de Apple con un iPhone implicaba más pasos y más fricción. Emparejar audífonos requería entrar a Ajustes, buscar Bluetooth y seguir varios pasos. Con AirPods, el proceso era inmediato. Esa diferencia se convirtió en una ventaja competitiva clara.Con los relojes pasaba algo similar. El Apple Watch recibía notificaciones completas, con texto, nombre de la aplicación y opciones de interacción. Otros relojes recibían avisos parciales o inestables. Como explica SamMobile, esto hacía que relojes como los Galaxy Watch perdieran atractivo cuando se usaban con iPhone.Aquí surge una duda central para los reguladores europeos: esa diferencia responde a límites técnicos reales o a decisiones de diseño pensadas para empujar al usuario hacia productos Apple. La DMA responde obligando a Apple a abrir ese acceso.  Con iOS 26.3, Apple permite que accesorios de terceros se emparejen por proximidad. En la práctica, unos audífonos de otra marca se pueden conectar acercándolos al iPhone y tocando una tarjeta en pantalla. El proceso se vuelve rápido y sencillo, muy similar al de los AirPods, como detalla MacRumors.También aparece un nuevo sistema de reenvío de notificaciones. Desde Ajustes, el usuario puede elegir un reloj inteligente de otra marca para recibir notificaciones completas del iPhone. Según 9to5Mac, esta función coloca a relojes de terceros mucho más cerca de la experiencia del Apple Watch.Apple mantiene un límite claro: las notificaciones solo se envían a un dispositivo a la vez. Si se activa un reloj de otra marca, el Apple Watch deja de recibirlas. Apple cumple la norma, pero sigue marcando el perímetro.  Estas funciones solo están activas en la Unión Europea. En el resto del mundo, los menús aparecen en el sistema, pero no funcionan. Apple aplica una estrategia muy precisa: cumplir exactamente donde la ley lo exige.La Comisión Europea, citada por 9to5Mac, ha celebrado estos cambios como un paso hacia un ecosistema digital más conectado. Para Apple, el riesgo económico explica el cuidado extremo. Las multas por incumplir la DMA pueden llegar hasta el diez por ciento de su facturación global anual.Además, este proceso no termina aquí. La Unión Europea también exige alternativas a AirDrop y AirPlay antes de 2026, mayor apertura del chip NFC para pagos y acceso a tecnologías avanzadas de audio. iOS 26.3 es apenas la primera señal visible de una transformación más amplia del iPhone en Europa.  iOS 26.3 empieza a cambiar la relación entre el iPhone y los dispositivos de otras marcas en Europa. Hay más opciones y menos fricción. La duda que queda es si este modelo se va a extender a otros países. Cuéntanos qué opinas y sigue Flash Diario en Spotify.  iOS 26.3 abre el iPhone a relojes y audífonos de otras marcas en Europa por presión legal.  🔗 Bibliografía 🔗Gadget HacksMacRumorsSamMobile9to5MacConviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 
Spotify bajo ataque

Spotify bajo ataque

2025-12-2308:27

Un grupo activista pirateó Spotify y afirma haber copiado metadatos y millones de archivos de audio Por Félix Riaño @LocutorCoSpotify confirma que un grupo activista logró copiar grandes volúmenes de información de su catálogo musical. La situación gira alrededor de metadatos públicos y de una parte de los archivos de audio alojados en la plataforma. Según los reportes, el grupo detrás de esta acción se presenta como un proyecto de preservación cultural y asegura haber reunido una base de datos musical sin precedentes. Spotify ya desactivó las cuentas implicadas y activó nuevas medidas de protección. La pregunta es directa y preocupa a artistas, sellos y oyentes: ¿estamos ante un caso de preservación digital o frente a un nuevo episodio de piratería masiva disfrazada de archivo cultural?Preservar cultura suena bien, pero los derechos de autor quedan en riesgo. Todo comienza con una publicación en Anna’s Archive, un buscador conocido por alojar bibliotecas digitales no oficiales de libros y artículos científicos. Esta vez, el foco fue la música. El grupo afirma haber copiado información de Spotify a gran escala usando accesos públicos y técnicas para sortear protecciones digitales. Hablan de 256 millones de filas de metadatos musicales y de 86 millones de archivos de audio. En conjunto, el material ocuparía cerca de 300 terabytes, una cifra que equivale a miles de discos duros domésticos llenos hasta el borde.  Spotify reconoce que existió un acceso no autorizado y asegura que ya está investigando. La empresa explica que se trató de datos públicos combinados con métodos ilegales para acceder a parte del audio. Por ahora, solo los metadatos han sido liberados públicamente. El problema va más allá de la cantidad de datos. Los metadatos incluyen nombres de canciones, artistas, álbumes, portadas y códigos ISRC, que funcionan como el número de identificación de cada grabación en el mundo. Con esa información, cualquier persona con conocimientos técnicos podría reconstruir catálogos completos y analizarlos a fondo. Anna’s Archive sostiene que su objetivo es evitar que la música desaparezca si una plataforma cambia políticas, elimina contenido o cierra. El argumento conecta con una preocupación real: el streaming no es propiedad, es acceso temporal. Pero aquí aparece la tensión. Este archivo también podría facilitar copias no autorizadas, entrenar sistemas de inteligencia artificial sin licencias o crear servidores privados que reproduzcan música sin pagar derechos. Para los artistas, sobre todo los independientes, el temor es claro: menos control y menos ingresos. Spotify ya respondió. La empresa desactivó las cuentas implicadas, reforzó sus sistemas de detección y dejó claro que trabaja con la industria musical para proteger a los creadores. También subrayó que este episodio no afecta datos personales de los usuarios.El grupo activista planea liberar los archivos de audio por etapas, empezando por las canciones más escuchadas, usando los propios datos de popularidad de Spotify. Dicen que la calidad del audio varía para reducir el tamaño de los archivos, lo que refuerza su discurso de archivo funcional y no de alta fidelidad.El desenlace sigue abierto. Habrá investigaciones, posibles acciones legales y un debate que ya está sobre la mesa: cómo preservar la cultura digital sin romper el modelo que paga a quienes la crean. Este caso puede convertirse en un precedente incómodo para toda la industria musical. Para entender la escala, conviene comparar. MusicBrainz, uno de los archivos musicales abiertos más grandes y legales del mundo, reúne alrededor de cinco millones de canciones. El archivo atribuido a Anna’s Archive multiplica esa cifra muchas veces y cubre casi todo lo que realmente se escucha en Spotify.Los propios datos filtrados muestran algo llamativo: una pequeña fracción de canciones concentra la mayoría de las reproducciones, mientras millones de temas apenas reciben atención. Ese patrón refuerza el discurso del grupo, que critica el enfoque del streaming en la popularidad.También aparece otra preocupación: el uso de estos datos para entrenar modelos de inteligencia artificial musical sin acuerdos de licencia. Ya ocurrió antes con textos e imágenes. La música podría ser el siguiente campo de batalla. Este episodio deja claro que la tecnología avanza más rápido que las reglas que buscan ordenarla.Un grupo activista afirma haber copiado gran parte del catálogo de Spotify en nombre de la preservación cultural. Spotify investiga y refuerza su seguridad. El debate entre acceso, archivo y derechos de autor queda abierto. Cuéntanos qué opinas y sigue Flash Diario en Spotify BibliografíaBillboardPCMagTom’s HardwareMusicAllyGizmodoThe Riff ReportConviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 
Un planeta fuera del Sistema Solar desconcierta a la ciencia por su forma, su atmósfera y su origen  Por Félix Riaño @LocutorCo A más de mil kilómetros por segundo, una estrella muerta gira como un faro en el espacio profundo. A su alrededor, muy cerca, hay un objeto que no debería existir. Tiene el tamaño de Júpiter, la forma de un limón aplastado y una atmósfera hecha casi por completo de carbono. No tiene agua. No tiene oxígeno. No tiene nitrógeno. Y nadie sabe cómo pudo formarse. El PSR J2322-2650b se ha convertido en uno de los mayores misterios recientes de la astronomía moderna. Tal vez no sea un planeta como creemos.  Vamos a explicar qué se ha descubierto y por qué tiene tan desconcertada a la comunidad científica. Este objeto se encuentra a unos dos mil años luz de la Tierra y orbita un púlsar. Un púlsar es el núcleo colapsado de una estrella que explotó como supernova. Tiene casi la masa del Sol, pero comprimida en un espacio similar al tamaño de una ciudad. Gira muy rápido y lanza radiación constantemente. El planeta gira alrededor de ese púlsar a una distancia de apenas un millón seiscientos mil kilómetros. Para ponerlo en contexto, la Tierra está a unos ciento cincuenta millones de kilómetros del Sol. Por esa cercanía extrema, un año en este planeta dura solo unas ocho horas. La gravedad del púlsar lo estira de forma brutal, tanto que su diámetro ecuatorial es casi un cuarenta por ciento mayor que su diámetro polar. Por eso los astrónomos lo describen como un planeta con forma de limón.  Este mundo fue observado con el James Webb Space Telescope, que permitió analizar su atmósfera con un nivel de detalle nunca visto en un sistema de este tipo.  Aquí empieza el verdadero problema. Cuando los científicos estudiaron la atmósfera de PSR J2322-2650b esperaban encontrar gases comunes, como vapor de agua, metano o dióxido de carbono. Pero lo que apareció fue algo totalmente distinto. La atmósfera está dominada por helio y por carbono molecular, formas simples de carbono que casi nunca aparecen solas en planetas.  El carbono suele unirse a otros elementos. Para que exista de esta forma, casi no puede haber oxígeno ni nitrógeno. Y eso es justo lo que ocurre aquí. Entre más de ciento cincuenta planetas estudiados con este nivel de detalle, ninguno muestra una composición similar. Las temperaturas tampoco ayudan a explicarlo. En el lado más frío del planeta se alcanzan unos seiscientos cincuenta grados Celsius. En el lado más caliente, más de dos mil grados Celsius.  Con esos valores, el carbono debería reaccionar con otros elementos. Pero no lo hace. Esto rompe las teorías actuales sobre cómo se forman los planetas y cómo evolucionan sus atmósferas. Los modelos conocidos no encajan. Ninguno.  Ante este rompecabezas, los científicos manejan varias ideas. Una posibilidad es que este objeto no sea un planeta en el sentido clásico. Podría ser el resto de una estrella que orbitaba el púlsar y que fue perdiendo masa durante millones de años, como ocurre en los sistemas llamados “viuda negra”. En esos sistemas, el púlsar va despojando poco a poco a su compañero hasta casi hacerlo desaparecer.  Otra idea es que estemos viendo un tipo de objeto totalmente nuevo, algo que aún no tiene nombre. Un cuerpo que logró mantenerse estable alrededor de un púlsar durante miles de millones de años, resistiendo una radiación extrema y fuerzas gravitatorias enormes. En ese caso, la ciencia tendría que ampliar su definición de lo que puede existir en el universo.  Los datos del Webb sugieren que en su atmósfera pueden formarse nubes de hollín hechas de carbono. Con el tiempo, ese carbono podría cristalizar en el interior del planeta y formar diamantes. Un mundo rojo, cubierto de polvo oscuro, con tormentas que siguen su forma alargada. Un lugar que parece ciencia ficción, pero es real.  Por ahora, los investigadores van a buscar más sistemas similares. Solo así podrán saber si este planeta es una rareza absoluta o el primer ejemplo de una familia desconocida de mundos extremos.  Este hallazgo fue posible porque el sistema tiene una ventaja poco común. El púlsar emite sobre todo radiación de alta energía, como rayos gamma, que el Webb no detecta. Eso permite observar la luz del planeta sin que la estrella lo opaque, algo que no suele ocurrir con estrellas normales.  Además, este es el único planeta conocido con masa, tamaño y temperatura similares a un Júpiter caliente que orbita un púlsar. De los más de seis mil exoplanetas registrados hasta ahora, solo unos pocos están asociados a púlsares, y ninguno se parece a este.  El estudio fue publicado en The Astrophysical Journal Letters y ha sido destacado por la NASA y por medios como The New York Times. Todos coinciden en lo mismo: este objeto no encaja en ninguna caja conocida.Lejos de ser frustrante, este tipo de descubrimientos son los que empujan a la ciencia a avanzar. Cada vez que aparece algo así, las teorías se ajustan, se amplían o se descartan. Y eso nos acerca un poco más a entender cómo funciona realmente el universo.  Un planeta con forma de limón, una atmósfera de carbono y un origen desconocido acaba de poner en jaque a la astronomía. Vamos a seguir atentos a este misterio cósmico. Cuéntanos qué opinas y acompáñanos en Flash Diario  🔗 Bibliografía404 MediaThe New York TimesNASA ScienceMashableConviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 
Fortnite activa Winterfest 2025 con nieve, colaboraciones, regalos diarios y cambios jugables hasta eneroPor Félix Riaño @LocutorCoFortnite ya encendió oficialmente Winterfest 2025. El evento de fin de año transforma la isla con nieve, decoraciones festivas y una avalancha de contenido temporal. Desde hoy y hasta el 5 de enero de 2026, los jugadores van a encontrar colaboraciones muy llamativas, objetos clásicos que regresan al juego y una cabaña especial llena de sorpresas diarias. También aparecen nuevas mecánicas, un jefe peculiar y un enfoque inesperado en una de las franquicias más promocionadas. ¿Todo lo que parecía grande realmente lo es dentro del juego?La publicidad promete magia, pero la experiencia cuenta otra historia: Poco Harry PotterWinterfest 2025 ya está activo en Fortnite y se va a extender hasta el 5 de enero de 2026. Durante este periodo, Epic Games vuelve a modificar el battle royale con una ambientación navideña clara. La mitad norte del mapa aparece cubierta de nieve y varias zonas reciben árboles, luces y decoraciones de temporada.Se suma un nuevo punto de interés llamado Clawsy Lodge, una zona de cabañas pensada para aterrizajes rápidos y combates intensos al inicio de la partida. Además, regresa la cabaña de Winterfest, accesible desde el lobby. Allí se puede abrir un obsequio por día, hasta completar catorce en total.Un detalle clave es que estos premios se acumulan aunque no entres todos los días. Puedes volver más tarde y reclamar todo de una sola vez.Winterfest vuelve a ser un evento pensado para entrar, explorar y volver sin presión.La conversación aparece cuando se analizan las colaboraciones. Winterfest 2025 incluye cruces con Harry Potter, Sabrina Carpenter, Hatsune Miku, Bleach, SpongeBob y Volver al Futuro. En cantidad, el evento es enorme. En integración jugable, no todas las marcas reciben el mismo trato.Harry Potter destaca en el material promocional y en la ambientación visual de la cabaña, con referencias claras al mundo mágico. Pero dentro de las partidas, su presencia es muy limitada. No hay zonas del mapa dedicadas, no hay objetos especiales ni misiones propias. Todo queda concentrado en cosméticos de tienda y marketing.Esto ha generado debate entre jugadores porque Fortnite suele llevar sus grandes colaboraciones al centro del gameplay. Aquí eso no ocurre. Epic Games no ha explicado si este enfoque fue planeado desde el inicio o ajustado más tarde.Mientras algunas colaboraciones se quedan en lo visual, otras sí alteran la forma de jugar. Volver al Futuro es el mejor ejemplo. El DeLorean aparece como vehículo dentro del mapa. Al alcanzar ochenta y ocho millas por hora, activa una animación de viaje temporal y añade un cofre especial en el techo.Ese cofre contiene armas del botín clásico de Fortnite, como el fusil de asalto original y la escopeta de palanca. Ese mismo botín clásico también aparece en los presentes del evento, lo que cambia el ritmo de las partidas y mezcla estilos de juego antiguos con el actual.Regresan armas invernales como la granada de tormenta de nieve y el lanzador de bolas de nieve. Además, llega un nuevo jefe: el Yule Trooper. Al derrotarlo, puedes jugar como él, pero con un efecto permanente de pies congelados que vuelve cada movimiento un riesgo.En la tienda, Winterfest 2025 funciona como escaparate de skins festivas. Sabrina Carpenter recibe una versión navideña llamada Santa ‘Brina. Hatsune Miku aparece con atuendo invernal. Bleach suma cuatro personajes principales y SpongeBob aporta el Patty Wagon como vehículo especial.También hay filtraciones de colaboraciones aún no confirmadas, como Home Alone o Batman Beyond. En paralelo, Epic conecta Winterfest con su ecosistema. Hogwarts Legacy estuvo disponible sin costo en la Epic Games Store hasta el 18 de diciembre. Quienes jugaron al menos dos horas desbloquearon un accesorio exclusivo para Fortnite.Rocket League también participa con eventos temáticos de las casas de Hogwarts. Todo refuerza una idea clara: Fortnite ya no vive aislado. Winterfest es una vitrina de ese universo conectado.Winterfest 2025 trae nieve, colaboraciones, obsequios diarios y cambios jugables que mezclan nostalgia y humor. Algunas promesas se sienten más grandes en la publicidad que en el juego. Entra, prueba el evento y saca tus propias conclusiones. Y sigue Flash Diario en Spotify para más tecnología, ciencia y entretenimiento digital.Winterfest 2025 transforma Fortnite con nieve, colaboraciones famosas, obsequios diarios y decisiones creativas que están dando mucho de qué hablar.BibliografíaGameSpotIGNEpic GamesHarryPotter.comVICESi quieres, en el siguiente paso puedo generar la imagen de portada realista ajustada exactamente a este guion (tono vibrante, sin texto, cuadrada).Conviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 
AI lanza ChatGPT Images para competir con Nano Banana de GooglePor Félix Riaño @LocutorCoOpenAI acaba de mover una ficha clave en la carrera de la inteligencia artificial visual. Esta semana empezó el despliegue de ChatGPT Images, una nueva experiencia dentro de ChatGPT pensada para crear y editar imágenes de forma más rápida, precisa y estable. El motor detrás de este cambio se llama GPT Image 1.5, y llega con un objetivo claro: plantar cara a Nano Banana, el editor de imágenes de Google que se volvió viral en las últimas semanas.La promesa de OpenAI es directa y fácil de entender incluso para niños: imágenes que tardan menos en generarse, cambios más exactos cuando pides una edición y menos errores raros en detalles como texto, caras o iluminación. Además, ChatGPT ahora tiene una pestaña dedicada solo a imágenes, algo que cambia la forma en la que la gente crea y experimenta. ¿Estamos viendo el inicio de una nueva guerra creativa entre Google y OpenAI?Ser más rápido no siempre significa verse mejorChatGPT Images ya está disponible dentro de ChatGPT y también para desarrolladores a través de la API con el nombre GPT Image 1.5. Según OpenAI, este modelo genera imágenes hasta cuatro veces más rápido que la versión anterior y sigue mejor las instrucciones del usuario. Dicho de forma simple: si pides cambiar algo puntual en una foto, el sistema va a tocar solo eso y va a respetar lo demás.El nuevo espacio de imágenes funciona como un pequeño estudio creativo. Permite crear desde cero, editar fotos existentes y explorar ideas con filtros y ejemplos en tendencia. Ya no todo depende de escribir el prompt perfecto. Ahora también puedes inspirarte viendo qué están creando otras personas.En pruebas independientes, GPT Image 1.5 llegó al primer lugar en rankings de generación de imágenes, superando por poco a Nano Banana Pro de Google. En números, eso suena fuerte. En la práctica, la diferencia visual aún genera debate.Aquí aparece la parte incómoda. Aunque GPT Image 1.5 lidera algunos rankings técnicos, las comparaciones reales muestran resultados muy parecidos entre ChatGPT Images y Nano Banana. En ediciones simples, como cambiar una foto nocturna a diurna, varios periodistas notaron que la versión de Google se ve más natural.Nano Banana sorprendió porque imitó errores típicos de la fotografía con móviles, como ruido, desenfoques suaves o luces imperfectas. Eso hizo que muchas imágenes parecieran fotos reales. ChatGPT Images mejora mucho frente a versiones anteriores, pero todavía hay casos donde el resultado se siente demasiado limpio o artificial.Además, los usuarios gratuitos tendrán acceso limitado, algo que ya pasa en otras herramientas de IA. Esto deja la pregunta abierta: ¿basta con ser más rápido y más preciso en teoría, o la percepción visual seguirá mandando en esta competencia?OpenAI no está apostando todo a una sola función. ChatGPT Images forma parte de una estrategia más grande: convertir a ChatGPT en una aplicación para casi todo. Texto, voz, imágenes, video y ahora una experiencia visual dedicada.GPT Image 1.5 destaca cuando se trata de ediciones encadenadas. Puedes pedir varios cambios seguidos sin que la imagen se descontrole. También mejora bastante el manejo de texto dentro de imágenes, algo clave para carteles, camisetas o diseños simples.Para creadores, estudiantes y pequeños negocios, esto significa menos pasos y menos herramientas externas. Para Google, significa que Nano Banana ya no corre solo. La pelea ahora es directa, constante y muy visible. Y como suele pasar en tecnología, quien gana al final es quien usa estas herramientas todos los días.El lanzamiento de ChatGPT Images llega en un momento de máxima presión para OpenAI. En las últimas semanas, Google presentó Gemini 3 y reforzó su ecosistema creativo integrando Nano Banana en servicios como Google Fotos, Mensajes y el buscador.OpenAI respondió rápido. Primero lanzó GPT-5.2 y luego este nuevo modelo de imágenes. Según la empresa, GPT Image 1.5 mejora la consistencia entre ediciones, mantiene mejor los rasgos de personas y respeta la composición original de las fotos.Para desarrolladores, el modelo ya está disponible vía API, con precios publicados en el sitio oficial de OpenAI. Eso permite integrar esta tecnología en apps propias, juegos o herramientas de diseño.En paralelo, OpenAI también avanza en integraciones con otras plataformas, desde servicios creativos hasta música y productividad. Todo apunta a que ChatGPT quiere ser el lugar donde empiezan y terminan muchas tareas digitales.OpenAI lanzó ChatGPT Images con GPT Image 1.5 para competir de frente con Nano Banana de Google. Es más rápido, más estable y más fácil de usar. La calidad visual aún se discute, pero la carrera está más apretada que nunca. Cuéntanos qué editor te gusta más y sigue Flash Diario en Spotify.ChatGPT lanza un nuevo generador de imágenes más rápido para competir con Nano Banana y cambiar cómo editamos fotos con IA.🔗 BibliografíaMashablehttps://mashable.com/article/open-ai-launches-nano-banana-competitor-chatgpt-imagesPetaPixelhttps://petapixel.com/2025/12/17/chatgpt-adds-realism-to-its-powerful-image-generator/Bloomberghttps://www.bloomberg.com/news/articles/2025-12-16/openai-s-chatgpt-updated-to-make-images-better-and-fasterAxioshttps://www.axios.com/2025/12/16/openai-chatgpt-image-update-google-nano-bananaEngadgethttps://www.engadget.com/ai/chatgpt-image-generation-is-now-faster-and-better-at-following-tweaks-180000750.htmlTechRadarhttps://www.techradar.com/ai-platforms-assistants/chatgpt/chatgpt-images-just-got-a-major-upgrade-and-it-could-change-how-we-all-createInc.https://www.inc.com/ben-sherry/openais-new-image-generator-is-scarily-good-but-can-it-dethrone-google/91279337Conviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 
LG Micro RGB evo debuta en CES 2026 con nueva tecnología de color y control de luzPor Félix Riaño @LocutorCoLG presenta su primer televisor Micro RGB evo para 2026, con color total certificado y control avanzado de luz.LG acaba de confirmar que va a entrar de lleno en la nueva generación de televisores RGB. En CES 2026, la marca va a presentar el LG Micro RGB evo, su televisor LCD más avanzado hasta ahora. Llega en tamaños de setenta y cinco, ochenta y seis y cien pulgadas, con una promesa clara: colores más precisos, más puros y mejor control de la luz. Este anuncio pone a LG en la misma carrera en la que ya están Samsung, Hisense, TCL y Sony. Pero aquí hay una diferencia clave: LG dice que va a llevar la precisión aprendida en trece años de OLED a un televisor LCD. ¿Hasta dónde puede llegar esta mezcla de tecnologías?La clave está en cómo se ilumina la imagen, no en el tipo de panelEl LG Micro RGB evo usa una retroiluminación formada por pequeños grupos de luces rojas, verdes y azules. Esos grupos iluminan varios píxeles a la vez y permiten un control del color mucho más fino que el de los televisores LCD tradicionales. LG explica que este sistema alcanza el cien por ciento de los espacios de color BT punto veinte veinte, DCI-P3 y Adobe RGB, algo certificado por Intertek.Para gestionar esa precisión, el televisor incorpora el procesador Alpha once generación tres, un chip que se encarga del control de la luz, el tratamiento del color y el escalado de imagen con ayuda de inteligencia artificial.El desafío de esta tecnología está en el equilibrio. Aunque el televisor cuenta con más de mil zonas de atenuación, hay modelos Mini LED que ofrecen muchas más. Eso puede marcar diferencias en escenas con contrastes extremos. Además, este tipo de panel sigue necesitando filtros de color, algo que no ocurre en OLED ni en el microLED real.El objetivo de LG es cerrar la brecha entre brillo, precisión de color y tamaño de pantalla, sin llegar a los costos extremos del microLED, que hoy sigue reservado para presupuestos muy altos.LG confía en que el control avanzado de la luz y el procesamiento heredado de su experiencia en OLED compensen esas limitaciones. El Micro RGB evo se apoya en sistemas de atenuación más precisos y en algoritmos que ajustan brillo y color en tiempo real.El televisor también integra la versión más reciente de webOS, con perfiles personalizados, ajustes automáticos de imagen y sonido, y herramientas de asistencia con inteligencia artificial. LG va a mostrar el modelo en CES 2026, en Las Vegas, entre el seis y el nueve de enero, donde se conocerán datos finales como brillo máximo, consumo y precio.El movimiento de LG confirma una tendencia clara para 2026. Varias marcas ya han presentado o anunciado televisores RGB. Hisense mostró uno de ciento dieciséis pulgadas. Samsung lanzó un modelo de ciento quince pulgadas con un precio cercano a los treinta mil dólares. TCL ya comercializa opciones en China y Sony prepara su tecnología True RGB.RGB y microLED no son lo mismo. En RGB, los LEDs iluminan grupos de píxeles; en microLED, cada píxel emite su propia luz. Esa diferencia técnica explica por qué el microLED sigue siendo tan costoso.Para creadores de contenido, la cobertura total de BT punto veinte veinte resulta especialmente atractiva. Para el público general, el mayor impacto se va a notar en escenas HDR con colores intensos y altos niveles de brillo.LG entra en la carrera del RGB con un televisor que busca combinar brillo, color y control avanzado de luz. El Micro RGB evo se va a mostrar en CES 2026 y ahí vamos a saber si cumple todo lo que promete. Cuéntame qué opinas y sigue Flash Diario en Spotify.LG presenta su primer televisor Micro RGB evo para 2026 con color certificado y control avanzado de la retroiluminación.📚 BibliografíaThe VergeLG NewsroomEngadgetCNETConviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 
Apple apuesta por eficiencia: va a usar tecnología del Apple Watch para mejorar batería y peso en sus futuras gafas inteligentes  Por Félix Riaño @LocutorCo  Apple lleva años buscando la fórmula correcta para unas gafas inteligentes que puedas usar todo el día. El gran obstáculo ha sido siempre el mismo: la batería. Las Apple Vision Pro muestran músculo tecnológico, pero su autonomía se queda corta y su peso limita el uso prolongado. Ahora, varios reportes coinciden en una idea clara y muy lógica: Apple va a recurrir a la tecnología que ya domina en el Apple Watch para resolver ese problema. Chips pensados para consumir poca energía, mantener buen rendimiento y reducir peso. La pregunta es directa y vale la pena hacerla desde ya: ¿estamos más cerca de unas gafas inteligentes realmente usables en la vida diaria?  La solución existe desde hace años y ya vive en tu muñeca  Las gafas inteligentes juegan con reglas distintas a las de un visor de realidad mixta. No están pensadas para sesiones cortas en interiores, sino para acompañarte durante horas mientras caminas, hablas, escuchas y te mueves por la ciudad. Eso cambia por completo las prioridades de diseño. Aquí, la potencia bruta pasa a segundo plano y la eficiencia energética se vuelve central.Según los reportes más recientes, Apple va a evitar los procesadores del iPhone y va a apostar por los chips tipo S que usa el Apple Watch. Estos procesadores están diseñados para funcionar con baterías pequeñas, generar poco calor y mantener un consumo estable durante muchas horas. Para unas gafas ligeras, esa combinación resulta mucho más adecuada que un chip pensado para un teléfono.  El problema no es solo cuánto dura la batería, sino dónde se coloca el peso. En un dispositivo que se lleva en la cabeza, cada gramo cuenta. Una batería grande mejora la autonomía, pero hace las gafas incómodas y poco prácticas. Por eso, la mayoría de modelos actuales en el mercado apenas alcanzan unas pocas horas de uso continuo.A esto se suma otro reto: la experiencia de uso. Muchas gafas inteligentes dependen de botones poco intuitivos, gestos difíciles de recordar o combinaciones de activación que generan confusión. En situaciones cotidianas, como caminar o conducir, eso puede convertirse en un riesgo.Apple quiere evitar ese escenario desde el inicio. Por eso, el primer modelo de sus gafas no va a incluir pantalla integrada y va a depender de la conexión con el iPhone para tareas más exigentes, manteniendo el hardware de las gafas lo más simple y ligero posible.  Los rumores apuntan a que Apple va a presentar sus primeras gafas inteligentes en 2026, con una llegada comercial más amplia en 2027. Este primer modelo funcionará como un accesorio del iPhone, de forma similar al Apple Watch. Las gafas se encargarán de captar información del entorno mediante cámaras, micrófonos y sensores, mientras que el iPhone procesará las tareas más complejas.El chip elegido sería un System in Package del Apple Watch, como el S10. Este procesador ofrece la potencia necesaria para manejar comandos de voz, reconocimiento visual básico y reproducción de audio, manteniendo un consumo energético muy bajo. Para entender la magnitud de esto, basta mirar al Apple Watch Ultra, que puede superar el día completo de uso con este tipo de arquitectura.Apple parece estar apostando por resolver primero la comodidad y la autonomía. Las funciones más avanzadas, como pantallas integradas o realidad aumentada completa, quedarían reservadas para generaciones posteriores.  Este movimiento de Apple llega en un momento clave para el sector. Meta ya ha logrado vender millones de gafas inteligentes gracias a su alianza con Ray-Ban, apostando por un diseño discreto y funciones básicas bien integradas. Google, por su parte, prepara su regreso con Android XR junto a Samsung y marcas de moda, mientras otras empresas exploran distintos enfoques, desde gafas con pantallas flotantes hasta modelos centrados en audio y traducción en tiempo real.Los analistas coinciden en que las gafas inteligentes podrían convertirse en una pieza más del ecosistema personal, junto al teléfono, los audífonos y el reloj. Casos de uso como asistencia a personas con discapacidad visual, navegación sin mirar el móvil, traducción automática o lectura discreta de mensajes ya muestran un valor claro.La gran incógnita sigue siendo el equilibrio entre utilidad, precio y aceptación social. Apple confía en que una entrada gradual, priorizando comodidad y batería, le permita evitar errores del pasado y llegar con una propuesta madura.  Apple va a usar la experiencia del Apple Watch para resolver el mayor problema de las gafas inteligentes: la batería. Menos peso, más horas de uso y una integración clara con el iPhone. Ahora dime tú: ¿usarías unas gafas inteligentes sin pantalla? Escucha más historias como esta en Flash Diario en Spotify.Apple va a usar chips del Apple Watch para lograr gafas inteligentes ligeras, con más batería y pensadas para uso diario.🔗 BibliografíaAndroid Headlines9to5MacMacObserverWTOPEngadgetChannelNewsConviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 
Google Maps ahora guarda automáticamente dónde aparcas en iPhone y elimina el pin cuando vuelves a conducirPor Félix Riaño @LocutorCo¿Te ha pasado que sales de un centro comercial, miras alrededor y no recuerdas dónde dejaste el coche? Google Maps acaba de activar una función que busca resolver justo ese momento de confusión. En iPhone, la app ahora detecta automáticamente cuándo terminas un trayecto en coche y guarda el lugar exacto donde aparcaste, sin que tengas que tocar nada. La función funciona de forma silenciosa, se borra sola cuando vuelves a conducir y está pensada para integrarse con CarPlay, Bluetooth o USB. Es un cambio pequeño en apariencia, pero muy práctico en el día a día. ¿Por qué ha tardado tanto en llegar y por qué solo está disponible en iOS?Funciona sola… pero deja fuera a millones de usuarios Android.Vamos a explicar qué está pasando. Google Maps en iOS empezó a activar hace unas semanas una función que reconoce cuándo llegas en coche a un lugar y cuándo apagas el motor. En ese momento, la app guarda automáticamente la ubicación del vehículo y coloca un pin en el mapa. Ese pin permanece visible durante cuarenta y ocho horas. Si antes de ese tiempo vuelves a conducir, el pin desaparece sin que hagas nada. Todo ocurre de forma automática.Para que funcione, el iPhone debe estar conectado al coche por CarPlay, Bluetooth o cable USB. No hace falta usar el botón manual de “guardar aparcamiento” que Google Maps ya tenía desde hace años. Ahora el sistema actúa por contexto, entendiendo el inicio y el final del trayecto. Es una función pensada para la vida real, para despistes cotidianos y para lugares grandes como parkings, hospitales o aeropuertos.Aquí aparece la tensión. Esta función solo está activa en Google Maps para iOS. En Android, el sistema sigue siendo manual. El usuario debe guardar el lugar y borrar el pin por su cuenta. Esto ha generado muchas preguntas, sobre todo porque Android es la plataforma principal de Google.Además, aunque el sistema guarda la ubicación horizontal del coche, no indica el piso o nivel en un parking de varias plantas. Eso significa que en parkings grandes todavía toca fijarse en columnas, colores o señales. Algunos usuarios también se preguntan qué datos usa Google para detectar el aparcamiento y si esto afecta a la privacidad. Google explica que el pin se elimina automáticamente y que la ubicación no queda guardada de forma permanente. Aun así, la diferencia entre iOS y Android deja una sensación rara de funciones desiguales dentro del mismo ecosistema.Google ha ido afinando esta función poco a poco. Primero activó el guardado automático del aparcamiento. Luego añadió un detalle visual: si usas un icono personalizado de coche en Google Maps, ese mismo icono aparece marcando el lugar donde aparcaste, en vez del clásico símbolo con la letra P.Los iconos personalizados existen desde dos mil veinte, y este año Google añadió nuevos modelos y colores. Ahora ese detalle se convierte en parte del sistema de aparcamiento. No cambia la navegación, pero hace la experiencia más clara y más humana.En comparación, Apple Maps lleva años ofreciendo detección automática del aparcamiento en iPhone. Google llega más tarde, pero lo hace integrado con su propia app y con una lógica simple: entras al coche, conduces, aparcas, te bajas, y el mapa se encarga del resto. No hay menús, no hay recordatorios, no hay pasos extra.Este tipo de funciones forma parte de una tendencia más amplia: apps que entienden el contexto sin que el usuario tenga que pedirlo. Google Maps ya hace algo parecido al detectar si vas caminando, en bici o en transporte público. El aparcamiento automático encaja en esa misma idea.También hay una comparación interesante con AirTag y otros sistemas de rastreo. Aquí no hay accesorios extra ni hardware adicional. Todo depende del teléfono, del coche y del comportamiento de uso.Por ahora, Google no ha dicho cuándo llegará esta función automática a Android. En Android Auto existe un botón para guardar el aparcamiento, pero sigue siendo manual. Eso deja abierta una pregunta clara: ¿es una limitación técnica o una decisión de producto? Mientras tanto, en iPhone la función ya está activa por defecto en muchos dispositivos, sin anuncios grandes ni actualizaciones visibles. Simplemente aparece un día… y funciona.Google Maps ahora recuerda automáticamente dónde aparcas si usas iPhone y conectas el coche. El pin se borra solo al volver a conducir. Es práctico, discreto y muy fácil de usar. La gran duda es cuándo llegará a Android. Cuéntame si ya lo viste activo en tu móvil y sigue Flash Diario en Spotify para más historias así.Google Maps en iPhone ahora guarda solo dónde aparcas, borra el pin al conducir y deja a Android esperando.📚 BibliografíaMacRumorsExtremeTech9to5GoogleMashablePCMagConviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 
NASA perdió contacto con MAVEN, sonda clave para estudiar Marte y comunicar rovers. Buscan recuperarla para evitar impacto en futuras misionesPor Félix Riaño @LocutorCo  NASA confirmó que la sonda MAVEN dejó de comunicarse con la Tierra durante un paso orbital detrás de Marte. La señal nunca volvió, pese a que todo funcionaba bien antes del ocultamiento. MAVEN llevaba más de una década estudiando la atmósfera marciana y trabajando como enlace de comunicaciones para los rovers Curiosity y Perseverance. Ahora los equipos en la Tierra buscan recuperar el contacto y entender lo que pasó, porque la misión es vital para la ciencia y para las operaciones activas en el planeta rojo. ¿Qué implica este silencio inesperado para el presente y el futuro de Marte?  MAVEN es una sonda que llevaba once años en órbita marciana. Llegó en 2014 y desde entonces ayudó a entender cómo Marte perdió su atmósfera, cómo interactúa con el viento solar y cómo esos procesos transformaron al planeta en un mundo frío y seco. También era parte del sistema que transporta datos desde la superficie marciana hasta la Tierra, un rol que permitía que fotos, mediciones y avances científicos llegaran a nuestros laboratorios. El 6 de diciembre, MAVEN cruzó detrás de Marte en una maniobra rutinaria. Antes de perderse de vista, sus datos mostraban un funcionamiento estable, sin señales de anomalías. Pero al salir del lado opuesto, el silencio fue total. NASA no recibió ni un pulso de telemetría. Ese hecho genera inquietud, porque afecta observaciones científicas y comunicaciones. Además, recuerda la fragilidad de una flota envejecida que mantiene activa la exploración marciana.  El silencio de MAVEN llega en un momento en el que la red de orbitadores de NASA ya está bajo presión. Mars Odyssey lleva más de veinte años y se espera que agote su combustible pronto. El Mars Reconnaissance Orbiter también supera la década y media de operación, con instrumentos que han dado señales de desgaste. La Agencia Espacial Europea aporta dos naves, Mars Express y el Trace Gas Orbiter, pero también están cumpliendo ciclos de vida extendidos. Cada una cubre turnos de comunicación para los rovers, y si una falla, la carga aumenta en las demás. MAVEN aportaba una ventaja especial: su órbita alta permitía relays más largos, lo que resolvía grandes cantidades de datos en menos tiempo. Perder ese enlace significa una reducción inmediata en la capacidad de transmitir ciencia desde la superficie marciana. También complica la logística de futuras misiones como el programa para traer a la Tierra las muestras recogidas por Perseverance. Y para completar el panorama, NASA aún no ha logrado definir ni lanzar un nuevo orbitador de comunicaciones, pese a que lleva dos décadas intentándolo.  Los equipos en la Tierra estudian telemetrías previas al apagón y la última posición calculada para modelar hipótesis. Buscan señales débiles en el Deep Space Network, una red de antenas gigantes ubicadas en España, Estados Unidos y Australia. Esta red rastrea sondas a miles de millones de kilómetros y es la única capaz de recuperar un rastro diminuto que permita reconstruir la orientación o estado energético de MAVEN. La prioridad es determinar si la nave entró en un modo de seguridad, si perdió actitud, si hubo un fallo en la antena o si ocurrió un problema más profundo en sus sistemas. Recordemos que en 2022 MAVEN pasó tres meses en modo seguro por fallas en sus giróscopos y fue necesario reescribir su software de orientación. Ese antecedente mantiene viva la esperanza de que el equipo logre reactivarla. NASA también estudia acelerar el desarrollo del futuro orbitador de telecomunicaciones, un proyecto que por fin recibió financiación de 700 millones de dólares. Blue Origin y Rocket Lab ya han presentado ideas para cumplir ese rol. Mientras tanto, las demás naves seguirán absorbiendo más carga de comunicaciones para que Curiosity y Perseverance no queden aislados.  MAVEN aportó descubrimientos esenciales. En 2023 entregó imágenes de Marte en luz ultravioleta, mostrando detalles de su atmósfera como si fueran señales químicas en movimiento. También reveló el mecanismo de “sputtering”, un proceso físico mediante el cual partículas energéticas arrancan átomos de la atmósfera, contribuyendo a la desaparición del aire del planeta. Identificó además una aurora de protones, un fenómeno que no aparece en la Tierra y que se produce cuando el viento solar interactúa con el hidrógeno atmosférico. Sus mediciones permitieron reconstruir el pasado de un Marte que pudo tener mares extensos. MAVEN es parte de las piezas que llevaron a los científicos a concluir que el Sol fue el responsable de la perdida atmosférica que transformó un planeta húmedo en uno seco. También fue un actor clave para elegir rutas seguras y zonas de aterrizaje para futuras misiones robóticas y tripuladas. Su rol de puente entre superficie y Tierra se volvió más importante con Perseverance, que está almacenando tubos con rocas que algún día viajarán a la Tierra. El silencio de MAVEN no significa el fin inmediato de esta cadena, pero sí obliga a reorganizar todo el sistema.  MAVEN dejó de comunicarse después de una década aportando ciencia y comunicaciones vitales desde Marte. NASA trabaja para recuperar su señal y mantener operativa la red que sostiene a Curiosity, Perseverance y futuras misiones. Te invito a seguir pensando en cómo cuidamos estas naves que mantienen viva nuestra ventana al planeta rojo. Sigue el pódcast Flash Diario.  BibliografíaScienceAlertScientific AmericanNASA ScienceABC NewsPBS NewsHourArs TechnicaThe Guardian  Conviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 
Adobe integra Photoshop, Express y Acrobat en ChatGPT para editar fotos, diseños y PDF dentro del chat    Por Félix Riaño @LocutorCo  Adobe abrió la puerta para que cualquier persona pueda editar fotos, diseñar piezas gráficas y ajustar documentos PDF dentro de ChatGPT. Esta integración funciona con herramientas reales de Photoshop, Adobe Express y Acrobat, usadas durante décadas en la industria creativa. Desde hoy, los usuarios van a poder pedirle al chat que borre fondos, mejore la iluminación de una imagen, arme invitaciones con plantillas profesionales o combine varios archivos PDF sin cambiar de aplicación. Con este movimiento, Adobe se acerca a las personas que aún no usan sus programas y convierte a ChatGPT en un espacio de trabajo creativo accesible. ¿Qué implica esto para el futuro de la edición digital?  Adobe anunció que Photoshop, Express y Acrobat ya funcionan dentro de ChatGPT a nivel global. Las tres herramientas aparecen como aplicaciones integradas, listas para ejecutar acciones con instrucciones habladas o escritas. Photoshop permite ajustar brillo, contraste, exposición y efectos creativos; además edita zonas específicas de una foto sin perder calidad. Express facilita la creación de piezas como invitaciones, afiches y publicaciones para redes sociales, usando plantillas listas para personalizar. Acrobat ayuda a reorganizar páginas, extraer tablas, editar texto, convertir formatos y hasta unir varios PDF. Todo esto sucede en el mismo chat, donde los controles se muestran como barras deslizantes fáciles de manejar.  La llegada de estas herramientas crea un escenario nuevo. ChatGPT ofrece sus propios sistemas para generar imágenes, pero muchos usuarios pedían ajustes más precisos. Adobe, por su parte, buscaba acercarse a un público más amplio que siente que sus programas son complejos. Ahora surge un reto: varias aplicaciones de edición también existen dentro del chat. Canva ya estaba presente. Gemini de Google también ofrece edición. Esto crea competencia directa dentro de la misma ventana de conversación. Para los usuarios, la opción más cómoda será la que responda mejor a su necesidad del momento. Para Adobe, la apuesta es fortalecer su ecosistema y ganar confianza con personas que nunca abrieron Photoshop o Acrobat.  Adobe diseñó esta integración usando el Modelo de Contexto (MCP), el mismo sistema que permite conectar apps externas con ChatGPT. La novedad más llamativa está en Photoshop, que adapta los controles según la instrucción del usuario. Si se pide aclarar una foto, aparecen controles de exposición. Si se busca un efecto, aparecen opciones como tritono o glitch. En Express, todo el proyecto se puede editar sin salir del chat. Y en Acrobat, la edición respeta el formato original del documento, algo muy difícil de lograr con editores genéricos. Adobe ofrece estas funciones gratis dentro de ChatGPT, pero mantiene sus aplicaciones completas para quienes necesitan trabajos avanzados.  Adobe trabaja desde hace dos años en sistemas de IA conversacional dentro de sus programas. Llamó a esta línea de trabajo “agentes creativos”. Express ya tenía un asistente que proponía diseños y animaciones. Photoshop estaba probando una versión beta de un asistente que interpreta instrucciones habladas. Y Firefly, su modelo de generación de imágenes, prepara una herramienta que conectará varias apps entre sí. Con estas integraciones, Adobe entra en un espacio que OpenAI quiere convertir en el “sistema operativo” de las aplicaciones del día a día. Las empresas empiezan a competir por el mismo lugar dentro del chat, lo que va a cambiar la forma en que usamos programas tradicionales.  Adobe trae Photoshop, Express y Acrobat directamente a ChatGPT y convierte el chat en un espacio creativo completo. Desde ajustar fotos hasta armar diseños y editar PDF, todo se hace con instrucciones simples. Si te interesa cómo la IA cambia las herramientas de trabajo, te invito a seguir Flash Diario  Photoshop, Express y Acrobat llegan a ChatGPT. Ahora puedes editar fotos, diseños y PDF gratis usando instrucciones dentro del chat.   BibliografíaTechCrunchThe Wall Street JournalEngadgetThe VergeCNETAdobe Newsroom Conviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 
Regreso Soyuz MS-27

Regreso Soyuz MS-27

2025-12-1006:26

Tres tripulantes regresan desde la Estación Espacial Internacional tras ocho meses de ciencia en órbita terrestreLa Soyuz MS-27 aterrizó en Kazajistán con Jonny Kim, Sergey Ryzhikov y Alexey Zubritsky tras una misión de 245 días, más de 3.900 órbitas y cientos de experimentos científicos.  Por Félix Riaño @LocutorCo  Tres viajeros espaciales regresaron a la Tierra después de ocho meses en la Estación Espacial Internacional. La Soyuz MS-27 aterrizó en la estepa de Kazajistán bajo nieve ligera, con el equipo de rescate listo para apoyar a los astronautas y cosmonautas. Jonny Kim, Sergey Ryzhikov y Alexey Zubritsky completaron una misión intensa que incluyó experimentos científicos, caminatas espaciales, mantenimiento y coordinación con nuevas tripulaciones. La escena del aterrizaje mostró la dureza del clima y la precisión de la operación. ¿Qué aprendió este equipo durante sus 245 días en órbita y cómo cambia esto lo que sabemos sobre vivir y trabajar en el espacio?  Un regreso largo recuerda que cada misión termina con nuevos desafíos   La Soyuz MS-27 inició la maniobra de regreso después de separarse con cuidado del módulo Prichal. Jonny Kim, Sergey Ryzhikov y Alexey Zubritsky revisaron sistemas, aseguraron equipos y se prepararon para las horas más intensas del viaje. La nave debía seguir una ruta precisa hacia la atmósfera para lograr un aterrizaje estable en la estepa de Kazajistán. Durante la bajada aparecieron temperaturas muy altas, controladas por el escudo térmico. En tierra, los equipos de rescate avanzaron por la nieve para llegar rápido a la cápsula. Este proceso es parte central de cada misión y depende de la coordinación entre las personas en órbita y en superficie.  Volver de la órbita baja es un reto físico y técnico. La cápsula debe frenar en el punto exacto para evitar desvíos peligrosos. Al entrar en la atmósfera, la tripulación enfrenta fuerzas que afectan músculos y equilibrio después de tantos meses sin gravedad. Por eso, al aterrizar, los equipos abren la escotilla con rapidez y sientan a cada persona para una revisión inicial. Zubritsky necesitó asistencia médica inmediata. Kim y Ryzhikov pasaron por controles breves antes de continuar el protocolo. Estos pasos permiten evaluar su estado y entender cómo reacciona el cuerpo en un regreso tan largo.  En la nieve ocurrió un gesto que une tradición y trabajo en equipo: Ryzhikov firmó la cápsula quemada como parte de una costumbre espacial.   El aterrizaje ocurrió a las 12:03 a.m. EST, con la cápsula inclinada sobre la nieve. Kim recibió una muñeca matrioshka con su rostro, un detalle que refleja camaradería entre agencias. Después de los chequeos iniciales, los tres viajaron a Karaganda para continuar la recuperación. Kim seguiría hacia Houston y los cosmonautas hacia la Ciudad de las Estrellas. Durante la misión, Kim avanzó en estudios médicos y tecnológicos, mientras Ryzhikov y Zubritsky completaron tareas externas y mantenimiento del segmento ruso. El equilibrio entre sus funciones mantuvo activa la estación y permitió completar experimentos clave. Sus datos ayudan ahora a preparar próximas misiones hacia la Luna y Marte.  La Soyuz MS-27 forma parte de una línea de naves que Rusia usa desde hace décadas. Su diseño permite un descenso firme incluso con clima difícil. La tripulación completó 3.920 órbitas y viajó casi 167 millones de kilómetros. La misión coincidió con el aniversario de Gemini 7, un recordatorio del avance en vuelos largos. Los experimentos incluyeron tejidos bioprintados, control remoto de robots y materiales especiales para medicina. Estos estudios apoyan programas como Artemis y la llegada de nuevas estaciones comerciales. La Expedición 74 ya continúa el trabajo con astronautas de varias agencias.  La Soyuz MS-27 cerró una misión de ocho meses con un regreso preciso y lleno de ciencia. Kim, Ryzhikov y Zubritsky aportaron estudios médicos, pruebas tecnológicas y tareas externas esenciales. Ahora empieza su recuperación en tierra. Si quieres seguir estas historias del espacio, escucha Flash Diario  La Soyuz MS-27 volvió con Kim, Ryzhikov y Zubritsky tras 245 días de ciencia en la estación y un regreso nevado.  BibliografíaYahoo NewsC-SPANSignalsAZThe Times of Central AsiaSpaceflight NowBBCSpace.comNASA Conviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters. 
loading
Comments (2)

Annakaye Bennett

💚WATCH>>ᗪOᗯᑎᒪOᗩᗪ>>👉https://co.fastmovies.org

Jan 15th
Reply

Annakaye Bennett

🔴WATCH>>ᗪOᗯᑎᒪOᗩᗪ>>👉https://co.fastmovies.org

Jan 15th
Reply