Discover
FLASH DIARIO de El Siglo 21 es Hoy
FLASH DIARIO de El Siglo 21 es Hoy
Author: @LocutorCo
Subscribed: 26Played: 1,605Subscribe
Share
© @LocutorCo
Description
Noticias de ciencia y tecnología en Flash Diario, de El Siglo 21 es Hoy.
Este es el pódcast informativo que te mantiene al día con las noticias más relevantes del mundo tecnológico y científico. ¡En 5 minutos!
Noticias de tecnología, noticias de ciencia, noticias de entretenimiento digital. Y también noticias de economía digital. Es un producto informativo de ElSiglo21esHoy.com
Cada episodio de Flash Diario te ofrece una dosis diaria de noticias de actualidad en formato breve y conciso, presentando las noticias más importantes en diferentes ámbitos como la tecnología, la ciencia, la cultura y la sociedad. Con Flash Diario no tienes que preocuparte por perderte ninguna novedad o avance importante en tu día a día.
En 5 minutos (promedio) te ofrecemos la información más relevante de manera clara y precisa, para que puedas estar al tanto de lo que sucede en el mundo sin perder tiempo ni detalles.
Flash Diario es el compañero perfecto para las personas que quieren estar al tanto de las últimas noticias pero no tienen tiempo para seguir programas más largos y detallados.
Con Flash Diario estarás siempre actualizado, informado y preparado para cualquier conversación o situación que se presente. ¡Suscríbete ahora y no te pierdas ni un solo flash informativo!
Suscríbete gratis en:
➜ YouTube: https://bit.ly/FlashDiario
➜ Spotify: https://spoti.fi/3MRBhwH
➜ Apple Podcasts: https://apple.co/3BR7AWe
Conviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.
Este es el pódcast informativo que te mantiene al día con las noticias más relevantes del mundo tecnológico y científico. ¡En 5 minutos!
Noticias de tecnología, noticias de ciencia, noticias de entretenimiento digital. Y también noticias de economía digital. Es un producto informativo de ElSiglo21esHoy.com
Cada episodio de Flash Diario te ofrece una dosis diaria de noticias de actualidad en formato breve y conciso, presentando las noticias más importantes en diferentes ámbitos como la tecnología, la ciencia, la cultura y la sociedad. Con Flash Diario no tienes que preocuparte por perderte ninguna novedad o avance importante en tu día a día.
En 5 minutos (promedio) te ofrecemos la información más relevante de manera clara y precisa, para que puedas estar al tanto de lo que sucede en el mundo sin perder tiempo ni detalles.
Flash Diario es el compañero perfecto para las personas que quieren estar al tanto de las últimas noticias pero no tienen tiempo para seguir programas más largos y detallados.
Con Flash Diario estarás siempre actualizado, informado y preparado para cualquier conversación o situación que se presente. ¡Suscríbete ahora y no te pierdas ni un solo flash informativo!
Suscríbete gratis en:
➜ YouTube: https://bit.ly/FlashDiario
➜ Spotify: https://spoti.fi/3MRBhwH
➜ Apple Podcasts: https://apple.co/3BR7AWe
Conviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.
805 Episodes
Reverse
Un radiotelescopio en Sudáfrica detectó un “láser espacial” producido por dos galaxias en colisión a ocho mil millones de años luzPor Félix Riaño @LocutorCoDesde el desierto del Karoo, en Sudáfrica, un conjunto de radiotelescopios está mirando el universo con tanta sensibilidad que acaba de detectar algo que parece sacado de la ciencia ficción: un gigantesco “láser cósmico”. Pero no es ficción. Es un fenómeno real llamado gigamaser, una señal de microondas extremadamente potente producida por la colisión de galaxias.El hallazgo ocurrió gracias al radiotelescopio MeerKAT, formado por 64 antenas gigantes que trabajan juntas como si fueran un solo telescopio. Los astrónomos detectaron una señal procedente del sistema HATLAS J142935.3–002836, ubicado a unos 8 000 millones de años luz de la Tierra.Eso significa que la señal salió cuando el universo tenía menos de la mitad de su edad actual.Los investigadores describen el fenómeno como el equivalente en radio de un láser gigantesco que atraviesa el cosmos. Pero aquí viene la pregunta que despierta la curiosidad:¿cómo puede un “láser espacial” viajar durante ocho mil millones de años y todavía ser visible desde la Tierra?Un láser cósmico… pero no exactamente como los de las películasPrimero aclaremos algo importante: esto no es un láser como el que usa un lector de código de barras o un puntero de presentación. En astronomía existe un fenómeno parecido llamado maser.La palabra maser viene de una sigla en inglés que significa “amplificación de microondas por emisión estimulada de radiación”. En lugar de luz visible, el proceso amplifica microondas, una forma de radiación electromagnética que los radiotelescopios pueden detectar.Este tipo de señal ocurre cuando ciertas moléculas de gas, como el hidroxilo, reciben energía en entornos muy violentos del universo. Por ejemplo, cuando dos galaxias chocan.En esas colisiones gigantescas, enormes nubes de gas se comprimen. Esa presión puede excitar moléculas que comienzan a emitir microondas en una frecuencia muy específica. Cuando muchas moléculas hacen lo mismo al mismo tiempo, la señal se amplifica enormemente.Eso produce un megamaser.Y cuando la emisión es aún más intensa, los astrónomos hablan de gigamaser.Eso es exactamente lo que detectó MeerKAT.Detectar un objeto tan lejano no es fácil. De hecho, normalmente sería casi imposible.Las señales que viajan por el universo durante miles de millones de años suelen debilitarse tanto que desaparecen en el ruido del espacio. Es como intentar escuchar un susurro desde el otro lado de un estadio lleno de gente.Entonces, ¿por qué este “láser cósmico” sí pudo detectarse?La respuesta tiene que ver con una coincidencia cósmica muy especial.Entre la Tierra y las galaxias que producen el gigamaser hay otra galaxia situada justo en la línea de visión. Su enorme masa curva el espacio-tiempo.Ese efecto fue descrito por Albert Einstein hace más de un siglo y se llama lente gravitacional.Cuando ocurre, la gravedad de una galaxia actúa como una lupa cósmica. No crea luz nueva, pero amplifica la luz que viene desde detrás.En este caso, esa “lupa” aumentó la intensidad de la señal entre ocho y diez veces antes de que llegara a nuestros radiotelescopios.Sin esa alineación perfecta, probablemente nadie habría detectado el gigamaser.El descubrimiento no es importante solo por el récord de distancia.También demuestra algo que está cambiando el mapa de la astronomía mundial.Durante décadas, la mayoría de observatorios influyentes estaban en Europa, Estados Unidos o Australia. Pero ahora África está entrando con fuerza en la exploración del universo.El radiotelescopio MeerKAT es una de las infraestructuras científicas más potentes del planeta para observar el cielo en radio. Está formado por 64 antenas parabólicas, cada una de 13,5 metros de diámetro, que trabajan juntas mediante procesamiento digital avanzado.Cuando todos los datos se combinan, el sistema actúa como un telescopio gigante capaz de detectar señales extremadamente débiles.MeerKAT también es un paso previo a un proyecto aún más grande: el Square Kilometre Array, un radiotelescopio internacional que se está construyendo entre Sudáfrica y Australia.Cuando esté completo, será el observatorio de radio más sensible de la historia.Los científicos esperan que ese sistema permita detectar cientos o miles de gigamasers en galaxias lejanas.Eso podría convertirse en una herramienta poderosa para estudiar cómo se formaban las galaxias cuando el universo era joven.El hallazgo del gigamaser forma parte de una tendencia más amplia: la astronomía africana está creciendo rápidamente.Además de MeerKAT, el continente cuenta con otros proyectos relevantes.Uno de ellos es el Southern African Large Telescope, conocido como SALT, el telescopio óptico más grande del hemisferio sur. Este observatorio trabaja cerca de la localidad de Sutherland, en Sudáfrica.Su tarea será estudiar explosiones estelares, fusiones de estrellas de neutrones y otros fenómenos violentos del universo.También hay proyectos en otros países africanos. En Ghana, por ejemplo, una antigua antena satelital de 32 metros de diámetro se transformó en un radiotelescopio científico que ahora participa en redes internacionales de observación.Este tipo de redes permite que telescopios ubicados en diferentes continentes trabajen como un solo instrumento gigantesco.El crecimiento de estos proyectos también está formando nuevas generaciones de científicos africanos.Programas educativos y colaboraciones internacionales ya han entrenado a cientos de ingenieros, astrónomos y especialistas en análisis de datos.Eso significa que África no está participando solo como sede de telescopios, sino como protagonista del conocimiento científico que producenUn telescopio africano detectó el gigamaser más lejano jamás observado, una señal de microondas producida por galaxias en colisión a ocho mil millones de años luz. Este descubrimiento muestra cómo nuevos observatorios están cambiando la astronomía mundial.Si te gusta entender el universo de forma sencilla, sigue el pódcast Flash Diario en Spotify y suscríbete también en YouTube para escuchar más historias del cosmos.BibliografíaThe Independent UgandaMetroEarth.comThe Daily Galaxy<Conviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters.
Google Maps ahora responde preguntas: la IA Gemini cambia el mapa que usas todos los días Por Félix Riaño @LocutorCoGoogle Maps acaba de recibir la actualización más grande de su sistema de navegación en más de diez años. Y el cambio va mucho más allá de un nuevo diseño. A partir de ahora, el mapa puede responder preguntas, sugerir lugares y mostrar la ciudad en tres dimensiones mientras conduces. Todo gracias a la integración de la inteligencia artificial Gemini. Curiosamente, esta transformación ya se había anticipado hace algunos años en el pódcast El Siglo 21 es Hoy. En el episodio “Mapas para descubrir el mundo”, publicado en 2022, se explicaba cómo los mapas digitales estaban dejando de ser simples representaciones del territorio para convertirse en sistemas vivos llenos de datos. Puedes escucharlo aquí: Mapas para descubrir el mundohttps://www.spreaker.com/episode/mapas-para-descubrir-el-mundo--51073058En ese episodio se planteaba una idea que hoy parece casi profética: Antes nosotros mirábamos el mapa.Ahora el mapa gira alrededor de nosotros gracias al GPS del teléfono. La actualización que Google acaba de lanzar parece llevar ese concepto todavía más lejos.El nuevo botón de Google Maps que responde preguntas La función más llamativa se llama Ask Maps. Es un nuevo botón dentro de Google Maps que permite hacer preguntas al mapa como si fuera un chatbot. En lugar de buscar palabras sueltas, ahora puedes escribir algo como: “¿Dónde puedo cargar mi teléfono sin tener que hacer fila para comprar café?” O incluso algo más complejo: “Mis amigos vienen después del trabajo. ¿Qué restaurante tranquilo hay a mitad de camino entre nosotros cuatro?” Google Maps usa su enorme base de datos para responder. Según explicó Google en su anuncio oficial, el sistema analiza información de más de 300 millones de lugares y reseñas aportadas por más de 500 millones de personas. El objetivo es encontrar recomendaciones útiles sin tener que revisar decenas de comentarios. Puedes leer el anuncio completo aquí: Google BlogGoogle Maps ahora muestra el mundo en 3D La segunda gran novedad se llama Immersive Navigation. Hasta ahora Google Maps mostraba el mundo en una vista bastante plana. Con esta actualización la aplicación presenta una vista tridimensional mucho más realista. En el mapa aparecen elementos como:edificiospuentes elevadoscarrilessemáforospasos peatonalesseñales de tráficoTodo se resalta automáticamente cuando se acerca una maniobra importante. Google también cambió la forma en que da instrucciones de voz. En lugar de frases rígidas como “gire en 200 metros”, ahora puede decir algo como: “Pasa esta salida y toma la siguiente”. La idea es que la navegación se parezca más a las indicaciones de un copiloto humano. Medios especializados como Ars Technica explican que este rediseño es el mayor cambio en navegación desde hace más de una década. Ars TechnicaGoogle Maps tiene más de 2.000 millones de usuarios Google Maps es hoy el servicio de navegación más usado del planeta. La aplicación tiene más de 2.000 millones de usuarios mensuales. Eso significa que cualquier cambio en su funcionamiento puede influir directamente en millones de decisiones diarias. Con funciones como Ask Maps, el mapa deja de ser solo una herramienta para llegar a un sitio. Empieza a influir en dónde decides ir. Eso tiene consecuencias importantes para restaurantes, tiendas y negocios locales. Según CNBC, Google dice que por ahora Ask Maps no incluirá anuncios pagados dentro de las recomendaciones. Pero tampoco descarta que esa posibilidad aparezca en el futuro. CNBCSi eso ocurre, el mapa podría convertirse en una enorme guía comercial personalizada. El problema incómodo de la inteligencia artificial Las inteligencias artificiales generativas tienen un defecto conocido. A veces inventan información. En la industria tecnológica a ese fenómeno se le llama alucinación. Google dice que ha creado sistemas de control para evitar que Gemini invente lugares que no existen. Pero la prueba real llegará cuando millones de personas empiecen a usar el sistema todos los días.Cuándo llegará esta actualización Google empezó a lanzar estas funciones el 12 de marzo de 2026.El despliegue será gradual. Primero llegará a:Estados UnidosIndiaDespués se expandirá a otros países y dispositivos:AndroidiPhoneAndroid AutoApple CarPlaycoches con Google integradoLa gran pregunta Si el mapa puede responder preguntas, sugerir planes y mostrar el mundo en 3D… ¿hasta qué punto seguirá siendo solo un mapa?Escucha más historias sobre tecnología Flash DiarioTecnología, ciencia y cultura digital explicadas cada día.Conviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters.
Microsoft revela Project Helix, su próxima consola Xbox, que unirá juegos de PC y consola con gráficos avanzadosPor Félix Riaño @LocutorCoMicrosoft comenzó a contar cómo será su próxima consola Xbox, llamada Project Helix, diseñada para unir videojuegos de PC y consola.Microsoft ya está preparando la próxima generación de Xbox. Su nombre interno es Project Helix, y aunque todavía faltan varios años para verla en las tiendas, ya conocemos algunos detalles técnicos que ayudan a entender hacia dónde va el futuro de los videojuegos.El anuncio ocurrió durante la Game Developers Conference 2026, un gran encuentro mundial donde desarrolladores de videojuegos y empresas tecnológicas comparten sus avances. Allí, Jason Ronald, vicepresidente de próxima generación en Xbox, explicó que Microsoft comenzará a enviar versiones tempranas de la consola a estudios de videojuegos en 2027 para que puedan empezar a crear juegos compatibles.Estas versiones tempranas se llaman devkits, abreviatura de “development kits”. Son consolas de prueba que permiten a los estudios preparar sus juegos antes de que el producto final llegue al público.Pero lo más interesante es el objetivo del proyecto. Unir el mundo de las consolas Xbox con el de los computadores personales. La pregunta es inevitable. ¿Estamos ante una consola tradicional o ante algo más parecido a un PC diseñado para jugar?Pero la nueva Xbox quiere romper la frontera entre consola y PC.Project Helix es el nombre clave de la próxima consola Xbox, sucesora de la actual generación formada por Xbox Series X y Xbox Series S, lanzadas en el año 2020.La gran diferencia es que Microsoft quiere cambiar la forma en que pensamos las consolas. Durante décadas, las consolas y los computadores han sido dos mundos separados. En una consola compras el hardware específico y juegas títulos diseñados para esa máquina. En un computador puedes instalar juegos desde muchas tiendas y ajustar el hardware.Microsoft quiere acercar esos dos universos.Según explicó Jason Ronald en la conferencia para desarrolladores, Project Helix será capaz de ejecutar juegos de consola Xbox y juegos de PC. Esto significa que la misma máquina podría acceder a experiencias que hoy están separadas.Para lograrlo, Microsoft está trabajando con la empresa AMD, fabricante de procesadores y tarjetas gráficas. Juntas están diseñando un chip personalizado, llamado SoC o “system on a chip”. Este tipo de chip integra varios componentes en una sola pieza, como el procesador central, el procesador gráfico y sistemas de inteligencia artificial.Ese chip permitirá aplicar nuevas técnicas gráficas que buscan que los videojuegos se vean más realistas que nunca.El gran reto de la industria del videojuego es que los gráficos cada vez son más complejos.Los desarrolladores quieren crear mundos más detallados, con iluminación realista, reflejos naturales y animaciones más fluidas. Pero todo eso requiere una enorme cantidad de cálculos por segundo.Una de las tecnologías más exigentes se llama ray tracing, o trazado de rayos. Es un método que simula el comportamiento real de la luz. Permite que los reflejos en un espejo, el brillo del agua o la iluminación de una habitación se vean como en la vida real.El problema es que calcular esos efectos exige mucha potencia. Incluso las consolas actuales tienen límites cuando usan estas técnicas.Microsoft dice que Project Helix ofrecerá un salto enorme en rendimiento de ray tracing. Esto permitiría escenarios más realistas y dinámicos.Además, la consola usará técnicas de aprendizaje automático, es decir, inteligencia artificial entrenada para mejorar gráficos.Por ejemplo, una técnica llamada upscaling con aprendizaje automático permite generar imágenes de mayor resolución a partir de imágenes más pequeñas. Otra llamada generación de cuadros adicionales crea nuevos fotogramas intermedios para que el movimiento se vea más fluido.Todo esto apunta a un objetivo. Que los videojuegos tengan mundos más complejos sin sacrificar rendimiento.Aunque los detalles técnicos son prometedores, todavía falta camino.Microsoft comenzará a enviar las primeras versiones de prueba de Project Helix a desarrolladores en 2027. Eso significa que los estudios podrán empezar a crear juegos para esta nueva generación de hardware varios años antes de que llegue al público.Este proceso es normal en la industria. Cuando un estudio recibe un devkit puede probar nuevas herramientas, optimizar gráficos y asegurarse de que sus juegos funcionen bien cuando la consola se lance oficialmente.También sabemos que Microsoft quiere mantener una de las características que ha hecho popular a Xbox en los últimos años. La compatibilidad con juegos antiguos.La empresa afirma que los juegos de cuatro generaciones de Xbox seguirán funcionando.Esto incluye el programa Xbox Play Anywhere, que ya cuenta con más de 1.500 juegos que pueden jugarse tanto en consola como en PC con una sola compra.Al mismo tiempo, Microsoft está integrando más funciones de Xbox directamente en Windows. En algunos computadores comenzará a aparecer un modo Xbox en Windows 11, que permite usar el sistema con una interfaz optimizada para jugar con control.En otras palabras, la empresa está construyendo un ecosistema donde los juegos se mueven entre dispositivos. Consola, computador y nube.El anuncio de Project Helix también llega en un momento importante para Xbox.La marca cumple 25 años, y Microsoft quiere marcar el inicio de una nueva etapa. Durante los últimos años, las ventas de hardware Xbox han sido menores que las de sus competidores principales, Nintendo y Sony.Además, la división de videojuegos de Microsoft representa alrededor del 7 % de los ingresos totales de la empresa, según reportes financieros recientes.Por esa razón, la estrategia actual parece centrarse en ampliar el alcance del ecosistema Xbox más allá de una sola consola. Servicios como Xbox Game Pass, el juego en la nube y la compatibilidad con PC forman parte de esa estrategia.En ese contexto, Project Helix podría representar algo más que una consola nueva. Podría ser un intento de redefinir qué es una consola en el siglo XXI.Algunos analistas incluso sugieren que el precio de esta máquina podría ser elevado. Hay estimaciones que hablan de 900 dólares o más, aunque Microsoft todavía no ha confirmado ningún precio.Por ahora, lo que sabemos es que la empresa quiere crear una plataforma capaz de acompañar los próximos años del videojuego. Con gráficos más complejos, inteligencia artificial integrada y una conexión mucho más estrecha entre consola y computador.Project Helix es el proyecto de la próxima Xbox y busca unir los mundos de la consola y el PC. Todavía faltan años para verla en tiendas, pero el plan apunta a gráficos más realistas, inteligencia artificial integrada y juegos que funcionen en muchos dispositivos.Si te gusta entender cómo evoluciona la tecnología del entretenimiento, sigue el pódcast Flash Diario en Spotify.Bibliografía 📚EngadgetXbox NewsThe VergeCNBCGameSpotConviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters.
Miles de autores publican libro vacío para protestar por uso de obras en inteligencia artificialPor Félix Riaño @LocutorCoEn la Feria del Libro de Londres apareció un libro extraño. Tiene portada, tiene título, tiene autores muy famosos… pero casi no tiene texto.El libro se llama “Don’t Steal This Book”, que en español se puede entender como “No robes este libro”. Y detrás de ese título hay una protesta bastante seria.Cerca de 10.000 escritores firmaron el libro. Entre ellos aparece Kazuo Ishiguro, ganador del Premio Nobel de Literatura en 2017 y autor de novelas como Los restos del día. También están Alan Moore, creador de cómics muy influyentes como Watchmen y V for Vendetta, y Philippa Gregory, famosa por novelas históricas como The Other Boleyn Girl.A ellos se suman escritores populares como Richard Osman, conocido por la serie de novelas policiacas The Thursday Murder Club.Con tantos autores famosos uno esperaría una gran historia dentro del libro.Pero cuando lo abres…las páginas están casi vacías.Solo aparece una lista con los nombres de los autores que participan en la protesta.La pregunta que quieren provocar es simple:si la inteligencia artificial aprende leyendo libros sin permiso, ¿qué pasará con las personas que los escriben?Pero este libro vacío es en realidad un mensaje político.La idea del libro nació de Ed Newton-Rex, un compositor británico que también trabaja como activista por los derechos de autor en la era de la inteligencia artificial.Newton-Rex lleva varios años alertando sobre cómo las empresas tecnológicas entrenan sistemas de inteligencia artificial usando enormes cantidades de datos. Entre esos datos hay libros, artículos, música y obras artísticas.Muchas veces esos materiales se obtienen desde internet sin pedir permiso a quienes los crearon.Para llamar la atención sobre ese problema, Newton-Rex propuso algo muy simbólico: publicar un libro que representara el futuro que temen muchos escritores.Un libro vacío.El resultado fue “Don’t Steal This Book”, una obra que contiene una sola cosa: una lista con los nombres de los casi 10.000 autores que apoyan la protesta.Nada más.Ni cuentos.Ni capítulos.Ni ensayos.Las páginas están en blanco.Durante la Feria del Libro de Londres, que se celebra del 10 al 12 de marzo, los organizadores distribuyeron alrededor de 1.000 ejemplares gratuitos del libro a los asistentes.La idea es que la gente abra el libro y se haga una pregunta incómoda:¿qué pasaría con la literatura si los escritores no pudieran vivir de su trabajo?El origen de esta protesta está en un debate legal que ocurre ahora mismo en el Reino Unido.El gobierno británico estudia cambios en la ley de derechos de autor relacionados con el desarrollo de la inteligencia artificial.Las empresas que desarrollan estos sistemas necesitan enormes cantidades de información para entrenar sus modelos. Los chatbots, los generadores de imágenes o los asistentes digitales aprenden analizando millones de textos, fotografías y sonidos.Entre esos materiales hay libros protegidos por copyright.Una de las ideas discutidas en el Reino Unido consiste en permitir que las empresas de inteligencia artificial utilicen esos libros para entrenar modelos, incluso sin pedir permiso a los autores.En algunos casos se propone un sistema llamado “opt-out”.Eso significa que el material podría usarse automáticamente, a menos que el autor declare explícitamente que no quiere participar.Muchos escritores creen que ese sistema cambia completamente la lógica tradicional del copyright.Normalmente, una obra está protegida desde el momento en que se crea. Nadie puede copiarla o utilizarla sin autorización.Con el sistema de exclusión voluntaria, cada autor tendría que vigilar si su trabajo está siendo usado para entrenar modelos de inteligencia artificial.Además existe otro temor.Si una inteligencia artificial aprende leyendo miles de novelas, luego podría generar textos similares y competir en el mismo mercado editorial.Para algunos autores, eso significa enfrentarse a una máquina entrenada con su propio trabajo.La publicación de “Don’t Steal This Book” llega en un momento muy concreto del debate político.El gobierno del Reino Unido debe presentar un informe sobre el impacto económico de los cambios en la ley de copyright antes del 18 de marzo.Ese informe evaluará cómo equilibrar dos intereses muy grandes.Por un lado está la industria tecnológica, que quiere acceso a grandes cantidades de datos para desarrollar inteligencia artificial más potente.Por el otro está el sector creativo: escritores, músicos, artistas visuales y periodistas que dependen de los derechos de autor para poder vivir de su trabajo.Muchos autores no rechazan la inteligencia artificial. Lo que piden es algo bastante sencillo: que las empresas paguen por utilizar sus obras.De hecho, el mundo editorial ya está explorando modelos de licencias. Algunas organizaciones trabajan en sistemas que permitirían a las empresas de inteligencia artificial entrenar modelos con libros… pero pagando por ese acceso.En otras palabras, el debate no es si la inteligencia artificial debe existir.El debate es cómo se obtiene el conocimiento que permite que funcione.El libro vacío es una forma visual de advertir lo que podría pasar si los creadores dejan de recibir compensación por su trabajo.Esta protesta forma parte de una serie de acciones que el sector creativo ha organizado en los últimos años.En 2025, por ejemplo, más de 1.000 músicos publicaron un álbum con grabaciones de estudios de grabación vacíos. El proyecto se tituló “Is This What We Want?”.Entre quienes apoyaron esa iniciativa aparecieron nombres enormes de la música británica, como Paul McCartney, uno de los compositores más influyentes de la historia del pop, y Kate Bush, famosa por canciones como Running Up That Hill.La idea del álbum era parecida a la del libro vacío.Si las empresas de inteligencia artificial usan obras creativas sin compensar a quienes las producen, el resultado podría ser una industria cultural silenciosa.Mientras tanto, el conflicto también ha llegado a los tribunales.En uno de los casos más comentados, la empresa de inteligencia artificial Anthropic, creadora del chatbot Claude, aceptó pagar alrededor de 1.500 millones de dólares para resolver una demanda colectiva presentada por autores que acusaban a la empresa de usar copias pirateadas de sus libros para entrenar modelos.Al mismo tiempo, está surgiendo un nuevo mercado: el de las licencias de contenido para inteligencia artificial.Algunas editoriales ya negocian acuerdos para vender acceso legal a catálogos completos de libros. Eso permitiría entrenar modelos respetando los derechos de autor.En ese contexto, el libro “Don’t Steal This Book” funciona como una advertencia y como una invitación al debate.Las páginas están vacías.Pero el mensaje está bastante lleno.Un libro vacío firmado por miles de autores está provocando un debate global sobre inteligencia artificial y derechos de autor. Los escritores piden algo sencillo: que su trabajo no se utilice gratis para entrenar algoritmos.¿Qué opinas tú sobre este tema?Cuéntamelo y sigue el pódcast Flash Diario en Spotify.Miles de escritores publicaron un libro vacío para protestar contra inteligencia artificial entrenada con libros sin permiso ni pago.BibliografíaNDTVLiterary HubDownTheTubesEuronewsTürkiye TodayThe GuardianITV NewsGamereactorConviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters.
Grok no te protegeX estrenó un bloqueo para Grok, pero la función deja abiertas varias rutas para editar fotos ajenasPor Félix Riaño @LocutorCoX activó en iPhone una opción para bloquear ediciones de Grok sobre fotos subidas a la red. El problema es que ese bloqueo apenas tapa una puerta. Según pruebas publicadas por The Verge, la función impide que otras personas llamen a @Grok dentro de una respuesta para editar una imagen, pero no evita que esa misma foto se abra en Grok por otras vías dentro de la app o después de guardarla y volverla a subir. La herramienta apareció sin anuncio oficial y, por ahora, su alcance real sigue siendo limitado.X quiere dar la impresión de que escuchó las quejas. La red social agregó una opción que suena tranquilizadora: “bloquear modificaciones por Grok”. Dicho así, parece una barrera seria para cuidar las fotos que compartes. Pero cuando uno mira la letra pequeña, la historia cambia. La función apenas evita una forma concreta de pedirle a Grok que altere una imagen: etiquetar a @Grok en una respuesta dentro de X. Y ya. Nada más. Si alguien mantiene pulsada la foto desde la app de X en iPhone, todavía puede abrir la opción para editarla con Grok. También puede guardar la imagen, volverla a publicar y pedir cambios desde esa nueva copia. Entonces la pregunta ya no es si existe un bloqueo. La pregunta de verdad es otra: ¿X está protegiendo a las personas o está maquillando un problema que sigue vivoParece protección, pero deja demasiadas puertas abiertasLa novedad apareció dentro del flujo para subir imágenes o video en la app de X para iPhone. Hay que tocar el icono del pincel y luego entrar a una opción más escondida para activar el bloqueo. Ese detalle ya dice bastante. No estamos ante un gran botón visible para que cualquier persona entienda cómo proteger su contenido. Está metido dentro de un submenú. The Verge verificó que la función existe y probó su comportamiento. El resultado fue incómodo: sí frena a suscriptores Premium cuando intentan editar una imagen protegida etiquetando a @Grok en una respuesta, pero no impide otras formas de modificación disponibles en la misma experiencia móvil. Además, esa opción no apareció en la web durante sus pruebas y tampoco se mostró en imágenes antiguas ya publicadas. O sea, el control llega tarde, llega escondido y llega incompleto.El contexto de este cambio importa mucho. A comienzos de enero, Grok quedó en el centro de una tormenta por ayudar a crear imágenes sexualizadas y de desnudez falsa de personas reales. Varios medios reportaron que la práctica se expandió rápido y que reguladores de varias regiones empezaron a investigar el caso. Social Media Today recogió el dato de Bloomberg según el cual, en un momento de esa ola, Grok llegó a generar unas 6.700 imágenes por hora de tipo sexualizado o de desnudez simulada. Después, el 14 de enero, X limitó funciones y dejó la edición de imágenes detrás del pago para usuarios de X o Grok de nivel superior. Pero la situación no desapareció. Días después todavía se reportaban formas de producir desnudos falsos con ciertos comandos. Por eso este nuevo interruptor suena menos a solución de fondo y más a parche apresurado. Y hay un detalle todavía más incómodo: si una herramienta permite daño por varios caminos, cerrar apenas el más visible no cambia el problema de base. Lo vuelve un poco menos escandaloso a simple vista.Lo que vamos viendo aquí es un patrón bastante conocido en cultura digital. Primero aparece una función potente. Después llegan usos abusivos muy previsibles. Luego viene la protesta pública, entran reguladores, y finalmente llega una medida parcial que permite decir: “ya hicimos algo”. X aún no ha anunciado oficialmente esta novedad, así que ni su disponibilidad completa ni su estado de desarrollo están del todo definidos. The Verge pidió comentarios y, al momento de su publicación, no había respuesta. Mientras tanto, la realidad práctica es esta: el bloqueo sirve para frenar el atajo más obvio dentro de una conversación en X, pero no protege realmente una foto una vez que esa foto está circulando en internet. Ese punto es importante para toda persona que sube imágenes a redes sociales, y más si aparecen niñas, niños o adolescentes, porque una copia, una captura o una re-publicación pueden saltarse la intención original del autor. El caso también deja una lección para la industria: cuando una plataforma vende una opción con nombre tranquilizador, hay que mirar qué bloquea de verdad y qué no. En privacidad digital, los nombres bonitos no bastan. Lo que cuenta es el comportamiento real del sistema. Esta historia va más allá de X y de Grok. Habla de cómo estamos entrando en una etapa en la que publicar una foto ya no significa solamente compartir una imagen. También significa entregar material que puede ser reinterpretado por sistemas generativos. Y eso cambia la relación entre la persona, la plataforma y el público. Antes, el riesgo principal era que alguien copiara tu foto, la recortara o le pusiera texto encima. Ahora, además, puede pedirle a una inteligencia artificial que altere el gesto, la ropa, el fondo o el contexto entero. En teoría, algunas barreras deberían impedir esos abusos. En la práctica, muchas llegan tarde o quedan llenas de huecos.También hay una dimensión cultural. Las redes llevan años empujando a la gente a publicar más, más rápido y con menos fricción. Pero ese modelo choca con otra realidad: cada archivo que subes puede terminar en sistemas de edición automática, remezcla o generación de versiones nuevas. Por eso esta noticia no es solo de tecnología. También es de cultura digital y de convivencia. Nos obliga a preguntar quién controla una imagen después de publicarla, qué responsabilidad tiene la plataforma cuando su propia IA facilita usos abusivos y qué tan honesta es una interfaz que promete “bloqueo” cuando apenas cierra un camino muy concreto. En pocas palabras, el debate ya no es si la IA puede transformar tus fotos. El debate es quién pone los límites, cómo los pone y si esos límites sirven de verdad. X añadió un interruptor para frenar ciertas ediciones de Grok sobre tus fotos, pero ese control se queda corto. La enseñanza es simple: subir una imagen sigue implicando riesgos, aunque la plataforma prometa protección. Cuéntame qué opinas y sigue Flash Diario en Spotify para escuchar más historias de tecnología, ciencia y cultura digital. BibliografíaThe VergeSocial Media TodayEngadgetGizmodoDigital TrendsYahoo TechYahoo News SingaporeConviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters.
La misión DART de NASA cambió la órbita de un asteroide alrededor del Sol por primera vez.Por Félix Riaño @LocutorCoHay noticias científicas que pasan casi desapercibidas. Esta es una de ellas. Y lo que revela es impresionante: por primera vez en la historia, los seres humanos cambiamos la órbita de un objeto celeste alrededor del Sol.Sí. La humanidad movió un asteroide.Todo ocurrió gracias a la misión DART de NASA. En 2022, una nave espacial fue dirigida de forma deliberada para estrellarse contra un pequeño asteroide llamado Dimorphos. El objetivo era probar un método de defensa planetaria: comprobar si podríamos desviar un asteroide peligroso si algún día uno viniera hacia la Tierra. Los científicos ya sabían que el choque cambió la órbita de Dimorphos alrededor de otro asteroide llamado Didymos. Pero ahora han confirmado algo más sorprendente. El impacto también modificó ligeramente la trayectoria que los dos asteroides juntos siguen alrededor del Sol.El cambio es diminuto. Apenas 0,15 segundos en una órbita que dura 769 días.Puede parecer insignificante. Pero demuestra algo enorme.Los seres humanos ya somos capaces de cambiar el movimiento de un cuerpo celeste.¿Podría ese pequeño empujón salvar a la Tierra algún día?Pequeño empujón hoy puede salvar ciudades mañanaLa misión se llama DART, siglas en inglés de Double Asteroid Redirection Test. Fue lanzada en noviembre de 2021 con un objetivo directo: probar si una nave espacial podía empujar un asteroide. El objetivo elegido fue Dimorphos, una pequeña “luna” que gira alrededor de un asteroide mayor llamado Didymos. Ambos forman un sistema de dos asteroides que viajan juntos alrededor del Sol.Dimorphos tiene unos 160 metros de diámetro. Didymos mide cerca de 780 metros. Ninguno representa peligro para la Tierra. Esa fue precisamente la razón para escogerlos como laboratorio espacial.El 26 de septiembre de 2022, la nave DART se estrelló contra Dimorphos a una velocidad cercana a 22.500 kilómetros por hora.Los telescopios de todo el mundo comenzaron a observar el sistema de asteroides durante meses y años. Los científicos buscaban una señal muy concreta: saber si el impacto había cambiado su movimiento. El primer resultado llegó pronto. La órbita de Dimorphos alrededor de Didymos se redujo en unos 32 minutos.Era una prueba clara de que el método funcionaba.Pero las observaciones continuaron. Y ahora los científicos confirmaron algo que nadie había medido antes. El impacto también cambió ligeramente la órbita del sistema Didymos-Dimorphos alrededor del Sol.Es la primera vez que un objeto fabricado por humanos modifica de forma medible la trayectoria de un cuerpo celeste en el sistema solar.Detrás de este experimento hay una preocupación muy real.Nuestro planeta comparte su vecindario con miles de asteroides que cruzan o se acercan a la órbita de la Tierra. Muchos están identificados. Pero no todos.Los científicos estiman que existen unos 25.000 asteroides capaces de destruir una ciudad. Hasta ahora solo se ha catalogado cerca del 40 %. Eso significa que más de 15.000 asteroides potencialmente peligrosos aún no han sido detectados.El problema no suele ser los gigantes. Los más grandes se detectan con relativa facilidad. El riesgo principal está en los llamados asteroides capaces de arrasar ciudades, objetos de entre 150 y 500 metros de diámetro. Son suficientemente grandes para causar destrucción regional, pero suficientemente pequeños para ser difíciles de detectar.La historia ya ofrece un ejemplo.En 1908, un objeto de unos 40 metros explotó sobre Siberia, en el evento conocido como Tunguska. La onda expansiva derribó árboles en más de 2.000 kilómetros cuadrados de bosque.Si un evento similar ocurriera sobre una gran ciudad moderna, el daño sería enorme. Por eso la defensa planetaria tiene una regla simple. El arma más importante contra un asteroide es el tiempo.Cuantos más años tengamos antes de un posible impacto, más fácil será desviar su trayectoria.La misión DART demostró algo esencial para esa estrategia.No hace falta empujar un asteroide con una fuerza gigantesca.Basta con darle un pequeño empujón… muchos años antes.El impacto redujo la velocidad orbital del sistema de asteroides en apenas unos 10 micrómetros por segundo. Es una velocidad minúscula. Pero en el espacio, donde los movimientos duran décadas o siglos, incluso una diferencia tan pequeña se acumula con el tiempo.Después de muchos años, ese pequeño cambio puede transformar una colisión directa en un simple paso cercano. Además ocurrió algo inesperado.El choque expulsó aproximadamente 16 millones de kilogramos de roca y polvo del asteroide. Ese material salió disparado al espacio y generó un empujón adicional.En otras palabras, el propio asteroide amplificó el impacto. Ahora los científicos esperan aprender mucho más cuando la nave Hera, de la Agencia Espacial Europea, llegue al sistema Didymos-Dimorphos en 2026.Hera no chocará contra el asteroide.Su misión será estudiar el cráter, la estructura interna del asteroide y los efectos reales del impacto.Con esos datos, los ingenieros podrán diseñar misiones futuras de defensa planetaria con mucha más precisión.Las imágenes captadas por la nave DART antes del impacto revelaron algo inesperado sobre estos asteroides. Durante años se pensó que los sistemas formados por dos asteroides eran relativamente tranquilos. Pero nuevos análisis muestran que son mucho más dinámicos.Los investigadores descubrieron marcas en forma de abanico en la superficie de Dimorphos. Estas marcas sugieren que material del asteroide grande, Didymos, puede viajar lentamente hacia su pequeño compañero.Los científicos describen este fenómeno como “bolas de nieve cósmicas”.Pequeños fragmentos de roca pueden desprenderse del asteroide mayor y desplazarse hacia el otro a velocidades extremadamente bajas.En algunos casos viajan a 30 centímetros por segundo, más lento que una persona caminando. Cuando esos fragmentos aterrizan en Dimorphos dejan patrones de material que forman abanicos de polvo y rocas.Para comprobar esta idea, los científicos realizaron experimentos en laboratorio. Lanzaron pequeñas canicas sobre arena con piedras distribuidas de forma parecida a la superficie del asteroide.Las marcas resultantes coincidieron con los patrones observados en las imágenes espaciales.Estos estudios también confirman la presencia del efecto YORP, un fenómeno en el que la luz del Sol puede acelerar lentamente la rotación de un asteroide hasta que comienza a expulsar material.Comprender estos procesos ayuda a los científicos a entender mejor cómo evolucionan los asteroides cercanos a la Tierra.Y ese conocimiento será esencial si algún día necesitamos mover uno para proteger nuestro planeta.La misión DART demostró que la humanidad puede alterar la trayectoria de un asteroide. El cambio es pequeño, pero prueba que desviar rocas espaciales es posible si actuamos con tiempo. Historias como esta muestran cómo la ciencia puede proteger nuestro planeta. Si te interesa la ciencia explicada con calma, sigue Flash Diario en Spotify.Flash Diario en SpotifyBibliografíaThe IndependentScienceDailyNASA Jet Propulsion LaboratoryFrance 24EngadgetEarth.comNew York PostConviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters.
GPT-5.4 llega a ChatGPT con herramientas para Excel, agentes autónomos y mayor precisión en tareas profesionalesPor Félix Riaño @LocutorCoOpenAI anunció una nueva versión del modelo que impulsa ChatGPT. Se llama GPT-5.4 y está diseñado para trabajar dentro de programas que muchas personas usan todos los días en la oficina. Por ejemplo, hojas de cálculo, documentos o presentaciones.Una de las novedades más llamativas es que ChatGPT ahora puede trabajar directamente dentro de Excel o Google Sheets. Eso significa que puede analizar datos, proponer fórmulas o ayudar a construir modelos financieros sin salir de la hoja de cálculo.OpenAI afirma que esta versión comete menos errores y entiende mejor preguntas complejas. También puede buscar información en varias fuentes y combinarla para responder de manera más organizada.La pregunta que aparece en muchas conversaciones es inevitable. ¿Estamos frente a una herramienta que ayuda a trabajar mejor… o frente a una inteligencia artificial que empieza a competir con algunos trabajos de oficina?Pero esta inteligencia artificial ahora puede actuar dentro del computadorHasta ahora, muchas personas usaban ChatGPT como si fuera una enciclopedia conversacional. Se le preguntaba algo, respondía, y el usuario copiaba la información para usarla en otro programa.Con GPT-5.4 ese modelo empieza a cambiar. La inteligencia artificial ya no se limita a responder preguntas. También puede ejecutar tareas dentro de las herramientas que usamos para trabajar.Por ejemplo, una persona puede pedirle que revise una hoja de cálculo con datos financieros. El sistema puede interpretar las tablas, detectar patrones y proponer fórmulas o gráficos para analizar la información.Después puede escribir un informe explicando los resultados. Y luego preparar una presentación para exponer ese análisis.Todo eso dentro del mismo flujo de trabajo.La idea de OpenAI es que ChatGPT deje de ser un simple asistente de conversación y pase a convertirse en una especie de compañero digital que ayuda a completar proyectos completos.Ese cambio tiene un efecto inmediato: aumenta la preocupación sobre el impacto de la inteligencia artificial en el trabajo profesional.Durante muchos años se pensó que la automatización iba a reemplazar tareas físicas repetitivas. Robots en fábricas, máquinas en líneas de producción.Ahora la automatización empieza a entrar en los trabajos que dependen del análisis, la escritura o el manejo de información.En pruebas internas realizadas por OpenAI, el nuevo modelo logró resolver tareas que normalmente realizan profesionales en áreas como finanzas, programación, investigación o redacción.La discusión entonces cambia de tono.Algunas personas ven estas herramientas como una especie de “supercalculadora intelectual” que permite a los profesionales trabajar más rápido.Otras personas temen que estas capacidades terminen reduciendo la necesidad de ciertos puestos de trabajo, sobre todo en tareas que siguen reglas claras o procesos repetibles.La realidad probablemente estará en un punto intermedio.Como ocurrió con muchas tecnologías anteriores, es posible que estas herramientas transformen los trabajos antes de reemplazarlos completamente.GPT-5.4 también introduce una función que cambia bastante la relación entre humanos y software.Este modelo puede interactuar con un computador de manera directa. Puede interpretar capturas de pantalla, mover el cursor, escribir comandos y navegar entre aplicaciones.Es decir, puede operar programas de una forma parecida a como lo haría una persona frente al teclado. Ese tipo de funciones abre la puerta a lo que muchos investigadores llaman “agentes de inteligencia artificial”. Sistemas que pueden completar procesos completos paso a paso. Por ejemplo, buscar información, organizarla en una hoja de cálculo, escribir un informe y preparar una presentación.Todo dentro de un mismo proceso automatizado.OpenAI también está cambiando la forma en que organiza sus modelos.Algunas versiones están diseñadas para responder rápido en conversaciones cotidianas. Otras versiones están pensadas para analizar problemas complejos con más calma y profundidad.Así, ChatGPT empieza a funcionar como una herramienta con distintos modos de trabajo, dependiendo de lo que necesite el usuario.Otra mejora importante tiene que ver con la memoria del sistema durante una conversación larga.Los modelos anteriores podían perder el hilo cuando el diálogo se volvía muy extenso o cuando la tarea tenía muchos pasos.GPT-5.4 mantiene mejor el contexto de la conversación. Eso permite trabajar con instrucciones largas o proyectos que requieren varias etapas de análisis.También mejora la forma en que el sistema usa herramientas externas. En lugar de intentar hacerlo todo dentro del mismo texto, puede consultar programas o servicios especializados cuando los necesita.En términos simples, la inteligencia artificial empieza a parecerse menos a un generador de texto y más a un coordinador de herramientas digitales.OpenAI también está apostando por un mercado muy específico: el trabajo profesional.Muchas de las nuevas funciones están diseñadas para analistas financieros, programadores, investigadores o equipos que trabajan con grandes cantidades de datos.Esto refleja un cambio estratégico en toda la industria de la inteligencia artificial.Las empresas ya no compiten solamente por crear el chatbot más entretenido. Ahora compiten por construir el asistente de trabajo más útil.)GPT-5.4 muestra hacia dónde se dirige la inteligencia artificial: herramientas que colaboran directamente en el trabajo diario. ChatGPT ahora puede operar programas, analizar datos y preparar documentos dentro del mismo flujo laboral.El debate apenas comienza. ¿Será un aliado del trabajo humano o su sustituto en algunas tareas?Cuéntamelo y sigue el pódcast Flash Diario.ChatGPT ahora puede trabajar dentro de Excel y programas de oficina. GPT-5.4 acerca la inteligencia artificial al trabajo diario.—BibliografíaAxiosThe VergeZDNetEngadget VentureBeat TechRadarConviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters.
MacBook Neo cuesta 599 dólares y usa chip A18 Pro en apuesta educativa masivaPor Félix Riaño @LocutorCoApple presentó el MacBook Neo como su portátil más económico. Parte desde 599 dólares y 499 dólares para estudiantes. Usa el chip A18 Pro del iPhone y promete hasta 16 horas de batería. Llega con 8 GB de memoria y 256 GB de almacenamiento. La pregunta es: ¿es una ganga real o un anzuelo para entrar al ecosistema?Apple decidió entrar de frente al terreno de los portátiles de 599 dólares. Lo hizo con el nuevo MacBook Neo. Es un equipo de 13 pulgadas, con pantalla Liquid Retina de 2.408 por 1.506 píxeles y brillo de 500 nits. Pesa 1,2 kilogramos y mide 1,27 centímetros de grosor. Tiene dos puertos USB-C, con una diferencia incómoda: uno es USB 3 de hasta 10 gigabits por segundo y el otro es USB 2 de 480 megabits por segundo.El procesador es el A18 Pro, el mismo que usa el iPhone 16 Pro. Viene con 8 GB de memoria unificada y 256 GB de almacenamiento en su versión base. La batería promete hasta 16 horas de reproducción de video y 11 horas de navegación web. El precio oficial es 599 dólares, y con descuento educativo baja a 499 dólares.Apple afirma que es hasta 50 por ciento más rápido en tareas cotidianas que el portátil más vendido con Intel Core Ultra 5, según pruebas con el benchmark Speedometer. Pero aquí viene la pregunta: ¿estamos ante un nuevo estándar de valor o ante un Mac recortado con buen marketing?Un Mac accesible… con recortesApple no solía competir en esta franja. El MacBook Air más reciente con chip M5 parte desde 1.099 dólares. El salto hasta 599 dólares es grande. La diferencia son 500 dólares. Eso cambia el público. Ahora hablamos de estudiantes, familias y personas que antes miraban un Chromebook o un portátil con Windows.El MacBook Neo mantiene el chasis de aluminio. Se siente como un Mac. Viene en colores como Citrus, Blush, Indigo y plata. Esa decisión recuerda al iBook G3 de principios de los años 2000. Apple está enviando un mensaje: este es el Mac juvenil.La pantalla conserva buena resolución y brillo. Tiene cámara de 1080p. Tiene altavoces con Dolby Atmos. Pero empiezan los ajustes: el teclado no tiene retroiluminación. El trackpad es mecánico, no háptico. Solo admite un monitor externo en 4K a 60 hercios. No tiene puerto MagSafe. Y el Touch ID solo aparece en el modelo de 512 GB que cuesta 699 dólares.Apple no está escondiendo que hubo concesiones. Está diciendo que el precio lo justifica. ¿Te parece suficiente?Aquí está el punto delicado. El MacBook Neo usa un chip de iPhone, no un chip de la serie M. Eso rompe la lógica que Apple venía construyendo desde 2020, cuando migró todos sus Mac a Apple Silicon con arquitectura pensada para computadores.El A18 Pro tiene seis núcleos de CPU. Dos de alto rendimiento y cuatro de eficiencia. Tiene cinco núcleos de GPU y soporte para trazado de rayos. En tareas ligeras como navegar, escribir y ver video, va a rendir bien. Pero en edición de video 4K, en modelado 3D o en grandes proyectos de programación, puede quedarse corto frente a un MacBook Air con chip M.Además, los 8 GB de memoria son el límite. No hay opción de 16 GB. En 2026, muchos usuarios ya consideran 8 GB como el mínimo justo. Si abres muchas pestañas, videollamadas y apps al mismo tiempo, vas a notar presión en el sistema.Otro detalle: solo uno de los puertos USB-C es USB 3. El otro es USB 2. Eso significa que puedes conectar un monitor o tener transferencia rápida, pero no todo a la vez con la misma velocidad. Para un equipo pensado para estudiantes, puede ser suficiente. Para alguien que quiere crecer con el equipo, puede sentirse limitado.Entonces surge la duda real: ¿es una puerta de entrada inteligente o una forma de segmentar más el mercado para empujar después al usuario hacia modelos más caros?Apple no improvisó este movimiento. El mercado de portátiles económicos estaba dominado por Chromebook y por equipos Windows de menos de 700 dólares. Muchos de ellos ofrecen buena batería y rendimiento aceptable. Lo que Apple aporta aquí es construcción premium, integración con iPhone y acceso completo a macOS Tahoe.El MacBook Neo permite copiar y pegar entre iPhone y Mac. Permite usar apps del ecosistema. Está preparado para Apple Intelligence. Eso significa que Apple quiere que el usuario joven entre al ecosistema temprano y luego, cuando necesite más potencia, suba a un Air o a un Pro.Desde el punto de vista estratégico, tiene lógica. Desde el punto de vista técnico, hay límites claros. Si eres estudiante que escribe, navega y hace trabajos en la nube, este equipo puede ser suficiente durante varios años. Si eres creador de contenido, diseñador o desarrollador exigente, probablemente vas a necesitar un modelo con chip M y más memoria.El precio de 599 dólares lo convierte en el Mac más accesible de la historia en lanzamiento oficial. Eso cambia la conversación. Pero también redefine qué entendemos por “Mac completo”.La decisión final no es emocional. Es práctica. ¿Qué vas a hacer con él todos los días?El lanzamiento ocurrió junto a otros anuncios como el iPhone 17e y los nuevos MacBook Pro con chip M5 Pro y M5 Max. El contraste es fuerte. Mientras el Neo baja a 599 dólares, el MacBook Pro de 16 pulgadas puede superar los 7.000 dólares en configuraciones altas.El Neo pesa 1,2 kilogramos. Es el mismo peso que el MacBook Air. Su batería es de 36,5 vatios hora. Apple afirma hasta 16 horas de video. Esa cifra suele medirse en condiciones controladas, con brillo moderado y aplicaciones optimizadas. En uso real puede variar.En Reino Unido y la Unión Europea, el cargador no viene incluido en la caja. Solo el cable USB-C. En Estados Unidos sí incluye adaptador de 20 vatios. Ese detalle reduce costos logísticos y ambientales, pero también puede generar molestias.El descuento educativo baja el precio a 499 dólares. Eso lo pone en territorio de iPad Air. Apple está compitiendo contra su propio catálogo. Si alguien duda entre un iPad con teclado y un MacBook Neo, ahora la diferencia es menor.Y algo más: solo soporta un monitor externo. Para quien usa dos pantallas, esto es un límite concreto. No es un detalle menor.Todo esto configura un producto atractivo, pero muy medido. Apple calculó cada concesión.El MacBook Neo abre la puerta de entrada al ecosistema Mac desde 599 dólares. Ofrece buen diseño y rendimiento suficiente para tareas básicas. Tiene límites claros en memoria y puertos. Antes de comprar, revisa qué uso real le vas a dar.Cuéntame qué opinas y sígueme en Flash Diario.Resumen para TikTok (20 palabras)MacBook Neo cuesta 599 dólares, usa chip de iPhone y apunta a estudiantes. Buen precio, pero con límites claros.BibliografíaWallpaperWiredThe TelegraphTechRadarMacRumorsPCMagMacworldCreative BloqConviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters.
Gafas Meta bajo lupaInvestigación revela que gafas Meta envían videos íntimos a revisores humanos para entrenar inteligencia artificialPor Félix Riaño @LocutorCoUn reportaje de medios suecos destapa cómo videos capturados con gafas inteligentes Meta Ray-Ban pueden terminar en manos de anotadores de datos en Kenia. El material incluye escenas privadas y datos financieros que usuarios no sabían que se estaban compartiendo.Las ves en anuncios. Las ves en redes sociales. Un deportista famoso se las pone y les pregunta quién es el mejor jugador de hockey de Suecia.Parecen gafas normales. Pero no lo son.Son las gafas inteligentes de Meta, creadas junto a Ray-Ban. Prometen ayudarte a traducir idiomas, identificar objetos y responder preguntas con solo decir: “Hey Meta”.La promesa es clara: tú tienes el control.Pero una investigación de los diarios suecos Svenska Dagbladet y Göteborgs-Posten cuenta otra historia. Según su trabajo, parte del video que capturan estas gafas termina siendo visto por personas reales que trabajan entrenando inteligencia artificial.Y algunas de esas imágenes muestran momentos muy privados.La pregunta es sencilla y directa: cuando hablas con la IA de tus gafas… ¿quién más podría estar viendo?Pero la inteligencia artificial necesita ojos humanos.En septiembre de 2025, en Menlo Park, California, el director de Meta presenta las nuevas gafas como el futuro de la empresa. En pantallas gigantes se ve el mundo desde sus ojos mientras camina hacia el escenario.Las gafas prometen traducción en tiempo real, reconocimiento de objetos y hasta ayuda para el trabajo diario.En 2025 se vendieron cerca de siete millones de unidades, después de que en 2023 y 2024 se vendieran juntas unos dos millones. El crecimiento fue rápido.Para que la inteligencia artificial entienda lo que ve la cámara, necesita entrenamiento. Ahí entran los llamados “anotadores de datos”.En Nairobi, Kenia, empleados de la empresa Sama revisan imágenes y videos. Dibujan cuadros sobre objetos, etiquetan personas, clasifican escenas. Es un trabajo repetitivo. Pero es la base de muchos sistemas de visión artificial.El problema es que, según la investigación sueca, no todo lo que llega a sus pantallas son flores y señales de tránsito.Varios trabajadores contaron que han visto escenas íntimas capturadas por las gafas. Personas en el baño. Personas cambiándose de ropa. Tarjetas bancarias visibles al pagar en una tienda.Algunos empleados dijeron que muchas veces creen que quienes aparecen en los videos no saben que están grabando.Uno de ellos afirmó: “Vemos todo. Desde salas de estar hasta cuerpos desnudos”.Meta explica en sus términos de uso que algunas interacciones con sus sistemas de IA pueden revisarse de forma automática o manual. Es decir, por personas.Cuando periodistas probaron las gafas en Suecia e intentaron usarlas sin conexión a internet, la función de inteligencia artificial no funcionó. Al analizar el tráfico de red, detectaron comunicación frecuente con servidores de Meta en Suecia y Dinamarca.Eso contradice lo que algunos vendedores dijeron en tiendas, donde afirmaban que todo se quedaba en el teléfono.En Europa rige el Reglamento General de Protección de Datos, conocido como GDPR. Esta norma exige transparencia sobre cómo se procesan los datos personales y dónde se almacenan.Expertos consultados por los periodistas señalaron que muchos usuarios no son plenamente conscientes de que el video puede enviarse a servidores externos y revisarse por humanos.Además, antiguos empleados de Meta indicaron que los sistemas que difuminan rostros pueden fallar, sobre todo con poca luz.Eso abre un riesgo evidente: imágenes que deberían estar protegidas podrían no estarlo.Meta respondió que el contenido se maneja según sus políticas de privacidad y términos de uso. También afirmó que filtra datos para proteger la privacidad antes de cualquier revisión.Pero no ofreció detalles específicos sobre cuánto tiempo se guardan los videos ni exactamente quién puede acceder a ellos.Las autoridades europeas han sido informadas del caso. Legisladores han pedido aclaraciones sobre la transferencia de datos fuera de la Unión Europea, especialmente hacia países que aún no cuentan con reconocimiento formal de protección equivalente.Mientras tanto, el debate no es solo legal. Es social.En universidades de Estados Unidos ya hay preocupación por el uso de estas gafas en campus. Algunos estudiantes dicen sentirse incómodos al no saber si alguien los está grabando. En una escuela de Texas se prohibió el uso de tecnología vestible en 2025 por temor a trampas académicas y grabaciones no autorizadas.La tecnología avanza rápido. Las normas sociales van más despacio.Y la confianza se construye con transparencia.Este caso también muestra algo que a veces olvidamos: la inteligencia artificial no se entrena sola.Detrás de cada sistema hay miles de personas etiquetando datos. En muchos casos, en países con salarios bajos.Sama ya había estado en el centro de polémicas anteriores relacionadas con moderación de contenido para grandes plataformas tecnológicas. Ahora su labor se centra en visión artificial.El trabajo es estricto. Según los testimonios, los empleados no pueden entrar con teléfonos ni grabar nada en la oficina. Firmaron acuerdos de confidencialidad.Al mismo tiempo, la propia política de Meta indica que no se deben compartir datos sensibles con la IA. La responsabilidad recae en el usuario.Eso plantea una situación compleja.Si alguien activa la IA sin saber que la cámara sigue captando imágenes durante algunos segundos más, ese material puede entrar en el sistema de entrenamiento.Y una vez que los datos se usan para entrenar modelos, recuperarlos o eliminarlos no es sencillo.La discusión ya no es solo técnica. Es ética.¿Qué significa consentimiento cuando hablamos de cámaras que parecen gafas normales?¿Cómo se informa de forma sencilla a millones de usuarios sobre procesos técnicos complejos?Y una más: ¿estamos leyendo realmente lo que aceptamos cuando pulsamos “aceptar”?Las gafas inteligentes ofrecen funciones útiles y sorprendentes. Pero esta investigación recuerda que cada avance trae responsabilidades.La privacidad no es un detalle pequeño. Es parte de tu vida diaria.Antes de activar cualquier asistente con cámara, conviene preguntarse qué datos salen de tu dispositivo y a dónde viajan.Te leo en comentarios y te invito a seguir el pódcast Flash Diario para entender juntos cómo la tecnología afecta nuestra vida.Investigación revela que gafas Meta envían videos privados a trabajadores en Kenia para entrenar inteligencia artificial.BibliografíaSvenska DagbladetGöteborgs-PostenGizmodoEngadget9to5MacNewsweekForbesThe DecoderDigWatchConviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters.
Apple presenta el iPhone 17e con 256 GB, chip A19, cámara de 48 MP y precio sin aumentoPor Félix Riaño @LocutorCoApple acaba de presentar el iPhone 17e. Es la versión más accesible de la familia iPhone 17. Va a costar 599 dólares en Estados Unidos y 719 euros en Europa. Va a traer 256 gigabytes de almacenamiento desde el modelo básico. Eso es el doble que el modelo anterior al mismo precio. Incluye el nuevo chip A19, el módem C1X diseñado por Apple y una cámara de 48 megapíxeles con zoom 2x en calidad óptica. También suma MagSafe, carga inalámbrica de hasta 15 vatios y funciones satelitales para emergencias. Las reservas van a comenzar el 4 de marzo y la venta en tiendas va a arrancar el 11 de marzo. La pregunta es sencilla: ¿es una ganga real o es el mínimo necesario para competir en 2026?Pero hay detalles que cambian la conversaciónApple decidió mantener el precio de 599 dólares y duplicar el almacenamiento base. Pasar de 128 a 256 gigabytes puede sonar técnico, pero en la práctica significa más espacio para miles de fotos en alta resolución y horas de video en 4K. El chip A19 está fabricado con tecnología de 3 nanómetros. Eso quiere decir transistores más pequeños y más eficientes. Apple promete hasta el doble de velocidad frente al iPhone 11, que salió en 2019. También integra el nuevo módem C1X, que según Apple es hasta dos veces más rápido que el C1 del iPhone 16e y consume 30 % menos energía que el del iPhone 16 Pro. La pantalla mantiene las 6,1 pulgadas con tecnología OLED y un brillo máximo de 1.200 nits en HDR. Y sí, ahora el modelo “e” por fin incluye MagSafe.Aquí viene la parte incómoda. El iPhone 17e sigue teniendo una sola cámara trasera. Es un sensor de 48 megapíxeles que permite un recorte para lograr un zoom 2x con calidad óptica. Funciona bien en teoría, pero no es un teleobjetivo dedicado. Otros fabricantes en este rango de precio ofrecen dos o tres cámaras físicas. Además, el diseño prácticamente no cambia frente al 16e. En Europa cuesta 719 euros. En Alemania se habla incluso de 699 euros según algunos medios. Eso lo pone en competencia directa con equipos Android que ofrecen pantallas de 120 hercios, varias cámaras y baterías más grandes. Apple apuesta por su ecosistema, por Apple Intelligence y por la integración con iOS 26. La duda es si eso basta para quien compara especificaciones fríamente.Apple está jugando una estrategia muy calculada. Mantener el precio y subir la memoria es un mensaje potente en un año donde los costos de componentes están subiendo. Además, integrar el A19 significa que este modelo económico va a recibir funciones de Apple Intelligence, como traducción en tiempo real en Mensajes y FaceTime, filtros de llamadas desconocidas y herramientas de edición con inteligencia artificial. También incluye funciones satelitales para emergencias durante dos años desde la activación. Eso puede marcar diferencia para quienes viajan o viven en zonas rurales.El iPhone 17e va a estar disponible en más de 70 países desde el 11 de marzo. Colores: negro, blanco y rosa suave. Apple también va a ofrecer planes de pago mensuales y descuentos por entregar modelos antiguos. En Estados Unidos, cambiar un iPhone 13 puede dar hasta 599 dólares de crédito con operador. Con Apple Trade In, el crédito puede llegar a 195 dólares. La estrategia es clara: facilitar el salto al nuevo modelo sin tocar la etiqueta principal de precio.Este lanzamiento forma parte de una semana intensa para Apple. También presentó el nuevo iPad Air con chip M4. Ese modelo mantiene precios de 599 dólares para 11 pulgadas y 799 dólares para 13 pulgadas. Apple está reforzando su gama media. Según CNBC, el iPhone 17e es importante para competir en mercados sensibles al precio frente a Samsung, Google y fabricantes chinos.El 17e incluye resistencia al agua y polvo con certificación IP68, que permite inmersión hasta 6 metros durante 30 minutos en condiciones de laboratorio. La carga rápida por USB-C puede llevar la batería al 50 % en unos 30 minutos con adaptador de 20 vatios o superior. El vidrio Ceramic Shield 2 promete tres veces más resistencia a rayones frente a la generación anterior.También hay un ángulo ambiental. El dispositivo usa 30 % de materiales reciclados, 85 % de aluminio reciclado en la carcasa y 100 % de cobalto reciclado en la batería. La fabricación emplea 55 % de electricidad renovable en la cadena de suministro. Apple quiere avanzar hacia su meta de neutralidad de carbono para 2030.El iPhone 17e mantiene el precio y duplica la memoria. Mejora potencia y suma MagSafe. Tiene límites en cámara y diseño. ¿Vale la pena para ti? Cuéntame qué opinas y escucha más tecnología cada mañana en Flash Diario.BibliografíaApple NewsroomUSA TodayCNBCBFMTVBildSternConviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters.
Luna roja 2026El eclipse lunar total de marzo 2026 será visible en América, Asia y OceaníaPor Félix Riaño @LocutorCoLa única luna roja de 2026 ocurrirá el 3 de marzo y millones podrán verla en directo.En la madrugada del 3 de marzo de 2026 vamos a tener un espectáculo que no ocurre todos los meses: un eclipse lunar total. Es decir, la famosa luna roja o “luna de sangre”. Durante casi una hora, nuestro satélite va a verse de color cobrizo mientras cruza por la sombra más oscura de la Tierra.La fase total va a comenzar a las 11:04 en Tiempo Universal Coordinado y va a alcanzar su punto máximo a las 11:33. En total, el eclipse completo va a durar 5 horas y 39 minutos.La noticia tiene un detalle importante: no todo el planeta va a poder verlo. América, el este de Asia, Australia y Nueva Zelanda sí. Europa y África no. ¿Por qué ocurre eso si la Luna es la misma para todos?La mala noticia: no todos podrán verla.Un eclipse lunar total ocurre cuando el Sol, la Tierra y la Luna quedan alineados. La Tierra se coloca en el medio y su sombra cubre completamente la Luna. Esa sombra tiene dos partes: una más suave llamada penumbra y otra más oscura llamada umbra.Cuando la Luna entra en la umbra, comienza la fase parcial. Parece como si alguien estuviera dando un mordisco al disco lunar. Luego, cuando queda completamente dentro de la umbra, empieza la totalidad.En esta ocasión, la totalidad va a durar 58 minutos. Eso significa que durante casi una hora vamos a ver la Luna teñida de rojo. Según datos recopilados por NASA y por Time and Date, más del 40 % de la población mundial va a poder observar al menos parte de la fase total. Estamos hablando de más de tres mil millones de personas.La mejor vista va a estar en el oeste de América del Norte, en la región del Pacífico y en Oceanía. Allí la Luna va a estar alta en el cielo durante la totalidad.Aquí viene el contraste. En Europa, incluida España, Alemania, Francia o Italia, la Luna va a estar bajo el horizonte durante la fase total. Eso significa que no va a ser visible. Lo mismo va a ocurrir en África.En América Latina la situación va a variar mucho según la ciudad. En México se va a ver completa. En ciudades como Bogotá o Santiago de Chile, la Luna va a estar muy baja y el amanecer va a competir con el color rojizo. En Buenos Aires el eclipse va a ser apenas penumbral, es decir, el cambio de brillo va a ser muy leve.Además, hay un factor que nadie controla: las nubes. En algunas ciudades la probabilidad histórica de nubosidad en esa fecha es alta. Eso puede arruinar la experiencia aunque el fenómeno esté ocurriendo.Y hay otra confusión frecuente. Mucha gente cree que la Luna se vuelve roja por “algo raro” o por contaminación. En realidad es pura física. La atmósfera de la Tierra dispersa más la luz azul y deja pasar la roja. Es el mismo efecto que vemos en los atardeceres. Como explica la NASA, es como si todos los amaneceres y atardeceres del planeta se proyectaran al mismo tiempo sobre la superficie lunar.La buena noticia es que ver un eclipse lunar total es completamente seguro. No se necesitan gafas especiales, a diferencia de los eclipses solares. Se puede observar a simple vista. Unos binoculares o un pequeño telescopio van a ayudar a notar mejor los matices del color.Si vives en América, Asia oriental o Australia, conviene buscar un lugar con poco brillo artificial y con el horizonte despejado. En el este de Estados Unidos la Luna se va a ocultar durante la totalidad, así que habrá que madrugar mucho. En la costa oeste va a verse con mayor comodidad.Y si estás en Europa o África, todavía hay opciones. Muchos observatorios van a transmitir el evento en línea. El Griffith Observatory y otros centros científicos suelen ofrecer transmisiones en directo.Después de este evento, la próxima luna roja visible a gran escala no va a llegar hasta finales de 2028. Eso convierte a la de marzo de 2026 en la única oportunidad del año para ver una totalidad.El eclipse va a coincidir con el llamado Wurmmond o Luna de Gusano, nombre tradicional del plenilunio de marzo en culturas de Norteamérica. Marca el momento en que la tierra empieza a descongelarse y aparecen los primeros gusanos tras el invierno.En India, un eclipse lunar recibe el nombre de Chandra Grahan. En algunas tradiciones antiguas se interpretaba como el momento en que un ser mitológico “devoraba” la Luna. Hoy sabemos que se trata de una alineación orbital perfectamente predecible.Los eclipses siguen ciclos llamados Saros, que duran alrededor de 18 años. Gracias a estos ciclos, los astrónomos pueden calcular con precisión cuándo y dónde será visible cada fenómeno.Además, durante la totalidad la Luna pierde brillo. Eso hace que estrellas cercanas se vuelvan más visibles de lo habitual. En esta ocasión, el eclipse ocurrirá cuando la Luna esté en la constelación de Leo. Será una buena oportunidad para ubicar a Regulus, una de sus estrellas más brillantes.El 3 de marzo de 2026 vamos a vivir la única luna roja del año. América, Asia oriental y Oceanía van a tener el mejor espectáculo. Europa y África deberán seguirlo en línea. Marca la fecha y prepara el despertador.Y si te gusta entender el cielo sin complicaciones, sigue el pódcast Flash DiarioEl 3 de marzo de 2026 la Luna se volverá roja durante casi una hora y no todos podrán verla.Conviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters.
Google mejora generación de imágenes con Gemini 3.1 Flash Image más rápido y consistentePor Félix Riaño @LocutorCoGoogle lanza Nano Banana 2, nuevo modelo de imágenes con más velocidad, texto preciso y hasta resolución 4KAyer hablábamos del nuevo Samsung Galaxy S26 y de cómo integra inteligencia artificial de Google. Hoy vamos a mirar otra pieza de ese mismo ecosistema. Google acaba de lanzar Nano Banana 2, que en realidad se llama Gemini 3.1 Flash Image. Es el nuevo modelo para crear imágenes con inteligencia artificial dentro de la app Gemini, en el buscador y hasta en herramientas de edición de video como Flow.¿Qué cambia frente a la versión anterior? Google promete más velocidad, mejor seguimiento de instrucciones y mayor coherencia cuando aparecen varios personajes en la misma imagen. Además, puede generar imágenes desde 512 píxeles hasta resolución 4K. Y eso abre preguntas importantes: ¿es realmente mejor que Nano Banana Pro? ¿Qué pasa con otras opciones como Midjourney, DALL·E o Firefly?Pero más velocidad trae nuevas dudasNano Banana nació en agosto de 2025 y se volvió viral. En solo cuatro días atrajo a 13 millones de usuarios nuevos a la app Gemini. Para octubre ya había generado más de 5.000 millones de imágenes. Luego llegó Nano Banana Pro en noviembre, con mejor calidad y más control en el texto dentro de las imágenes.Ahora Google combina lo mejor de ambos mundos. Nano Banana 2 usa la arquitectura Gemini 3.1 Flash Image. “Flash” significa rapidez. La idea es generar imágenes casi al instante, pero manteniendo buena calidad. Google dice que puede conservar la identidad de hasta cinco personajes en una misma escena y respetar hasta 14 objetos diferentes sin que cambien de forma o estilo en cada intento. Eso es útil para crear cómics, storyboards o campañas publicitarias donde los personajes deben verse iguales en cada imagen.También mejora la escritura dentro de las imágenes. Por ejemplo, si haces una tarjeta de cumpleaños o un anuncio con texto, ahora las letras salen más legibles y con menos errores.El problema es que cada vez es más difícil distinguir una imagen real de una creada por inteligencia artificial. Herramientas como Nano Banana 2 pueden producir paisajes, retratos y escenas con iluminación realista y texturas muy detalladas. Según encuestas citadas por CNET, la mayoría de personas cree haber visto imágenes hechas con IA, pero menos de la mitad se siente segura de poder identificarlas.Esto afecta redes sociales, campañas políticas, publicidad y hasta tareas escolares. Además, existe el debate sobre derechos de autor. Empresas creativas y estudios de cine han expresado preocupación por el uso de imágenes que podrían basarse en obras protegidas.Google intenta responder a esto con marcas de agua invisibles llamadas SynthID y con credenciales C2PA, un estándar que permite verificar si una imagen fue generada con IA y cómo se creó. Pero esa verificación funciona mejor cuando el contenido viene directamente de herramientas de Google.Al mismo tiempo, la competencia no se queda quieta. OpenAI tiene DALL·E y el generador de video Sora. Midjourney sigue siendo fuerte en arte estilizado. Adobe Firefly apuesta por integración directa con Photoshop y herramientas profesionales. Cada plataforma tiene ventajas distintas en estilo, control o integración empresarial.Nano Banana 2 ya está reemplazando a las versiones anteriores dentro de la app Gemini. En los modos “Fast”, “Thinking” y “Pro” ahora se usará este nuevo modelo por defecto. Los usuarios de planes pagos como Google AI Pro y Ultra podrán seguir accediendo a Nano Banana Pro desde un menú adicional cuando necesiten máxima precisión factual.También se integra en Google Search, en el modo IA y en Google Lens, en 141 países. Está disponible en navegadores de escritorio y móviles, y en herramientas como AI Studio, Vertex AI en Google Cloud y Google Ads. Incluso en Flow, la plataforma de edición de video de Google, ahora es el generador de imágenes predeterminado.La apuesta es clara: Google quiere que la generación de imágenes sea rápida, cotidiana y conectada con información en tiempo real desde el buscador. Eso puede ayudar a crear infografías, diagramas educativos o visualizaciones de datos más exactas.La gran pregunta es si esta velocidad masiva va a aumentar el volumen de imágenes artificiales circulando en internet. Y también si los usuarios aprenderán a verificar lo que ven antes de compartirlo.Nano Banana 2 permite elegir diferentes proporciones de imagen. Puedes crear formato cuadrado para Instagram, vertical para historias o panorámico para pantallas anchas. La resolución máxima es 4K, que equivale a 3.840 por 2.160 píxeles. Eso significa más de 8 millones de píxeles en una sola imagen.Otra mejora es el uso de “conocimiento del mundo” en tiempo real. El modelo puede consultar información actualizada desde el buscador para representar lugares o conceptos con mayor precisión. Por ejemplo, si pides una imagen de un museo específico, puede basarse en referencias visuales reales.En el contexto del Galaxy S26 que mencionamos ayer, esto muestra cómo Google está fortaleciendo todo su ecosistema de IA. El teléfono, el buscador, la app Gemini y las herramientas en la nube comparten modelos cada vez más potentes.Para quienes crean contenido, esto significa menos tiempo editando y más iteraciones rápidas. Para educadores, puede facilitar la creación de material visual didáctico. Para empresas, abre nuevas opciones en publicidad digital automatizada.Pero siempre habrá alternativas. Midjourney suele destacar en arte conceptual. DALL·E se integra con ChatGPT. Adobe Firefly apuesta por entornos profesionales con licencias más controladas. Elegir dependerá de qué necesitas: velocidad, estilo artístico, integración empresarial o control legal.Nano Banana 2 combina rapidez y calidad en la generación de imágenes con IA dentro del ecosistema Google. Mejora texto, coherencia de personajes y resolución hasta 4K. La competencia sigue fuerte y el debate sobre autenticidad continúa. Cuéntame qué opinas y síguenos en Spotify en Flash Diario.BibliografíaTechCrunchArs TechnicaCNBCEngadgetCNETBlog oficial de GoogleConviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters.
Samsung Galaxy S26 Ultra estrena pantalla antiespías y pone en aprietos a la inteligencia artificialPor Félix Riaño @LocutorCoSamsung presentó la nueva serie Galaxy S26 y, aunque la marca insiste en que estamos ante la era del “teléfono con IA”, la verdadera conversación no gira alrededor de asistentes virtuales. El foco está en una innovación de hardware que, por ahora, solo tiene el modelo más caro: una pantalla con privacidad integrada que oscurece el contenido cuando alguien intenta mirar desde un ángulo lateral.La familia está compuesta por Galaxy S26, S26 Plus y Galaxy S26 Ultra. A primera vista, el diseño cambia muy poco frente a la generación anterior. Pantallas AMOLED de hasta 120 hercios, resistencia al agua IP68 y cámaras de alta resolución siguen presentes. Pero hay diferencias que conviene analizar con calma, sobre todo si alguien está pensando en cambiar de teléfono este año.La función que realmente diferencia al UltraEl Galaxy S26 Ultra mantiene una pantalla de 6,9 pulgadas con resolución de 3.120 x 1.440 píxeles. Integra el procesador Snapdragon 8 Elite Gen 5 en varios mercados y promete mejoras de rendimiento cercanas al 19 % en CPU y 39 % en tareas de inteligencia artificial frente al modelo anterior.Sin embargo, el elemento que más llama la atención es el llamado “Privacy Display”. Se trata de una tecnología integrada en el panel OLED que limita el ángulo de visión. Cuando se activa, la pantalla se ve oscura o casi negra desde los lados, arriba o abajo. Solo quien está frente al dispositivo puede leer con claridad lo que aparece en pantalla.A diferencia de los protectores físicos de privacidad, que reducen el brillo todo el tiempo, esta solución puede activarse o desactivarse desde los ajustes rápidos. Además, se puede configurar para que funcione únicamente en aplicaciones específicas, en notificaciones o cuando el usuario introduce contraseñas.Según Samsung, el desarrollo de esta tecnología tomó cinco años. Para muchos analistas, es el rasgo que realmente diferencia al Ultra en una generación considerada continuista. A diferencia de los protectores físicos de privacidad, que reducen el brillo todo el tiempo, esta solución puede activarse o desactivarse desde los ajustes rápidos. Además, se puede configurar para que funcione únicamente en aplicaciones específicas, en notificaciones o cuando el usuario introduce contraseñas.Según Samsung, el desarrollo de esta tecnología tomó cinco años. Para muchos analistas, es el rasgo que realmente diferencia al Ultra en una generación considerada continuista.Mucha inteligencia artificial, pero ¿qué es realmente nuevo?Samsung centra buena parte de su discurso en la inteligencia artificial. La serie Galaxy S26 incluye herramientas como edición de fotos mediante texto, borrado de ruido en videos incluso en aplicaciones de terceros, organización automática de capturas de pantalla y filtros de llamadas con resúmenes generados por IA.También se refuerza el papel de Bixby, el asistente propio de la marca, que ahora puede entender órdenes más naturales para activar ajustes del sistema sin que el usuario conozca el nombre exacto de cada función.No obstante, muchas de estas mejoras dependen de software y de alianzas con servicios externos, como Gemini de Google o modelos de lenguaje de terceros. Esto abre la puerta a que algunas funciones puedan llegar a modelos anteriores mediante actualizaciones.En otras palabras, no todas las novedades están atadas al nuevo hardware.Precio al alza y almacenamiento base más altoEn Estados Unidos, el Galaxy S26 base arranca en 899,99 dólares, frente a los 799,99 dólares del modelo anterior. El S26 Plus sube a 1.099,99 dólares. El Galaxy S26 Ultra se mantiene en 1.299,99 dólares.En el Reino Unido también se registran aumentos. Samsung atribuye parte del incremento a la presión en el mercado global de memoria, impulsada por la demanda de centros de datos dedicados a inteligencia artificial.Una decisión relevante es la eliminación de la versión de 128 GB. Ahora el almacenamiento base parte de 256 GB en toda la serie. En el caso del Ultra, se ofrecen versiones de 256 GB, 512 GB y 1 TB.Cámaras y batería: ajustes más que revoluciónEl Galaxy S26 Ultra conserva el sensor principal de 200 megapíxeles, acompañado de lentes adicionales que permiten zoom óptico y grabación en 8K a 30 cuadros por segundo. Se anuncian mejoras en apertura y procesamiento para capturar más luz en escenas nocturnas.La batería del Ultra sigue siendo de 5.000 miliamperios hora. La marca promete llegar al 75 % de carga en aproximadamente 30 minutos con un cargador de 60 vatios. El modelo base aumenta su batería a 4.300 miliamperios hora, mientras el Plus se mantiene en 4.900.En comparación con el Galaxy S25, las mejoras en batería y cámara son graduales. No hay cambios drásticos en hardware, sino ajustes en eficiencia y procesamiento.¿Vale la pena cambiar?Para quienes tienen un Galaxy S25, el salto parece limitado. El rendimiento será algo mejor, la batería del modelo base crece ligeramente y la inteligencia artificial es más profunda, pero la experiencia general se mantiene muy cercana.En cambio, quienes usan modelos más antiguos podrían notar un cambio más amplio, especialmente si optan por el Ultra.La pantalla con privacidad integrada es, por ahora, la innovación más concreta y visible. En un mercado donde muchos avances se apoyan en software replicable, esta característica representa una diferencia difícil de copiar mediante una simple actualización.La pregunta final es sencilla: ¿la privacidad en pantalla justifica pagar por el modelo más costoso? Para quienes trabajan con información sensible en espacios públicos, puede ser un argumento sólido. Para otros usuarios, la decisión dependerá más del presupuesto que de la tecnología.BibliografíaCNEThttps://www.cnet.com/tech/mobile/this-one-killer-feature-sets-the-samsung-galaxy-s26-ultra-apart-from-all-other-phones/The Independenthttps://www.independent.co.uk/extras/indybest/gadgets-tech/phones-accessories/samsung-galaxy-s26-ultra-price-pre-order-b2927437.htmlMashablehttps://mashable.com/article/every-samsung-galaxy-unpacked-announcement-s26TechRadarhttps://www.techradar.com/phones/samsung-galaxy-phones/samsung-galaxy-s26-ultra-hands-on-impressionsEngadgethttps://www.engadget.com/mobile/smartphones/samsung-galaxy-s26-vs-galaxy-s25-whats-changed-and-which-one-should-you-buy-181515367.htmlForbeshttps://www.forbes.com/sites/jaymcgregor/2026/02/25/samsung-galaxy-s26-price-specs-features-camera-release-date/The Vergehttps://www.theverge.com/tech/884239/samsung-galaxy-s26-plus-price-specs-geminiWiredhttps://www.wired.com/story/samsung-galaxy-s26-series-galaxy-unpacked/Conviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters.
Dragón divino en órbitaAvión espacial chino Shenlong inicia cuarta misión secreta en órbita baja terrestrePor Félix Riaño @LocutorCoChina lanzó el avión espacial reutilizable Shenlong a órbita baja en su cuarta misión experimental.China volvió a activar uno de sus proyectos más reservados en el espacio. El 6 de febrero de 2026 despegó desde el Centro de Lanzamiento de Satélites de Jiuquan, en el desierto del Gobi, el avión espacial Shenlong, cuyo nombre significa “Dragón Divino”. Es su cuarta misión orbital. Las anteriores comenzaron en septiembre de 2020, mayo de 2023 y septiembre de 2024. Duraron dos días, 276 días y 266 días respectivamente.Esta vez, las autoridades confirmaron el lanzamiento, pero no explicaron qué experimentos realiza en órbita baja terrestre, es decir, a unos 350 kilómetros de altura. Esa distancia es similar a la de la Estación Espacial Internacional. Sabemos que Shenlong es reutilizable y que puede permanecer meses alrededor de la Tierra. Pero la gran pregunta es sencilla: ¿qué está haciendo realmente allá arriba?Avanza en silencio y genera preguntasShenlong viajó al espacio a bordo de un cohete Larga Marcha 2F. Este mismo tipo de cohete lanzó en 2011 el laboratorio Tiangong-1. El vehículo quedó en órbita baja terrestre y comenzó una misión cuyo tiempo total aún no ha sido revelado.En 2024, el observador austríaco Felix Schöfbänker captó imágenes del vehículo con un telescopio de 35 centímetros de diámetro. Las fotografías mostraban estructuras desplegadas que podrían ser paneles solares o antenas. Las estimaciones indican que Shenlong mide cerca de 10 metros de largo. Es un tamaño parecido al del avión espacial estadounidense X-37B, que mide 8,8 metros.Según explicó Space.com, el gobierno chino define la misión como una prueba de tecnologías reutilizables para facilitar viajes espaciales de ida y vuelta más económicos en el futuro.El punto que genera debate es otro. En sus tres misiones anteriores, Shenlong liberó uno o más objetos en órbita. Esto no se supo por comunicados oficiales, sino por el seguimiento del ejército de Estados Unidos, empresas privadas de vigilancia espacial y astrónomos aficionados.Algunos de esos objetos demostraron capacidad de transmisión. Otros mostraron propulsión independiente. Además, Shenlong realizó maniobras de acercamiento y acoplamiento con esos objetos. Estas acciones se conocen como operaciones de encuentro y proximidad, o RPO.Las RPO permiten acercarse a un satélite para inspeccionarlo, repararlo o retirarlo. También podrían utilizarse para interferir con equipos de otros países. Esa doble posibilidad genera inquietud.De acuerdo con la fundación Secure World Foundation, citada por Economic Times, este tipo de maniobras tiene aplicaciones civiles y estratégicas. El problema es que la falta de información alimenta sospechas.Por ahora, no hay evidencia pública de que Shenlong esté diseñado como arma directa. Su tamaño limita la carga útil. Su bahía interna es reducida, similar al espacio de carga de una camioneta. Además, cuando reingresa a la atmósfera lo hace planeando a unos 321 kilómetros por hora. Esa velocidad es muy inferior a la de un proyectil balístico.Expertos consideran más probable que China esté probando sistemas autónomos, gestión térmica para misiones largas, generación de energía en órbita y técnicas avanzadas de encuentro con satélites.El contexto global también influye. Estados Unidos mantiene activo su propio avión espacial, el X-37B, que ya acumula ocho misiones desde 2010. Ambos programas comparten discreción.Según explicó PrimeTimer, la competencia tecnológica en órbita es cada vez más intensa. Las capacidades de permanecer meses en el espacio y maniobrar con precisión se han convertido en habilidades muy valoradas.Más transparencia podría reducir tensiones. Cuando un país no explica sus objetivos, otros imaginan escenarios extremos.El concepto de avión espacial reutilizable busca reducir costos frente a los antiguos transbordadores espaciales, que requerían enormes equipos y presupuestos. Hoy los vehículos son más pequeños, automáticos y diseñados para múltiples vuelos.Shenlong ya demostró permanencias superiores a ocho meses. Eso implica avances en protección térmica, administración de energía y resistencia de materiales.Las operaciones RPO también están siendo desarrolladas por otras potencias. Con miles de satélites en órbita baja, la capacidad de maniobrar con precisión ayuda a evitar colisiones y gestionar basura espacial.Al mismo tiempo, el espacio se ha convertido en un escenario de competencia estratégica. China avanza en su programa lunar con planes de llevar astronautas antes de 2030. Estados Unidos impulsa el programa Artemis. En ese contexto, cada avance tecnológico es observado con atención.El reto será establecer reglas internacionales que mantengan el uso del espacio como un entorno seguro y estable.China lanzó el avión espacial Shenlong en su cuarta misión. Sabemos que prueba tecnología reutilizable y maniobras avanzadas en órbita. Lo que no sabemos es el detalle de sus experimentos. ¿Te genera tranquilidad o inquietud este nivel de reserva? Cuéntame en comentarios y sigue el pódcast en Spotify: Flash Diario🔗 BibliografíaPrimeTimerSpace.comEconomic TimesStarlustThe MirrorConviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters.
Una directora de alineación en Meta conectó un agente de inteligencia artificial a su correo. El sistema empezó a borrar mensajes sin permiso y ella tuvo que correr físicamente a su computador para detenerlo.Por Félix Riaño @LocutorCoAgente OpenClaw casi elimina correos de directora de seguridad en Meta por error humanoLa escena parece de película, pero pasó en la vida real. Summer Yue, directora de seguridad y alineación de inteligencia artificial en Meta, conectó a su bandeja de Gmail un agente autónomo llamado OpenClaw. Su idea era simple: que el sistema revisara su correo, sugiriera qué archivar y esperara confirmación antes de borrar nada.Lo que ocurrió fue distinto. El agente empezó a eliminar mensajes sin pedir autorización. Desde su teléfono, Yue intentó detenerlo escribiendo “no hagas eso” y “STOP OPENCLAW”. No funcionó. Según contó en la red social X, tuvo que correr hasta su Mac mini “como si estuviera desactivando una bomba” para matar los procesos manualmente. ¿Cómo puede pasar algo así justo a alguien que trabaja en que la IA sea segura?Pero la experta también fallóUna lección incómoda sobre confianza tecnológica.Summer Yue trabaja en el laboratorio de “superinteligencia” de Meta. Su rol es estudiar cómo lograr que los sistemas de inteligencia artificial sigan instrucciones humanas y no actúen en contra de nuestros intereses.El agente que utilizó, OpenClaw, es un proyecto de código abierto creado por Peter Steinberger. Es popular porque puede operar 24 horas al día, conectarse a servicios reales y ejecutar tareas sin intervención constante. A diferencia de otros asistentes, no necesita una aprobación manual en cada paso. Eso lo hace atractivo para quienes quieren automatizar tareas repetitivas.Yue ya lo había probado en una bandeja de prueba, con correos poco relevantes. Allí había funcionado bien durante semanas. Ganó confianza. Entonces decidió conectarlo a su bandeja principal, mucho más grande y con información importante. Le indicó que revisara y sugiriera, pero que no actuara sin confirmación. El problema ocurrió cuando el sistema realizó un proceso de “compactación” interna para manejar la gran cantidad de datos. Durante ese proceso, el agente perdió la instrucción original y comenzó a borrar mensajes más antiguos que el 15 de febrero que no estuvieran en una lista de conservación.Este caso abrió varias preguntas. La primera es técnica: ¿cómo un sistema puede ignorar una instrucción explícita como “confirma antes de actuar”? Según explicó Yue, el agente perdió el contexto inicial durante la reorganización de datos. Eso muestra una limitación conocida en modelos de lenguaje: cuando manejan grandes volúmenes de información, pueden resumir o descartar partes del contexto. Si la orden crítica se pierde, el sistema actúa según reglas incompletas.La segunda pregunta es de seguridad. OpenClaw funciona con permisos amplios, incluso acceso de nivel administrador. Eso significa que puede leer, borrar o modificar archivos y cuentas conectadas. El investigador Gary Marcus comparó esta práctica con darle todas tus contraseñas a alguien desconocido que promete ayudarte. Es una metáfora fuerte, pero ayuda a entender el riesgo.Además, no es un caso aislado. Según Bloomberg, otro ingeniero permitió que OpenClaw accediera a su iMessage. El agente terminó enviando más de 500 mensajes no solicitados a contactos al azar. Cuando un sistema autónomo tiene acceso directo a servicios reales, cualquier error escala rápido. Y si la persona no puede detenerlo desde el móvil, el control humano queda en desventaja frente a la velocidad de la máquina.Después de detener el proceso desde su Mac mini, Yue publicó capturas de pantalla donde el agente reconocía que había “violado” la instrucción y pedía disculpas. Ella misma calificó lo ocurrido como un “rookie mistake”, un error de principiante. Admitió que se confió porque el flujo había funcionado bien en su bandeja de prueba.El creador de OpenClaw ha dicho en entrevistas que está priorizando reforzar las salvaguardas de seguridad antes de añadir funciones de facilidad de uso. Eso significa más controles, más confirmaciones y límites de acceso. También recordó que el proyecto todavía está en etapa temprana y no debe tratarse como una herramienta totalmente confiable.Incluso figuras como Elon Musk comentaron en X que dar acceso total a estos agentes es como entregar las llaves de toda tu vida digital. Más allá de la ironía, el punto central es que los sistemas autónomos necesitan barreras técnicas y hábitos responsables por parte de los usuarios.Este episodio no muestra que la inteligencia artificial sea malvada. Muestra que la automatización sin supervisión puede generar consecuencias rápidas. La alineación no es un interruptor que se enciende y listo. Es un proceso continuo de pruebas, errores y mejoras.OpenClaw se volvió tendencia en Silicon Valley porque promete automatizar tareas complejas: organizar correos, enviar mensajes, ejecutar scripts y manejar aplicaciones completas. Funciona como un agente que interpreta instrucciones en lenguaje natural y luego actúa directamente en el sistema operativo.El concepto de “alineación” en inteligencia artificial significa que el sistema debe comportarse de acuerdo con valores y objetivos humanos. En empresas como Meta, OpenAI o Google, hay equipos dedicados a investigar cómo evitar que modelos avanzados generen respuestas dañinas o ejecuten acciones indebidas. Yue llegó a Meta después de acuerdos estratégicos en el sector de datos y modelos avanzados, y su papel está precisamente en estudiar estos riesgos.Curiosamente, al mismo tiempo surgieron reportes de usuarios de Gemini que perdieron historiales de chat tras actualizaciones del sistema. Google calificó esos casos como fallos técnicos y anunció restauraciones. Aunque son situaciones distintas, ambos casos recuerdan algo básico: los datos digitales dependen de sistemas complejos que pueden fallar.Para cualquier persona que use herramientas automáticas, la recomendación técnica es clara: probar primero en entornos controlados, limitar permisos, mantener copias de seguridad y entender qué nivel de acceso se está otorgando. Un agente autónomo puede trabajar rápido, pero también puede equivocarse rápido.Un agente de inteligencia artificial borró correos de la directora de seguridad de Meta tras perder una instrucción. Ella logró detenerlo a tiempo. La historia deja una enseñanza: automatiza con cuidado y nunca entregues acceso total sin respaldo. ¿Tú confiarías tu correo a un agente autónomo? Cuéntamelo y sigue el pódcast en Spotify:Flash Diario🔗 Bibliografía404 MediaBusiness InsiderPC GamerIndia TodayIBTimes UKGizmodoConviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters.
Asha Sharma lidera XboxAsha Sharma asume como CEO de Microsoft Gaming y promete reforzar Xbox y creatividad humanaPor Félix Riaño @LocutorCoMicrosoft nombra a Asha Sharma CEO de su división de videojuegos tras la salida de Phil Spencer. La nueva etapa mezcla consola, nube e inteligencia artificial con foco en juegos creados por personas.Microsoft anunció un cambio histórico en su división de videojuegos. Phil Spencer, quien llevaba 38 años en la empresa y 12 años al frente de Xbox, se va a retirar. En su lugar llega Asha Sharma, ejecutiva que venía liderando productos de inteligencia artificial dentro de Microsoft. Ahora será la nueva directora ejecutiva de Microsoft Gaming y reportará directamente a Satya Nadella.La noticia llega en un momento delicado. Las ventas de consolas Xbox han caído frente a PlayStation y Nintendo. Además, los ingresos por videojuegos bajaron cerca de 10 % en el último trimestre reportado, mientras otras áreas de Microsoft crecían alrededor de 17 %. ¿Puede una líder con perfil en inteligencia artificial recuperar la confianza de los jugadores tradicionales de Xbox?Un giro inesperado hacia la inteligencia artificialPara entender este momento hay que mirar atrás. Phil Spencer tomó el control de Xbox en 2014, cuando la marca atravesaba problemas con el lanzamiento de Xbox One. En esos años se habló incluso de vender la división. Spencer defendió mantener hardware, estudios y software bajo un mismo equipo. Impulsó Xbox Game Pass y lideró compras gigantescas como ZeniMax por 7.500 millones de dólares y Activision Blizzard por 68.700 millones de dólares.Hoy Microsoft Gaming reúne casi 40 estudios. Allí viven sagas como Halo, Call of Duty, World of Warcraft, Diablo y Candy Crush Saga. Son mundos que mueven millones de jugadores cada mes.En ese contexto entra Asha Sharma. Ella trabajó en Meta, fue directora de operaciones en Instacart y luego regresó a Microsoft para liderar CoreAI, el grupo que desarrolla herramientas de inteligencia artificial. En su primer mensaje dijo algo directo: no va a llenar el ecosistema con “basura hecha por IA”. Aseguró que los juegos seguirán siendo arte creado por personas.La llegada de Asha Sharma ha generado debate. Muchos jugadores temen que Xbox se convierta en un laboratorio de inteligencia artificial y pierda identidad. Durante los últimos años, Microsoft llevó varios juegos exclusivos a consolas rivales. Eso hizo que parte de la comunidad sintiera que Xbox estaba perdiendo su esencia.Además, los números no ayudan. Según datos de mercado citados por medios especializados, las ventas de consolas Xbox cayeron hasta 70 % en la temporada navideña de 2025 frente al año anterior. Mientras tanto, Sony y Nintendo mantienen una base fuerte de usuarios.También hubo recortes de personal y cierre de estudios. Más de 2.500 puestos relacionados con videojuegos se han eliminado desde 2024. Todo esto ocurre mientras el desarrollo de juegos es cada vez más costoso y largo.A esto se suma otra pregunta. Microsoft está invirtiendo miles de millones en inteligencia artificial. ¿Se usará la IA para ayudar a los desarrolladores o para reducir costos? Sharma dice que no perseguirá eficiencia rápida a costa de calidad. Pero muchos fans quieren ver acciones concretas, como nuevos juegos exclusivos potentes y una consola con identidad clara.En sus primeras declaraciones, Asha Sharma marcó tres prioridades. Primero, grandes juegos. Habló de personajes inolvidables y de historias que hagan sentir algo. Segundo, el regreso de Xbox como consola central para sus fans más fieles. Y tercero, el futuro del juego en múltiples dispositivos.Eso significa que Xbox va a seguir en consolas, pero también en PC, móviles y nube. Microsoft ya permite jugar títulos propios en otras plataformas y en streaming. Sharma dice que buscará romper barreras para que un desarrollador cree una vez y llegue a muchos dispositivos.Matt Booty fue ascendido a director de contenido y seguirá supervisando los estudios. Phil Spencer acompañará la transición hasta el verano. No habrá cambios inmediatos en la estructura de estudios.La gran prueba llegará pronto. En 2026 se esperan lanzamientos de alto impacto, incluido Grand Theft Auto VI, que estará disponible en Xbox Series X y Series S. Si Xbox logra atraer jugadores con catálogo fuerte y experiencia estable, el nuevo liderazgo ganará tiempo y confianza.Xbox cumple 25 años desde el lanzamiento de su primera consola en 2001. En ese cuarto de siglo, la marca pasó de ser una apuesta arriesgada frente a Sony a convertirse en una red global con más de 500 millones de usuarios activos mensuales, según cifras compartidas por Microsoft.La compra de Activision Blizzard por 68.700 millones de dólares fue una de las más grandes en la historia del entretenimiento digital. Esa operación dio a Microsoft franquicias como Call of Duty y World of Warcraft. También consolidó su presencia en juegos móviles gracias a King, creadora de Candy Crush.Asha Sharma tiene 36 años y formación en negocios. Antes de volver a Microsoft, gestionó en Instacart operaciones que movían más de 30.000 millones de dólares en volumen bruto de mercancías. Su experiencia ha estado centrada en plataformas digitales que escalan a millones de usuarios.En paralelo, Microsoft desarrolla herramientas de inteligencia artificial como Copilot y servicios en la nube que pueden integrarse en el desarrollo de videojuegos. La promesa es usar estas tecnologías para acelerar pruebas, mejorar gráficos o ayudar a los equipos creativos, sin reemplazar el trabajo humano.El reto será equilibrar tradición y tecnología. La industria del videojuego vive una transformación profunda. Consolas, nube, suscripciones y ahora IA conviven en un mismo tablero.Phil Spencer se retira y Asha Sharma toma el mando de Xbox en un momento desafiante. La promesa es reforzar la consola y usar inteligencia artificial con responsabilidad. Vamos a seguir atentos a los próximos anuncios y lanzamientos. Cuéntame qué esperas tú del futuro de Xbox y sigue Flash Diario en Spotify.BibliografíaMicrosoft BlogCNBCThe VergeVarietyForbesPCMagConviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters.
Teletransportación cuántica en BerlínLa fibra comercial de Berlín logró teletransportar información cuántica con 90 % de fidelidad promedio realPor Félix Riaño @LocutorCoDeutsche Telekom y Qunnect prueban teletransportación cuántica sobre fibra óptica comercial en red activa urbana.En Berlín ocurrió algo que suena a película de ciencia ficción, pero no lo es. La empresa alemana Deutsche Telekom y la empresa estadounidense Qunnect lograron teletransportar información cuántica a través de 30 kilómetros de fibra óptica comercial que ya estaba en uso.Sí, escuchaste bien. No estaban en un laboratorio aislado. Estaban usando la misma infraestructura por donde circulan llamadas, mensajes y datos de internet. Y lo hicieron con una fidelidad promedio del 90 %. En algunos momentos alcanzaron el 95 %.Pero calma. No estamos hablando de personas viajando de un punto a otro. Estamos hablando de qubits. ¿Qué significa eso realmente? ¿Y por qué importa que esto ocurra fuera de un laboratorio?La física es frágil fuera del laboratorioPrimero vamos a entender qué pasó.Un qubit es la unidad básica de información en computación cuántica. A diferencia de un bit tradicional, que solo puede ser cero o uno, el qubit puede estar en una combinación de ambos estados al mismo tiempo. Eso permite cálculos que un computador clásico tardaría miles de años en resolver.La teletransportación cuántica no mueve materia. Lo que hace es transferir el estado cuántico de una partícula a otra distante, usando un fenómeno llamado entrelazamiento cuántico. Dos partículas quedan conectadas de tal forma que lo que le pasa a una afecta a la otra, aunque estén separadas por kilómetros.En enero de 2026, en una red activa de Berlín, los investigadores teletransportaron qubits generados por una fuente coherente débil a lo largo de 30 kilómetros de fibra óptica comercial. Esto ocurrió mientras el cable transportaba tráfico normal de internet.La plataforma utilizada fue el sistema Carina de Qunnect, que genera pares de fotones entrelazados y corrige automáticamente perturbaciones ambientales.Y aquí está el detalle interesante: la teletransportación se realizó a una longitud de onda de 795 nanómetros. Esa frecuencia es útil para conectar computadores cuánticos de átomos neutros, relojes atómicos y sensores cuánticos.Ahora bien, lograr esto en la vida real no es sencillo.Las redes cuánticas son extremadamente sensibles. Vibraciones, cambios de temperatura, interferencias eléctricas, incluso el paso de un camión pesado pueden alterar la señal en la fibra. En una ciudad como Berlín, con infraestructura subterránea compleja, eso es un desafío constante.Además, la fidelidad del 90 % significa que en promedio 9 de cada 10 estados cuánticos llegaron correctamente reconstruidos. Eso es alto, pero todavía no es perfecto. Para aplicaciones comerciales masivas, se necesitará acercarse mucho más al 100 %.También hay otra duda razonable. La computación cuántica todavía no está lista para uso general. Muchos prototipos requieren enfriamiento criogénico extremo. Entonces, ¿para qué teletransportar qubits si aún no hay redes globales de computadores cuánticos funcionando?Por otro lado, la seguridad. Se dice que los computadores cuánticos del futuro podrían romper los sistemas de cifrado actuales. Algunos expertos impulsan la criptografía poscuántica. Otros creen que se necesitarán redes basadas en física cuántica, como la distribución de claves cuánticas. Pero esa tecnología tiene límites de distancia cercanos a 200 kilómetros y ha recibido críticas por posibles vulnerabilidades técnicas.Así que la pregunta es: ¿esto es un avance sólido o es todavía una demostración experimental con muchas piezas faltantes?Lo que cambia el panorama es el contexto.No fue una simulación. Fue una red comercial operativa. Eso significa que los equipos de Qunnect se instalaron en racks reales, bajo control del operador, y convivieron con tráfico digital normal.Según declaraciones del equipo, el objetivo es avanzar hacia configuraciones con múltiples nodos y mayores distancias. Eso permitiría conectar centros de datos cuánticos en distintas ubicaciones y repartir carga de cálculo.En paralelo, en Nueva York, Qunnect trabajó con Cisco Systems para demostrar intercambio de entrelazamiento en una red metropolitana de 17,6 kilómetros. Allí lograron más de 1,7 millones de pares entrelazados por hora en pruebas locales y 5.400 pares por hora sobre fibra desplegada, con fidelidad superior al 99 %.Eso valida algo importante: estas tecnologías pueden funcionar en ciudades reales, con ruido real y cables reales.¿Significa que mañana tendremos internet cuántico en casa? No. Pero sí indica que las bases técnicas están saliendo del laboratorio y entrando en infraestructura existente.El concepto de internet cuántico busca conectar computadores cuánticos, sensores y relojes atómicos para que trabajen como una red distribuida. Esto permitiría, por ejemplo, sincronización ultra precisa, redes de sensores ambientales de alta sensibilidad y comunicaciones resistentes a ciertos tipos de espionaje.En Europa existe un interés estratégico en este campo. Se habla de soberanía tecnológica y de reducir dependencia de infraestructuras externas.En Estados Unidos, varias empresas también exploran arquitecturas tipo “hub and spoke”, donde un nodo central gestiona el entrelazamiento y otros nodos funcionan con equipos a temperatura ambiente, reduciendo costos.La publicación técnica del experimento de Berlín está disponible en arXiv, lo que permite que la comunidad científica revise los datos. Eso es relevante porque no se trata solo de un comunicado corporativo.Todavía faltan componentes como memorias cuánticas estables y repetidores cuánticos para ampliar distancias de cientos a miles de kilómetros. Pero estos ensayos muestran que la fibra óptica ya desplegada puede ser parte del futuro cuántico.Berlín logró teletransportar qubits por 30 kilómetros de fibra comercial con 90 % de fidelidad. No es ciencia ficción. Es infraestructura real probando redes cuánticas.¿Confías más en criptografía matemática o en seguridad basada en física cuántica? Cuéntamelo.Sigue el pódcast en Spotify:Flash DiarioBibliografíaDeutsche TelekomLight ReadingTom’s HardwareQuantum Computing ReportReutersConviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters.
Gemini crea canciones con Lyria 3 mientras Sony desarrolla tecnología para medir influencias y futuras regalías en música generada por IA Por Félix Riaño @LocutorCoGemini ya genera canciones con IA y Sony prepara herramientas para rastrear qué música humana influyó en ellasGoogle acaba de activar una nueva función en Google Gemini. Ahora puedes escribir una frase y obtener una canción de 30 segundos. Rap, pop, rock, afrobeat. Con letra o instrumental.El modelo que lo hace posible se llama Lyria 3 y viene del equipo de Google DeepMind. Está disponible desde el 18 de febrero de 2026 para mayores de 18 años en ocho idiomas, incluido el español.Pero mientras Google invita a jugar con la música, otra empresa trabaja en algo muy distinto. Sony Group desarrolla una tecnología capaz de estimar cuánto influyen canciones humanas en una pista creada por IA.Una crea. La otra mide. ¿Estamos entrando en la era del contador musical digital?Crear ahora es muy fácil. Rastrear es complejo.Primero, lo nuevo de Google.En la app de Gemini, vas a “Herramientas” y eliges “Crear música”. Escribes algo como: “Pop latino, ritmo alegre, guitarra acústica, voz femenina suave, letra sobre una mascota”. En segundos tienes un archivo de 30 segundos listo para descargar en MP3 o en video.Si subes una foto o un clip, Gemini analiza la imagen y compone algo que encaje con esa atmósfera. La portada la genera el modelo Nano Banana. Todo queda listo para compartir.Google aclara que el objetivo no es crear el próximo éxito mundial. Es expresión rápida. Una broma. Una banda sonora para un Short.Las canciones llevan una marca invisible llamada SynthID. Es un watermark digital que identifica que el audio fue generado por IA de Google. También puedes subir un archivo a Gemini y preguntarle si fue creado con su sistema.Eso es el lado creativo. Ahora viene el lado contable.La industria musical lleva años preguntando lo mismo: ¿con qué datos se entrenan estos modelos?Plataformas como Suno y Udio enfrentaron demandas por presunto uso de grabaciones protegidas sin licencia. El debate gira en torno a una pregunta sencilla: si una IA aprende escuchando música humana, ¿quién debe recibir pago?Ahí entra Sony.El equipo de Sony AI publicó una investigación sobre un sistema capaz de estimar qué canciones influyen en una pista generada por IA. En pruebas académicas, el sistema puede calcular porcentajes aproximados de influencia.Si el desarrollador coopera, se analizan datos internos del modelo. Si no coopera, se comparan las canciones generadas con grandes catálogos musicales.El reto es técnico y enorme. En pruebas con conjuntos relativamente pequeños, atribuir influencias puede tardar horas usando equipos muy potentes. Llevar eso a escala industrial es un desafío todavía abierto.Pero la intención es clara: construir una base para repartir regalías cuando la IA participe en la creación musical.No estamos ante una pelea directa entre Google y Sony. Estamos viendo dos movimientos en el mismo tablero.Google apuesta por integrar texto, imagen, video y ahora sonido en un solo ecosistema creativo. Con millones de usuarios activos en Gemini, la generación musical se vuelve cotidiana.Sony, que controla enormes catálogos históricos, explora cómo transformar la atribución en una herramienta de negociación y reparto económico.Si la música generada por IA crece en plataformas de streaming, será necesario decidir cómo se distribuyen los ingresos.La gran pregunta es esta: ¿vamos a tener un sistema donde cada canción generada por IA venga acompañada de un cálculo de influencia?La tecnología ya está en desarrollo. Lo que falta es que la industria acuerde cómo usarla.Lyria 3 está disponible en inglés, alemán, español, francés, hindi, japonés, coreano y portugués. Google planea ampliar idiomas y mejorar calidad.Los usuarios gratuitos pueden crear canciones con límites diarios. Los planes de pago permiten más generación.Además, Google integra Lyria 3 con YouTube Dream Track para crear música personalizada en Shorts. Eso puede impactar directamente en la producción masiva de contenido corto.Mientras tanto, empresas y sellos discográficos desarrollan herramientas de detección basadas en análisis estadístico y técnicas de “machine unlearning”. Estos sistemas intentan identificar qué partes del conocimiento de un modelo influyen en un resultado específico.El debate no es si la IA puede hacer música. Ya puede.El debate es cómo se mide su deuda con la música humana.Gemini ahora crea canciones en segundos. Sony trabaja en medir qué música humana influyó en ellas.Estamos ante creatividad instantánea y contabilidad algorítmica al mismo tiempo.¿Te entusiasma más crear o medir?Escucha más episodios en Spotify: Flash Diario BibliografíaNumeramaFrandroidBFMTVGoogle BlogComplete Music UpdateElectronics WeeklyConviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters.
Latam-GPT regionalLatam-GPT, el modelo abierto chileno, busca reducir sesgos y fortalecer soberanía tecnológica latinoamericanaPor Félix Riaño @LocutorCoChile presentó Latam-GPT, un modelo de inteligencia artificial abierto entrenado con datos de América Latina y el Caribe para mejorar la representación cultural y lingüística en sistemas de IAChile acaba de dar un paso que puede cambiar la conversación sobre inteligencia artificial en nuestra región. El 10 de febrero, en Santiago, se presentó Latam-GPT, un modelo de lenguaje abierto creado desde América Latina y pensado para América Latina. El proyecto fue coordinado por el Centro Nacional de Inteligencia Artificial de Chile y reunió a más de 60 instituciones y cerca de 200 especialistas de al menos 15 países.La idea es sencilla de entender: muchos sistemas de inteligencia artificial que usamos a diario fueron entrenados sobre todo con información en inglés y con referencias culturales del norte global. Eso deja por fuera parte de nuestra historia, nuestras palabras y nuestras formas de hablar. ¿Puede una región participar en la revolución de la IA si su propia voz casi no aparece en los datos?La región quiere su propia voz digitalLatam-GPT fue desarrollado sobre la arquitectura abierta Llama 3.1, creada por Meta. Tiene 70.000 millones de parámetros. Cuando hablamos de parámetros, nos referimos a los valores internos que el modelo ajusta para aprender patrones del lenguaje. Entre más parámetros, mayor capacidad para captar relaciones complejas entre palabras y contextos.Para entrenarlo, el equipo reunió más de 300.000 millones de fragmentos de texto, lo que equivale a unos 230.000 millones de palabras. También se habla de más de ocho terabytes de información. Ocho terabytes son ocho millones de megabytes, un volumen comparable al contenido de millones de libros digitales. Todo ese material fue recopilado con permisos y licencias, según el Centro Nacional de Inteligencia Artificial.El modelo fue entrenado principalmente en español y portugués, los idiomas mayoritarios de la región. Además, el plan es incorporar lenguas indígenas como el mapudungun y el rapa nui. En su primera fase se entrenó en la nube de Amazon Web Services, y en 2026 se va a utilizar un supercomputador en la Universidad de Tarapacá, en el norte de Chile, con una inversión cercana a cinco millones de dólares.El contexto es claro. Estudios citados por los impulsores del proyecto indican que el español representa alrededor del 4 % de los datos usados para entrenar grandes modelos de lenguaje. El portugués apenas ronda el 2 %. Eso significa que más del 90 % del material proviene de otros idiomas y otras realidades culturales.Cuando un modelo aprende sobre todo con datos de Estados Unidos o Europa, puede responder mejor a preguntas sobre el sitio de Calais en 1346 que sobre el sitio de Chillán en la independencia chilena. Puede generar imágenes estereotipadas cuando se le pide representar a una persona latinoamericana. Ese sesgo no siempre es malintencionado, pero sí refleja un desequilibrio en los datos.Al mismo tiempo, el mercado global de la inteligencia artificial está dominado por grandes empresas de Estados Unidos y China, con presupuestos de cientos de millones o miles de millones de dólares. Latam-GPT fue desarrollado con un presupuesto cercano a 550.000 dólares, según varias fuentes. Algunos académicos advierten que, con esa diferencia de recursos, competir de tú a tú con modelos comerciales será muy difícil. Entonces surge otra pregunta: ¿el objetivo es competir o construir infraestructura pública regional?Los responsables del proyecto insisten en que Latam-GPT no nace como un chatbot para el público general. No es una copia directa de servicios como ChatGPT o Gemini. Es una base tecnológica abierta que gobiernos, universidades y empresas pueden adaptar a sus propias necesidades.Al estar disponible en plataformas como Hugging Face y GitHub, cualquier desarrollador puede descargar el modelo, ajustarlo y crear aplicaciones locales. Por ejemplo, la empresa chilena Digevo ya anunció que va a usarlo para desarrollar sistemas de atención al cliente para aerolíneas y comercios, capaces de entender modismos, velocidad de habla y expresiones regionales.El presidente chileno, Gabriel Boric, afirmó durante el lanzamiento que la región quiere sentarse a la mesa de la economía digital del futuro. La apuesta es construir soberanía tecnológica. Eso implica tener capacidad de decisión sobre los datos, las reglas y los usos de la inteligencia artificial en servicios públicos, salud, educación y justicia.Latam-GPT se suma a otras iniciativas regionales como SEA-LION en el sudeste asiático y UlizaLlama en África. Todas comparten una idea: adaptar la inteligencia artificial a contextos culturales específicos y reducir la dependencia de modelos extranjeros.El proyecto fue coordinado por el Centro Nacional de Inteligencia Artificial de Chile, con apoyo del Ministerio de Ciencia de ese país, el Banco de Desarrollo de América Latina y el Caribe, conocido como CAF, y otras organizaciones académicas y sociales de países como Colombia, Brasil, México, Perú, Uruguay y Argentina.Aunque el presupuesto inicial fue modesto en comparación con los gigantes tecnológicos, el plan contempla nuevas inversiones en infraestructura. El supercomputador que se instalará en la Universidad de Tarapacá permitirá entrenar versiones futuras con mayor capacidad y posiblemente añadir funciones multimodales, es decir, que el modelo pueda trabajar también con imágenes, audio o video.Otro punto clave es la gobernanza. Al tratarse de un modelo abierto, será necesario establecer reglas de uso, evaluaciones de sesgo, documentación sobre los datos empleados y mecanismos de actualización. La apertura facilita auditorías y adaptaciones locales, pero también exige responsabilidad en su implementación.Desde el punto de vista económico, un modelo regional puede reducir costos para startups y entidades públicas que no pueden pagar licencias elevadas de servicios internacionales. También puede impulsar la investigación en universidades latinoamericanas y formar talento especializado en inteligencia artificial.La gran incógnita es la sostenibilidad a largo plazo. Los modelos de lenguaje requieren actualizaciones constantes, nuevos datos y capacidad de cómputo. Si la coalición de más de 60 instituciones se mantiene activa, Latam-GPT puede convertirse en una plataforma estable. Si pierde financiación, el impulso inicial podría diluirse.En resumen, Latam-GPT es un modelo de inteligencia artificial abierto creado en Chile con apoyo regional para mejorar la representación cultural y lingüística de América Latina. Busca reducir sesgos y fortalecer soberanía tecnológica. Ahora la pregunta es cómo se va a usar y si logrará consolidarse como infraestructura pública regional.Te invito a seguir el pódcast en Spotify y a compartir este episodio de Flash Diario. Tu apoyo ayuda a que más personas entiendan la tecnología que está transformando nuestro mundo.BibliografíaAI BusinessEuronewsUPIIntelliNewsFrance InfoThe Tico TimesConviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters.
Anillo de fuego solarAnillo de fuego solar del 17 de febrero de 2026 visible en la AntártidaPor Félix Riaño @LocutorCoEl primer eclipse solar de 2026 será anular, con un “anillo de fuego” visible desde la Antártida y parcialmente desde Sudamérica y África.Este 17 de febrero de 2026 el cielo va a ofrecer uno de esos espectáculos que parecen de ciencia ficción. La Luna va a pasar justo delante del Sol y va a dejar un aro brillante alrededor. A eso se le llama eclipse solar anular, o como muchos lo conocen, “anillo de fuego”.Pero hay un detalle importante: apenas alrededor del 2 % de la población mundial va a poder verlo en persona. El lugar privilegiado será una franja muy estrecha de la Antártida. En el sur de Argentina, Chile y partes del sur de África se va a observar como eclipse parcial.¿Por qué esta vez casi nadie habla del eclipse? ¿Qué lo hace diferente del eclipse total que vimos en 2024 en América? Vamos a entenderlo paso a paso.Pocas personas podrán verlo directamenteUn eclipse solar ocurre cuando la Luna se interpone entre la Tierra y el Sol. Eso sucede en fase de Luna nueva. Pero no siempre vemos un eclipse. La razón es geométrica. La órbita de la Luna está inclinada. Muchas veces pasa un poco por encima o por debajo del Sol desde nuestra perspectiva.En este caso, el alineamiento será casi perfecto. La Luna cubrirá hasta el 96 % del disco solar en la zona central del fenómeno. El problema es que la Luna estará un poco más lejos de la Tierra en su órbita elíptica. Al estar más lejos, se verá ligeramente más pequeña. Por eso no tapará el Sol por completo.El resultado será un círculo oscuro con un borde brillante alrededor. Ese borde es el Sol que sigue asomando. El fenómeno completo comenzará a las 09:56 en Tiempo Universal Coordinado y terminará a las 14:27. En el punto máximo, el anillo podrá durar hasta 2 minutos y 20 segundos. La sombra recorrerá un corredor de unos 4.282 kilómetros de largo y 616 kilómetros de ancho sobre el hielo antártico.Aquí viene el punto curioso. Este eclipse no generará grandes concentraciones de turistas. La franja de anularidad cruza una región de la Antártida donde casi no vive nadie. Se estima que apenas algunas decenas de científicos en bases como Concordia o Mirny podrán observar el anillo completo si el clima lo permite.Eso explica por qué el evento pasa casi desapercibido en muchos países. En el sur de Argentina y Chile el Sol aparecerá “mordido”, pero no se verá el anillo completo. En zonas del sur de África también será parcial. Para millones de personas en el hemisferio norte, simplemente no será visible.Otro punto clave es la seguridad. En un eclipse total, durante unos instantes se puede mirar sin gafas especiales cuando el Sol queda completamente cubierto. Aquí eso nunca ocurrirá. Siempre habrá luz solar directa. Mirar sin protección puede causar daño permanente en la retina. Gafas de sol normales no sirven. Se necesitan gafas certificadas para observación solar o métodos indirectos como un proyector estenopeico hecho con cartón.Aunque este eclipse sea remoto, forma parte de un ciclo más amplio. Los eclipses suelen venir en temporadas. Cuando ocurre uno solar, alrededor de dos semanas antes o después suele haber uno lunar. Y eso es lo que va a pasar ahora.El 3 de marzo de 2026 habrá un eclipse lunar total visible desde América, Asia, Australia y el Pacífico. En ese caso, la Tierra se interpondrá entre el Sol y la Luna. La Luna se teñirá de rojo. Ese fenómeno sí será visible para millones de personas y no requerirá gafas especiales.Además, el calendario astronómico de 2026 viene cargado. El 12 de agosto de 2026 habrá un eclipse solar total visible desde Groenlandia, Islandia y el norte de España. En 2027 habrá otro eclipse anular visible desde el sur de Chile y Argentina, con una duración mucho mayor.Así que, aunque este “anillo de fuego” sea exclusivo de la Antártida, el espectáculo de los eclipses seguirá ofreciendo oportunidades más accesibles muy pronto.Un dato fascinante es la coincidencia de tamaños aparentes entre el Sol y la Luna. El Sol es unas 400 veces más grande que la Luna. Pero también está aproximadamente 400 veces más lejos. Esa proporción hace que, vistos desde la Tierra, ambos parezcan casi del mismo tamaño.Cuando la Luna está en su punto más cercano a la Tierra, puede cubrir el Sol por completo y producir un eclipse total. Cuando está más lejos, como ahora, deja ese aro brillante.Se calcula que alrededor de 176 millones de personas podrán ver al menos una fase parcial de este eclipse. Aun así, eso representa una pequeña fracción del planeta.Y un detalle interesante: en regiones como el noroeste de Estados Unidos no se verá ningún eclipse solar hasta el año 2045. En otras palabras, la geografía decide quién puede vivir estos momentos. Todo depende de estar exactamente en el lugar correcto cuando la sombra pasa. Es pura mecánica celeste.Resumen y recomendaciónEl 17 de febrero de 2026 veremos un eclipse solar anular con un “anillo de fuego” visible desde la Antártida. Será breve, remoto y científicamente fascinante. Si no puedes verlo, prepárate para el eclipse lunar del 3 de marzo.Cuéntame si alguna vez has visto un eclipse y qué sentiste. BibliografíaCNNSky at Night MagazineSpace.comLive ScienceConviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters.
























💚WATCH>>ᗪOᗯᑎᒪOᗩᗪ>>👉https://co.fastmovies.org
🔴WATCH>>ᗪOᗯᑎᒪOᗩᗪ>>👉https://co.fastmovies.org