Discover
FLASH DIARIO de El Siglo 21 es Hoy
FLASH DIARIO de El Siglo 21 es Hoy
Author: @LocutorCo
Subscribed: 22Played: 1,340Subscribe
Share
© @LocutorCo
Description
Noticias de ciencia y tecnología en Flash Diario, de El Siglo 21 es Hoy.
Este es el pódcast informativo que te mantiene al día con las noticias más relevantes del mundo tecnológico y científico. ¡En 5 minutos!
Noticias de tecnología, noticias de ciencia, noticias de entretenimiento digital. Y también noticias de economía digital. Es un producto informativo de ElSiglo21esHoy.com
Cada episodio de Flash Diario te ofrece una dosis diaria de noticias de actualidad en formato breve y conciso, presentando las noticias más importantes en diferentes ámbitos como la tecnología, la ciencia, la cultura y la sociedad. Con Flash Diario no tienes que preocuparte por perderte ninguna novedad o avance importante en tu día a día.
En 5 minutos (promedio) te ofrecemos la información más relevante de manera clara y precisa, para que puedas estar al tanto de lo que sucede en el mundo sin perder tiempo ni detalles.
Flash Diario es el compañero perfecto para las personas que quieren estar al tanto de las últimas noticias pero no tienen tiempo para seguir programas más largos y detallados.
Con Flash Diario estarás siempre actualizado, informado y preparado para cualquier conversación o situación que se presente. ¡Suscríbete ahora y no te pierdas ni un solo flash informativo!
Suscríbete gratis en:
➜ YouTube: https://bit.ly/FlashDiario
➜ Spotify: https://spoti.fi/3MRBhwH
➜ Apple Podcasts: https://apple.co/3BR7AWe
Conviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.
Este es el pódcast informativo que te mantiene al día con las noticias más relevantes del mundo tecnológico y científico. ¡En 5 minutos!
Noticias de tecnología, noticias de ciencia, noticias de entretenimiento digital. Y también noticias de economía digital. Es un producto informativo de ElSiglo21esHoy.com
Cada episodio de Flash Diario te ofrece una dosis diaria de noticias de actualidad en formato breve y conciso, presentando las noticias más importantes en diferentes ámbitos como la tecnología, la ciencia, la cultura y la sociedad. Con Flash Diario no tienes que preocuparte por perderte ninguna novedad o avance importante en tu día a día.
En 5 minutos (promedio) te ofrecemos la información más relevante de manera clara y precisa, para que puedas estar al tanto de lo que sucede en el mundo sin perder tiempo ni detalles.
Flash Diario es el compañero perfecto para las personas que quieren estar al tanto de las últimas noticias pero no tienen tiempo para seguir programas más largos y detallados.
Con Flash Diario estarás siempre actualizado, informado y preparado para cualquier conversación o situación que se presente. ¡Suscríbete ahora y no te pierdas ni un solo flash informativo!
Suscríbete gratis en:
➜ YouTube: https://bit.ly/FlashDiario
➜ Spotify: https://spoti.fi/3MRBhwH
➜ Apple Podcasts: https://apple.co/3BR7AWe
Conviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.
719 Episodes
Reverse
PlayStation gana terreno al permitir jugar más de 2.800 juegos en la nube sin necesidad de tener una consola PS5. Por Félix Riaño @LocutorCo Escucha el Flash Diario en SpotifySony actualizó el PlayStation Portal para que sus usuarios jueguen directamente desde la nube, sin una consola. Con esta jugada, PlayStation supera a Xbox en su propio terreno: el juego en streaming. Ahora, los suscriptores de PlayStation Plus Premium pueden acceder a miles de títulos en cualquier lugar con conexión Wi-Fi. PlayStation anunció la llegada oficial del juego en la nube a su dispositivo portátil PlayStation Portal. Desde este 5 de noviembre, los jugadores pueden disfrutar de miles de títulos de PS5 sin tener la consola. Entre ellos están Astro Bot, Grand Theft Auto V, Resident Evil 4 y Final Fantasy VII Rebirth. Esta función, exclusiva del plan Premium de PlayStation Plus, ofrece transmisión directa desde los servidores de Sony y un catálogo superior al de Xbox Cloud Gaming. ¿Está PlayStation preparándose para dominar también el juego en PC y la nube? ¿Xbox ya no es el rey del juego en la nube? Durante años, Sony y Microsoft compitieron por tener la mejor consola. PlayStation 5 logró vender más de 50 millones de unidades, mientras Xbox se enfocó en servicios como Game Pass Ultimate y su plataforma en la nube. Pero ahora, la historia cambia. Con esta actualización, el PlayStation Portal se convierte en un dispositivo realmente independiente: permite jugar sin consola, desde cualquier lugar con buena conexión. La interfaz fue rediseñada y ahora incluye tres secciones: “Remote Play”, “Cloud Streaming” y “Buscar”. Además, añade sonido 3D, compras dentro del juego y opciones de accesibilidad. Este avance pone presión sobre Xbox. Hasta ahora, Microsoft mantenía la ventaja con Xbox Cloud Gaming y su programa Play Anywhere, que permite comprar un juego una sola vez y usarlo tanto en consola como en PC. Pero las filtraciones indican que Sony también prepara un sistema de “Cross Buy”, es decir, una compra única entre PS5 y PC. Si eso se confirma, PlayStation igualará e incluso superará la estrategia de Xbox. La diferencia principal está en el catálogo: la plataforma de Sony cuenta con más de 2.800 juegos disponibles para streaming, mientras que Xbox ofrece alrededor de 2.100. El nuevo enfoque de Sony parece claro: ampliar su ecosistema sin depender del hardware. El PlayStation Portal, que costaba cerca de 200 dólares y antes servía solo como accesorio del PS5, ahora se convierte en una consola portátil para jugar títulos de última generación en cualquier parte. Incluso permite recibir invitaciones multijugador y hacer compras dentro del juego sin salir de la sesión. Aunque Xbox sigue ofreciendo ventajas como Game Pass Ultimate y compatibilidad total con Windows, su estrategia de eliminar exclusividades podría jugarle en contra. Mientras tanto, Sony gana terreno con funciones que acercan la experiencia del PS5 a cualquier pantalla. El éxito del Portal sorprendió a Sony: fue el accesorio de videojuegos más vendido en Reino Unido en julio de 2024, con cerca de dos millones de unidades. Con la llegada del streaming oficial, el número de usuarios podría crecer mucho más. Este cambio también prepara el terreno para la próxima generación: se rumorea que el futuro PlayStation 6 tendrá dos versiones, una de sobremesa y otra portátil, ambas listas para streaming. En cambio, Microsoft planea integrar su siguiente Xbox con Windows y Steam, lo que podría fragmentar su catálogo. El mercado de los videojuegos parece entrar en una nueva fase donde el hardware ya no es lo más importante. PlayStation Portal ya puede jugar miles de títulos de PS5 sin consola y supera a Xbox en la nube. ¿Estamos ante un nuevo futuro sin hardware? Comenta tu opinión y sigue escuchando Flash Diario en Spotify. PlayStation Portal ya permite jugar más de 2.800 títulos en la nube sin consola. Xbox pierde su ventaja en streaming. 📚 Fuentes:Windows CentralPlayStation BlogIGNGamesRadarEurogamerMetro UKConviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.📲 ¿Quieres ver más contenidos de ciencia y tecnología todos los días?Sígueme en Instagram: @ElSiglo21eshoy
El visitante vuelve: El cometa interestelar 3I/ATLAS reaparece con datos nuevos y un cambio de velocidad que intriga a la NASA. Por Félix Riaño @LocutorCo Escucha todos los días el Flash DiarioDespués de pasar oculto tras el Sol durante octubre, el visitante interestelar 3I/ATLAS volvió a escena con novedades que están desconcertando a la comunidad científica. NASA ha confirmado que el objeto cambió su velocidad y trayectoria de forma que no encaja con las fuerzas conocidas. Al mismo tiempo, su color se tornó azul brillante y su brillo aumentó más de lo esperado. En este episodio vamos a repasar qué se ha descubierto desde su paso por el perihelio, qué está analizando la NASA y cuándo podremos volver a observarlo desde la Tierra. El 29 de octubre, el cometa 3I/ATLAS alcanzó su punto más cercano al Sol. Los observatorios que siguieron su paso registraron un aumento repentino de luminosidad y un cambio de color: de verde a azul. Pocos días después, NASA confirmó algo más extraño aún: una aceleración no gravitacional, un impulso que lo movió fuera de su ruta calculada.Los científicos del Laboratorio de Propulsión a Chorro publicaron que el objeto avanza ahora a unos 245 000 kilómetros por hora, un incremento difícil de justificar solo con la acción del calor solar. Harvard, la Agencia Espacial Europea y el Instituto Coreano de Astronomía están revisando la información más reciente mientras el cometa vuelve a hacerse visible antes de continuar su viaje fuera del sistema solar. Volvió… y ahora se comporta de forma imposible. Las nuevas observaciones provienen de telescopios en Chile, Sudáfrica, Australia y del James Webb Space Telescope, que captó un halo azul a su alrededor. El análisis espectral indica una proporción inusual de dióxido de carbono ocho veces superior al agua, y presencia de níquel metálico en niveles que no existen en cometas del sistema solar.La luz de 3I/ATLAS muestra además una polarización negativa extrema, un patrón de vibración que no se había visto antes. Para el astrónomo coreano Moon Hong-kyu, esto sugiere que el cometa se formó en una región de temperatura extremadamente baja, muy diferente de cualquier entorno cercano al Sol.Las observaciones también confirman que su núcleo mide unos once kilómetros y que la masa ronda los 33 000 millones de toneladas, lo que lo convierte en el objeto interestelar más grande jamás detectado. El comportamiento de 3I/ATLAS ha abierto un debate científico y político. La congresista estadounidense Anna Paulina Luna pidió a la NASA publicar las imágenes tomadas por la cámara HiRISE del orbitador de Marte y por el rover Perseverance, captadas cuando el cometa pasó a unos 30 millones de kilómetros del planeta rojo.Al mismo tiempo, Avi Loeb, físico de Harvard, enumeró diez anomalías en su trayectoria, entre ellas la aceleración no explicada, la luz polarizada, el cambio de color y una coincidencia angular con la dirección del famoso “Wow! Signal” de 1977. Según sus cálculos, la probabilidad de que todos estos fenómenos ocurran por azar es del 0,005 %.Mientras tanto, en internet proliferan teorías sin evidencia que lo describen como una nave o una esfera de materia oscura, pero la NASA insiste en que no hay señales de tecnología ni amenaza para la Tierra. Lo comprobable es fascinante por sí mismo. La NASA detectó un aumento de velocidad justo después del perihelio, seguido de una ligera desviación en la órbita. El fenómeno podría deberse a chorros de gas que actuaron como un “empuje natural”, aunque no se ha observado la cantidad necesaria de material expulsado.El James Webb realizará en diciembre una nueva campaña de observación para buscar una nube de gas y polvo que confirme o descarte esa hipótesis. Si no la encuentra, los astrónomos tendrán que revisar las explicaciones actuales sobre la dinámica de los objetos interestelares.Por ahora, lo único seguro es que 3I/ATLAS sigue acelerando y alejándose, y que el 19 de diciembre estará en su punto más cercano a la Tierra: unos 270 millones de kilómetros. El cometa se podrá observar desde el hemisferio norte en las madrugadas de diciembre con telescopios de al menos 30 centímetros de apertura. Los mejores momentos para buscarlo serán antes del amanecer, hacia el horizonte este.La Agencia Espacial Europea, a través de su misión JUICE, también tiene programadas observaciones entre el 2 y el 25 de noviembre desde la órbita de Júpiter. Se espera que esas imágenes, junto con las de NASA y KASI, permitan comparar la composición de 3I/ATLAS con los cometas Borisov y ʻOumuamua, los otros dos visitantes interestelares confirmados.Mientras tanto, los equipos científicos coreanos destacan que su alto contenido de níquel y la escasez de agua apuntan a un origen en una zona fría del disco grueso de la galaxia, quizá un remanente de material primitivo expulsado hace millones de años desde un sistema estelar extinguido. 3I/ATLAS sigue sorprendiendo a los astrónomos con cada nueva observación. Su cambio de velocidad y su color azul brillante plantean preguntas abiertas sobre cómo se comportan los objetos interestelares. El 19 de diciembre será su punto más cercano a la Tierra. Puedes seguir su recorrido en tiempo real en “Eyes on the Solar System” y en Flash Diario. El cometa 3I/ATLAS reapareció con color azul y velocidad inexplicable. NASA lo estudia antes de su paso cercano en diciembre. 📚 BibliografíaNews SSBCrack – A Korean Astronomer Reflects on 3I/ATLASNewsweek – Comet 3I/ATLAS is leaving the solar systemIBTimes UK – Why US Officials Are Monitoring 3I/ATLASNew York Post – US Rep Calls on NASA to Release ImagesDaily Mail – NASA Detects Bizarre Boost in SpeedUNILAD – 3I/ATLAS Breaks 10 RulesLive Science – Latest Science News: Comet 3I/ATLAS ReappearsMarca – 3I/ATLAS, the Fermi Paradox and Dark Forest TheoryMashable India – Interstellar Comet 3I/ATLAS May Have Changed Color for the Third TimeEconomic Times India – New Photo of 3I/ATLAS Allegedly Leaked from NASAConviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.📲 ¿Quieres ver más contenidos de ciencia y tecnología todos los días?Sígueme en Instagram: @ElSiglo21eshoy
La actualización que no apagaba el computador finalmente tiene solución: Microsoft corrigió un error que existía desde hace más de una década: el botón “Actualizar y apagar” no apagaba el computador, sino que lo reiniciaba. Por Félix Riaño @LocutorCo Escucha más historias tecnológicas en Flash Diario. Durante años, millones de personas en todo el mundo pulsaron “Actualizar y apagar” creyendo que su computador se apagaría después de instalar actualizaciones. Pero al volver al día siguiente, la pantalla de inicio seguía encendida o la batería del portátil se había agotado. Ese fallo, presente en Windows 10 y 11, acaba de ser reparado. Microsoft incluyó la corrección en la actualización opcional KB5067036, publicada el 28 de octubre de 2025, y anunció que llegará oficialmente a todos los equipos con el parche del 11 de noviembre. ¿Por qué tardaron tanto en arreglar un problema tan básico? No era un error nuevo: duró más de diez años. El fallo afectaba a las versiones modernas de Windows desde 2015, cuando apareció Windows 10. El problema se encontraba en el botón “Actualizar y apagar”, que debía instalar las actualizaciones pendientes y luego apagar el equipo. Pero en muchos casos, el sistema realizaba el proceso de actualización y al final reiniciaba el computador, como si el usuario hubiera elegido “Actualizar y reiniciar”.Según Windows Latest, este bug se mantuvo durante años sin reconocimiento oficial. Solo hasta ahora, con las versiones Windows 11 25H2 Build 26200.7019 y 24H2 Build 26100.7019, Microsoft confirmó haber solucionado la causa interna del fallo. En palabras de la empresa: “Se corrigió el problema subyacente que podía impedir que ‘Actualizar y apagar’ realmente apagara el PC después de actualizarlo.” Durante casi una década, este comportamiento frustró a millones de usuarios. En portátiles, podía ser más grave: la gente dejaba el equipo actualizando antes de dormir y al día siguiente encontraba la batería completamente agotada, o el ventilador encendido toda la noche.El problema no se debía a un mal clic del usuario. No era que las personas confundieran el botón “Actualizar y reiniciar” con el de “Actualizar y apagar”. Era un error del sistema operativo, probablemente una condición de carrera o un conflicto dentro del Windows Servicing Stack, el conjunto de procesos que gestiona las actualizaciones.El sistema necesitaba reiniciar en una fase llamada “servicio sin conexión” para reemplazar archivos bloqueados, pero luego olvidaba la instrucción final de apagado. Así, tras completar las actualizaciones, arrancaba de nuevo y quedaba encendido. Fue una de las quejas más frecuentes en foros de usuarios durante años. Microsoft lanzó la solución en octubre de 2025 como parte de una actualización opcional, y la incluirá en el parche general del martes 11 de noviembre. La compañía no explicó públicamente la causa exacta del fallo, aunque expertos creen que se trataba de un error heredado desde Windows 10, posiblemente relacionado con el sistema de inicio rápido (Fast Startup).El parche KB5067036 garantiza que al elegir “Actualizar y apagar”, el equipo realmente se apague. Además, Microsoft confirmó un cambio en la manera de nombrar las actualizaciones: a partir de ahora, los nombres serán más simples y comprensibles, sin tantos códigos ni números confusos. Este cambio busca hacer más intuitivo el proceso para los usuarios comunes.Aunque este bug ya quedó atrás, todavía hay otros pendientes, como el error de controladores 0x80070103, que Microsoft reconoció y aún no ha podido resolver del todo. El error de “Actualizar y apagar” fue uno de los más reportados en toda la historia de Windows, y demuestra lo complejo que puede ser el proceso de instalación de actualizaciones del sistema. Al instalar parches, Windows necesita reiniciar para completar tareas en una fase llamada offline servicing, en la que reemplaza archivos del sistema que no pueden modificarse mientras está activo.Durante esa fase, aparece la clásica pantalla azul con el mensaje “Trabajando en actualizaciones” y un porcentaje de progreso. Al final, el sistema debía apagarse, pero quedaba encendido. Según TechPowerUp, la instrucción de apagado se perdía por una “condición de carrera” o un conflicto de tiempo.Ahora, con la actualización 25H2, Microsoft afirma que el botón “Actualizar y apagar” finalmente hace lo que promete. La comunidad de usuarios lo celebra como un cierre simbólico a una década de frustraciones tecnológicas. Después de más de diez años, Windows por fin apaga cuando debe hacerlo. El bug de “Actualizar y apagar” ya tiene solución definitiva en Windows 11. Si aún no has recibido la actualización, revisa Windows Update y descárgala. Escucha más historias tecnológicas en Flash Diario. Microsoft arregló un error de más de 10 años: el botón “Actualizar y apagar” por fin apaga el computador.📚 Fuentes consultadasCTV NewsWindows LatestForbesTechPowerUpConviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.📲 ¿Quieres ver más contenidos de ciencia y tecnología todos los días?Sígueme en Instagram: @ElSiglo21eshoy
La superluna de noviembre será la más grande y brillante de 2025, visible junto a lluvias de meteoros. Por Félix Riaño @LocutorCo Sigue escuchando el pódcast Flash Diario en Spotify y comparte esta historia con quienes disfrutan del cielo nocturno. El cielo de noviembre va a ofrecer uno de los espectáculos más impresionantes de todo 2025. La Luna alcanzará su punto más cercano a la Tierra y se verá hasta un 14 % más grande y un 30 % más luminosa. Coincidirá con lluvias de meteoros, el paso de un cometa visible a simple vista y un reciente destello verde en Moscú. Todo esto convierte este mes en una oportunidad única para mirar hacia arriba y redescubrir el cielo nocturno. Pero el cielo de noviembre trae más sorpresas que la Luna. El 5 de noviembre, la llamada Luna del Castor —o Beaver Moon— alcanzará su punto máximo de brillo. Este nombre proviene de las antiguas comunidades nativas de América del Norte, que observaban a los castores construir sus presas justo antes del invierno. Este año, ese mismo fenómeno natural será además la superluna más grande desde 2019, y la segunda de una serie de tres consecutivas que cerrarán 2025.A las 13:19 UTC del 5 de noviembre (8:19 a. m. en Colombia y México), la Luna estará a solo 357 000 kilómetros de la Tierra, lo que provocará que se vea mucho más grande cuando aparezca por el horizonte al atardecer. Quienes la observen desde un punto alto o junto al mar verán cómo su color se torna dorado y, al subir en el cielo, ilumina el paisaje con tanta intensidad que incluso proyectará sombras suaves sobre el suelo. La belleza de esta superluna también tendrá un efecto curioso: hará más difícil observar las lluvias de meteoros Táuridas, activas justo en esos días. Esta doble cita astronómica —la Luna más brillante y una lluvia de estrellas que deja “bólidos” lentos y luminosos— generará un espectáculo desigual, porque el resplandor lunar puede opacar las luces fugaces del cielo. Aun así, los observadores más pacientes podrán distinguir algunas de esas bolas de fuego cruzando la noche.Al mismo tiempo, otro fenómeno ha capturado la atención mundial: una enorme bola verde que iluminó el cielo de Moscú el 27 de octubre, justo cuando las Táuridas y las Oriónidas alcanzaban su máxima actividad. Los astrónomos sospechan que se trató de un meteoro de gran tamaño que se desintegró al entrar en la atmósfera, liberando magnesio y níquel, responsables del color esmeralda. Esa coincidencia entre meteoros y la inminente superluna convierte este mes en una verdadera temporada de fuego y luz sobre la Tierra.Después de la superluna, el cielo seguirá activo. El 8 de noviembre aparecerá el cometa C/2025 A6 (Lemmon), visible incluso sin telescopio en zonas oscuras. Este visitante proviene del remoto Cinturón de Kuiper y no volverá a pasar cerca del Sol en más de mil años. A simple vista se verá como una mancha verdosa ascendente al oeste, poco después del atardecer.Una semana más tarde, entre el 11 y el 12 de noviembre, las Táuridas del norte ofrecerán nuevas estelas de fuego, y hacia el 17 y el 18 será el turno de las Leónidas, con meteoros más rápidos y brillantes. El 20 de noviembre la Luna se convertirá en una micro Luna nueva, casi invisible, y el cielo quedará oscuro otra vez, ideal para observar galaxias y planetas. El 21, Urano alcanzará su oposición, y el 29 la Luna se acercará a Saturno, cerrando el mes con un encuentro sereno de luces doradas en el firmamento. Según la NASA, una superluna ocurre cuando la Luna llena coincide con el perigeo, su punto más cercano a la Tierra en su órbita elíptica. Puede parecer hasta un 14 % más grande y brillar un 30 % más que una Luna común. Este fenómeno fue descrito por primera vez en 1979 por el astrólogo Richard Nolle, y desde entonces se ha convertido en uno de los eventos astronómicos más esperados.La Luna del Castor también tiene una raíz ecológica y cultural. Marca la época en que los castores, tanto en América del Norte como en Europa, se preparan para el invierno. En el Reino Unido, su nombre coincide con la tradicional Bonfire Night, una noche de hogueras y fuegos artificiales que este año tendrá de fondo la superluna más brillante del año.Mientras tanto, el destello verde sobre Moscú recuerda que la Tierra atraviesa nubes de escombros cósmicos cada año. Esas lluvias de meteoros son restos de cometas antiguos. En este caso, las Táuridas provienen del cometa 2P/Encke, y las Oriónidas, del famoso cometa Halley. Todo esto forma parte del gran ciclo de materia y energía que mantiene viva la danza del cosmos sobre nuestras cabezas. Noviembre llega con una superluna dorada, lluvias de meteoros y un cometa milenario. Es el momento ideal para mirar al cielo y recordar que la Tierra viaja acompañada por una coreografía de luces y sombras.La superluna más brillante del año llega este 5 de noviembre, junto a meteoros, un cometa y cielos espectaculares. 📚 Bibliografía:National GeographicForbesBBC WeatherSky NewsOrbital TodayElTiempo.esConviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.📲 ¿Quieres ver más contenidos de ciencia y tecnología todos los días?Sígueme en Instagram: @ElSiglo21eshoy
Affinity gratis para siempre: Canva convierte Affinity en una suite profesional gratuita con inteligencia artificial. Por Félix Riaño @LocutorCo Escucha este y más episodios en Flash Diario en Spotify y compártelo con tus amigos creativos. El mundo del diseño digital acaba de cambiar para siempre. Canva, la herramienta que millones usamos para crear presentaciones, logos o publicaciones, acaba de liberar su versión profesional: Affinity Studio. Es una aplicación completamente gratuita que combina edición de fotos, diseño vectorial y maquetación de documentos, todo en una sola interfaz. Y sí, usa inteligencia artificial para ayudarte a crear como un experto, sin pagar nada. Affinity fue durante años el nombre de un trío de programas de pago que competían directamente con Adobe Photoshop, Illustrator e InDesign. Pero ahora Canva la ha transformado en Affinity Studio: una plataforma unificada y gratuita que pone herramientas de nivel profesional al alcance de cualquier persona.Esta nueva versión combina tres mundos en uno: imagen, texto y diseño vectorial. Todo funciona dentro del mismo espacio, sin tener que saltar entre aplicaciones distintas. Además, incluye inteligencia artificial integrada que puede ayudarte a recortar imágenes, mejorar colores, crear composiciones y hasta eliminar fondos en segundos. Canva promete que será “gratis para siempre” y que no hay versiones limitadas ni suscripciones ocultas.Un software gratuito desafía el dominio de Adobe en diseño Durante más de una década, Affinity fue la gran alternativa profesional a las costosas licencias de Adobe. Su popularidad creció porque ofrecía calidad, precisión y rapidez sin depender de cuotas mensuales. En 2024, Canva compró Affinity por unos 380 millones de dólares, y hoy lanza Affinity Studio, una nueva era en la que cualquier persona puede descargarlo gratis y usarlo sin restricciones.El programa combina lo mejor de tres disciplinas creativas: fotografía, diseño gráfico y maquetación editorial. Todo sucede en un solo lienzo, con herramientas que se adaptan automáticamente al tipo de trabajo que estás haciendo. Su motor de rendimiento permite hacer zoom de hasta diez millones por ciento sin perder detalle y manejar miles de capas en tiempo real. El anuncio sorprendió incluso a los diseñadores más experimentados. Muchos temían que Canva convirtiera Affinity en un servicio por suscripción o que limitara sus funciones gratuitas. Pero el mensaje fue contundente: Affinity Studio es libre, para siempre, y para todos.La estrategia tiene una lógica clara. Canva quiere ampliar su ecosistema profesional conectando Affinity con sus servicios colaborativos y con Canva AI Studio, su sistema de inteligencia artificial. Quienes paguen Canva Premium podrán usar herramientas avanzadas como Generative Fill, edición con IA y ampliación inteligente de imágenes, directamente desde la interfaz de Affinity.Eso abre un debate interesante: ¿cómo puede sostenerse un software tan potente sin cobrar? Canva responde que lo hace como una inversión para impulsar la creatividad global y atraer nuevos usuarios a su plataforma principal. El movimiento de Canva ha sacudido a toda la industria. Mientras Adobe mantiene suscripciones obligatorias, Affinity se convierte en una opción libre, veloz y abierta. El nuevo Affinity Studio conserva la precisión de siempre, pero suma fluidez, colaboración y personalización. Cada usuario puede crear su propio “estudio” con herramientas adaptadas a su flujo de trabajo y compartir configuraciones con otros.La nueva identidad visual de Affinity refleja ese cambio. El logotipo, los colores y la tipografía fueron diseñados por equipos internacionales para simbolizar una comunidad creativa diversa. Los tonos carbón, papel y verde lima evocan materiales reales, mientras que la tipografía Affinity Serif combina elegancia con un toque rebelde.Y más allá del diseño, hay un mensaje potente: el acceso a las herramientas creativas ya no debe depender del dinero. Canva y Affinity apuestan por una era en la que cualquiera pueda crear, aprender y publicar sin barreras. El nuevo Affinity Studio admite los principales formatos del sector: PSD, AI, PDF, SVG, TIFF e IDML, lo que permite abrir y guardar proyectos compatibles con Adobe y otras plataformas. También introduce un nuevo formato propio, .af, pensado para mantener la máxima calidad entre los distintos tipos de diseño.La inteligencia artificial integrada puede automatizar tareas repetitivas como recortes o ajustes de color, y lo hace directamente en tu dispositivo, sin enviar datos a la nube ni usarlos para entrenar modelos de IA.Canva también presentó su Canva Design Model, un modelo de inteligencia artificial que genera diseños editables, no imágenes planas. Además, añadió Ask Canva, un asistente que responde dudas dentro del proyecto y sugiere mejoras en tiempo real. Todo forma parte de su nuevo sistema operativo creativo, el Creative Operating System, que busca integrar diseño, marketing y publicación en un solo entorno. Canva lanzó Affinity Studio, la nueva herramienta profesional gratuita que une foto, vector y maquetación con inteligencia artificial. Es rápida, libre y está disponible para todos.Descárgala, pruébala y cuéntanos tu experiencia. Canva lanza Affinity Studio, un programa profesional gratis con inteligencia artificial. Foto, vector y maquetación en un solo lugar. 📚 BibliografíaDigital Camera WorldDesign WeekCreative BloqTechCrunchThe VergeIt’s Nice ThatTechRadarConviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.📲 ¿Quieres ver más contenidos de ciencia y tecnología todos los días?Sígueme en Instagram: @ElSiglo21eshoy
YouTube mejora tu televisor: ¡Videos viejos, imágenes nuevas! YouTube usará inteligencia artificial para mejorar la calidad visual de los videos antiguos y ofrecer compras interactivas desde la pantalla del televisor. Por Félix Riaño @LocutorCo para el pódcast Flash Diario YouTube acaba de anunciar una actualización enorme para quienes ven videos en el televisor. La plataforma va a usar inteligencia artificial para mejorar automáticamente la calidad de los videos grabados en baja resolución, entre 240p y 720p, subiéndolos a calidad HD, e incluso a 4K más adelante. Pero quienes crean contenido podrán decidir si quieren mantener sus videos tal como fueron subidos originalmente. Además, la app en televisores incluirá nuevas funciones para comprar productos con códigos QR y explorar los canales de una forma más atractiva y visual.YouTube presentó una serie de mejoras pensadas para la experiencia en pantallas grandes. La más destacada es “Super resolution”, una función de inteligencia artificial que convierte videos viejos de baja calidad en versiones más nítidas. También llegan herramientas para compras interactivas, miniaturas más pesadas en 4K y una nueva forma de explorar canales como si fueran series de televisión. Pero algunos creadores temen que sus videos pierdan autenticidad. YouTube quiere que cada video luzca bien en un televisor. La plataforma, que ya cumple 20 años, está viendo cómo cada vez más personas prefieren verla en la sala de su casa, no en el móvil. En promedio, los usuarios pasan más de mil millones de horas al día frente a pantallas grandes. Por eso, Google decidió usar inteligencia artificial para mejorar la imagen de videos antiguos, aquellos grabados cuando las cámaras eran mucho menos potentes.El sistema, llamado “Super resolution”, aplicará una técnica de escalado automático que transforma videos en resoluciones bajas —desde 240p hasta 720p— en versiones HD. Más adelante, la meta es que ese mismo proceso permita alcanzar 4K. Los creadores podrán mantener sus archivos originales intactos y elegir si aceptan o no que el sistema los mejore. Algunos creadores sienten preocupación. Dicen que el nuevo sistema podría alterar la estética de sus videos antiguos o borrar el estilo de grabaciones que forman parte de la historia de YouTube. En redes sociales, varios recordaron que durante las pruebas de escalado en los videos cortos de Shorts, la inteligencia artificial suavizaba tanto las imágenes que las hacía parecer dibujos generados por computadora.Por eso, YouTube incluyó un botón para que tanto creadores como espectadores puedan desactivar esta mejora automática. Quien vea un video podrá decidir si desea la versión original o la mejorada, marcada claramente en el menú con la etiqueta “Super resolution”. Esta opción busca resolver las quejas que surgieron en pruebas previas, cuando algunos usuarios notaron cambios no deseados en la textura de los rostros o en los colores. Además de la mejora visual, YouTube está cambiando la forma de navegar desde el televisor. Ahora los canales tendrán vistas previas animadas y se organizarán en temporadas, como series. Así será más fácil recorrer contenido sin moverse de la pantalla grande. También llegará un nuevo sistema de compras: cuando un video tenga productos etiquetados, aparecerá un código QR que se podrá escanear con el móvil para comprar directamente.YouTube reporta que en el último año se vieron más de 35 000 millones de horas de videos relacionados con compras. Para aprovechar ese interés, los creadores podrán mostrar productos en momentos específicos del video. Según Kurt Wilms, director de producto de YouTube en TV, la idea es “hacer que el contenido de los creadores brille en la pantalla más grande del hogar”. El anuncio incluye más mejoras técnicas. Las miniaturas, que antes estaban limitadas a 2 MB, podrán ahora tener hasta 50 MB y resolución 4K, algo importante porque son la primera impresión de cada video. YouTube también está probando con algunos creadores la opción de subir archivos más pesados y de mayor calidad original.En el contexto de esta actualización, la empresa busca reforzar su posición en el mercado del streaming en televisores conectados, conocido como CTV. Según Nielsen, YouTube ya supera a Netflix y Disney+ en tiempo de visualización en Estados Unidos. El objetivo es claro: hacer que los contenidos creados para móviles se vean bien en televisores grandes sin perder identidad visual. Pero la clave será el equilibrio entre la tecnología y el respeto al estilo original de cada creador. YouTube apuesta por una televisión más nítida y dinámica, con videos antiguos mejorados y compras directas desde el sofá. ¿Te gustaría ver tus videos favoritos en 4K con inteligencia artificial o prefieres la versión original? Cuéntalo y escucha más en Flash Diario. YouTube usa inteligencia artificial para mejorar videos viejos, añadir compras con QR y rediseñar su experiencia en televisores conectados. 📚 Bibliografía:The VergeYouTube BlogArs TechnicaAndroid PoliceSocial Media TodayEngadgetConviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.📲 ¿Quieres ver más contenidos de ciencia y tecnología todos los días?Sígueme en Instagram: @ElSiglo21eshoy
El cometa 3I/ATLAS alcanza hoy su punto más cercano al Sol, y los astrónomos se preparan para observar datos únicos que podrían revelar sus secretos. Por Félix Riaño @LocutorCo El objeto interestelar 3I/ATLAS, descubierto en julio por el sistema ATLAS, se encuentra este 29 de octubre en su perihelio, el punto más cercano al Sol. Astrónomos de todo el mundo observan el fenómeno para descubrir si este visitante de otro sistema estelar es un cometa común o un mensajero con características nunca vistas. Durante las últimas semanas, 3I/ATLAS ha captado la atención mundial. Es el tercer objeto interestelar detectado en la historia, después de ‘Oumuamua y Borisov. Hoy, al pasar detrás del Sol, no puede observarse desde la Tierra, pero las misiones espaciales lo siguen desde varios puntos del sistema solar. La expectación es grande porque, al salir nuevamente a la vista en noviembre, su trayectoria podría confirmar si se comporta como un cometa normal o si muestra algo inesperado. Unos pocos científicos sospechan que 3I/ATLAS podría no ser natural. El 1 de julio de 2025, el sistema de alerta ATLAS detectó un nuevo objeto moviéndose a más de 200 000 kilómetros por hora. Su velocidad y trayectoria indicaban que venía de fuera del sistema solar. Fue bautizado 3I/ATLAS, por ser el tercer objeto interestelar conocido. Tiene unos cinco kilómetros de diámetro, una masa estimada de 33 000 millones de toneladas y una composición dominada por hielo de dióxido de carbono, según mediciones del telescopio espacial James Webb.Lo más sorprendente es que los telescopios detectaron vapor de níquel en su atmósfera, algo inusual porque ese metal no se evapora a temperaturas tan bajas. Este hallazgo, publicado por un equipo internacional en la revista Nature, sugiere que 3I/ATLAS contiene moléculas desconocidas que liberan metales sin necesidad de calor extremo. En medio de los análisis científicos, el astrofísico Avi Loeb, de Harvard, planteó una hipótesis distinta: ¿y si 3I/ATLAS no fuera un cometa, sino una sonda o nave interestelar construida por otra civilización? Loeb sostiene que su trayectoria y su alineación con el plano orbital de los planetas podrían ser señales de diseño.Él menciona un concepto real de la física llamado efecto Oberth, que explica cómo una nave obtiene el máximo impulso si acelera cerca de una fuente de gravedad, como el Sol. Según Loeb, si 3I/ATLAS cambiara su velocidad durante el perihelio de hoy, sería una prueba de control artificial.La comunidad científica no comparte esa idea. Tom Statler, de la NASA, insiste en que 3I/ATLAS se comporta como un cometa natural: tiene cola, libera gas, y su brillo coincide con lo esperado. Además, el telescopio Hubble confirmó que su llamada “anti-cola”, un chorro de partículas hacia el Sol, cambió de dirección por causas térmicas, no tecnológicas. La realidad científica, hasta ahora, es que 3I/ATLAS muestra los mismos procesos que otros cometas, aunque con peculiaridades químicas. Las observaciones del Very Large Telescope en Chile confirmaron que su vapor contiene más dióxido de carbono que agua, algo muy raro pero natural. A medida que se acerca al Sol, la radiación provoca que el hielo se sublima y libere gases metálicos, entre ellos el misterioso níquel.NASA, la Agencia Espacial Europea y el proyecto Galileo de Loeb siguen observando desde distintos puntos. Las misiones JUICE, que viaja hacia Júpiter, y Juno, que ya orbita ese planeta, podrán detectarlo en diciembre y medir cualquier emisión de radio o calor anormal. Si no hay señales artificiales ni cambios de trayectoria, el caso quedará resuelto: 3I/ATLAS será confirmado como un cometa natural, portador de materiales antiguos de otro sistema estelar. El estudio de 3I/ATLAS no es solo una curiosidad. Estos objetos nos permiten analizar de qué están hechos los sistemas planetarios más allá del nuestro. En 2017, ‘Oumuamua despertó interés por su forma alargada y su aceleración inusual; en 2019, Borisov mostró que los cometas interestelares se parecen mucho a los nuestros.Con 3I/ATLAS, los científicos están obteniendo información inédita sobre los compuestos de carbono y los metales de estrellas antiguas. El hallazgo de níquel sin hierro podría ayudar a entender cómo se formaron los planetas en otras galaxias. Además, NASA ha activado su red de defensa planetaria para seguir su recorrido, no porque haya peligro, sino para mejorar sus sistemas de monitoreo ante futuras visitas cósmicas.Loeb reconoce que la probabilidad de que 3I/ATLAS sea artificial es mínima, pero sugiere seguir observando: si después del perihelio apareciera alguna desviación en su órbita o un cambio inexplicable de brillo, la ciencia tendría que replantear varias cosas. Por ahora, el consenso es claro: se trata de un visitante natural, antiguo y fascinante. Hoy, 3I/ATLAS pasa detrás del Sol y los astrónomos observan atentos. Sea un cometa o un visitante tecnológico, este objeto nos recuerda lo poco que sabemos del cosmos y lo mucho que podemos aprender con la ciencia. Escucha y comenta este episodio en Flash Diario en Spotify. El cometa interestelar 3I/ATLAS pasa hoy detrás del Sol. Astrónomos esperan descubrir si es un cometa o algo más. 📚 Bibliografía:FuturismSpace.comUniverse TodayIBTimes UKMedium – Avi LoebNASA / ESA Conviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.📲 ¿Quieres ver más contenidos de ciencia y tecnología todos los días?Sígueme en Instagram: @ElSiglo21eshoy
Más píxeles de los que ves: Pantallas 8K y 4K prometen imágenes más nítidas, pero un estudio demuestra que tus ojos no las distinguen. Por Félix Riaño @LocutorCo Investigadores de Cambridge y Meta descubrieron que el ojo humano tiene un límite real para detectar detalles en pantallas. Más allá de cierto punto, los televisores Ultra HD no se ven mejor, aunque cuesten miles de dólares. Sigue el pódcast Flash Diario para descubrir más curiosidades de ciencia y tecnología. Científicos de la Universidad de Cambridge y del laboratorio de realidad de Meta analizaron cuántos píxeles puede distinguir el ojo humano en distintas condiciones. Su conclusión es clara: en un salón promedio, una pantalla 4K o 8K no ofrece una diferencia visible frente a una 2K. El estudio, publicado en Nature Communications, demuestra que los límites de nuestra visión convierten muchos televisores de alta gama en un gasto innecesario. A partir de ahora, la ciencia tiene una medida precisa para responder una pregunta que millones de personas se han hecho frente a una vitrina: ¿realmente se ve mejor un televisor más caro? Más píxeles no siempre significan mejor imagen, solo más gasto. Durante años, las marcas de televisión han competido por ofrecer resoluciones más altas: primero Full HD, luego 4K, después 8K. Cada salto prometía una experiencia visual “más real”. Pero un equipo de Cambridge y Meta quiso poner esa promesa a prueba. Construyeron un experimento con un monitor 4K de 27 pulgadas montado en un riel móvil. Dieciocho personas con visión normal observaron líneas finas en distintos colores y distancias. Cuando las líneas eran demasiado pequeñas, los voluntarios ya no podían distinguirlas: veían solo una mancha gris. Con esa información, los científicos calcularon la capacidad real del ojo humano para detectar píxeles individuales. El resultado fue sorprendente. La mayoría de las personas puede distinguir hasta 94 píxeles por grado en escala de grises, y unos 89 cuando se trata de colores rojo y verde. En cambio, los tonos amarillo y violeta caen hasta 53 píxeles por grado, porque nuestro cerebro procesa peor los detalles de color que los de luz y sombra. Esa limitación biológica significa que, si tienes una televisión de 44 pulgadas y la ves a unos 2,5 metros de distancia —como en la mayoría de salas—, ya estás recibiendo más detalle del que tu vista puede procesar. En otras palabras: comprar una tele 8K no hace que veas mejor, solo hace que pagues más. Los científicos publicaron una tabla y una calculadora en línea que permiten saber si un televisor realmente ofrece mejoras visibles según el tamaño y la distancia de visualización.Aquí tienes el enlace a la calculadora en línea de la University of Cambridge:Display resolution calculatorPor ejemplo, una pantalla de 40 pulgadas vista a 3 metros se aprovecha totalmente en resolución Full HD. Para notar la diferencia con 4K, habría que acercarse mucho o tener un televisor gigante. Incluso para que una pantalla 8K valga la pena, necesitarías una de 100 pulgadas y verla desde menos de 2 metros. Además, cada píxel adicional consume más energía, requiere más potencia de procesamiento y eleva el precio sin ofrecer beneficios visuales. El estudio también tiene implicaciones fuera del salón de casa. En la realidad virtual, los videojuegos y los móviles, muchas empresas invierten en pantallas con densidades imposibles de distinguir. Cambridge y Meta advierten que ese esfuerzo podría redirigirse a mejoras más perceptibles, como el contraste, el color o la velocidad de respuesta. El hallazgo pone en duda prácticas comunes como la “submuestra de color”, usada para ahorrar ancho de banda al reducir la resolución de los tonos. El estudio demuestra que el ojo distingue más matices rojo-verde de lo que se creía, lo que podría transformar la forma de comprimir video en el futuro. En resumen, no es que las pantallas 8K sean malas, es que nuestros ojos ya llegaron a su límite. La ciencia confirma que el ojo humano tiene un límite de detalle. Si ves tu tele desde el sofá, 4K ya es más de lo que puedes distinguir. Antes de gastar en 8K, consulta la calculadora de Cambridge y revisa si realmente lo necesitas.Científicos de Cambridge descubren que el ojo humano no nota diferencia entre 2K, 4K y 8K en tu sala de casa. 📚 BibliografíaThe GuardianThe TelegraphNature CommunicationsThe TimesCambridge UniversityConviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.📲 ¿Quieres ver más contenidos de ciencia y tecnología todos los días?Sígueme en Instagram: @ElSiglo21eshoy
Música con inteligencia artificial: OpenAI prepara su nueva herramienta musical de IA para competir con Suno y Udio. OpenAI lanza herramienta para crear música desde texto y voz. Ética, arte y negocio se cruzan en la nueva era sonora. Por Félix Riaño @LocutorCo Te invito a seguir escuchando Flash Diario para conocer cómo sigue esta historia.OpenAI trabaja en una herramienta generativa de música capaz de crear acompañamientos, melodías y bandas sonoras a partir de texto y voz, en alianza con estudiantes de Juilliard. La inteligencia artificial entra a una nueva etapa: la música. OpenAI está desarrollando una herramienta que promete generar música desde texto, audio o ambos. Según varios reportes, el proyecto combina la capacidad de entender lenguaje natural con entrenamiento musical avanzado. OpenAI busca que cualquiera pueda crear una pieza sonora, desde una base para un video de TikTok hasta una composición completa. Para entrenar el modelo, colabora con estudiantes de la prestigiosa Juilliard School de Nueva York, quienes anotan partituras y ejemplos musicales para enseñar ritmo, melodía y armonía al sistema. Este avance llega en medio de disputas legales que involucran a otras empresas de música generada por IA, como Suno y Udio. La pregunta es inevitable: ¿esta vez la IA va a sonar bien y sin problemas legales?La novedad no es el sonido, es la ética detrás del ritmo. La noticia viene de The Information y fue confirmada por medios como TechCrunch y PCMag. OpenAI está probando un sistema de creación musical basado en texto, capaz de generar acordes, ritmos y melodías según las instrucciones del usuario. Si escribes “melodía tranquila con piano y percusión suave”, la IA puede crear una pista completa que encaje con esa descripción.Lo interesante es el entrenamiento. En lugar de usar solo archivos de audio sueltos, OpenAI trabaja con partituras anotadas por estudiantes de Juilliard. Es un paso importante, porque permite enseñar a la máquina cómo está estructurada la música desde la teoría, no solo desde el sonido. Así, el modelo aprende compases, progresiones armónicas y cómo construir una canción con sentido.La herramienta no tiene nombre oficial ni fecha de lanzamiento. Pero su desarrollo marca el regreso de OpenAI al terreno musical, después de Jukebox, su experimento de 2020 que generaba canciones en estilos como reggae o blues. Ahora, la empresa apunta a integrar música en sus otras plataformas, como ChatGPT o el creador de video Sora. La parte más compleja no está en los algoritmos, sino en los derechos. Las herramientas de música generada por IA ya han provocado reacciones fuertes en la industria. Suno, uno de los líderes del sector, enfrenta demandas de las tres mayores discográficas del mundo: Universal Music, Sony y Warner.Los sellos lo acusan de usar grabaciones protegidas por derechos de autor para entrenar sus modelos. Según los documentos judiciales, Suno habría empleado técnicas de “stream-ripping”, es decir, la descarga ilegal de canciones desde YouTube, rompiendo las protecciones del sistema.La empresa se defiende diciendo que su uso entra dentro del concepto de “uso justo”, pero los abogados de las discográficas argumentan que la obtención del material fue ilegal, lo que invalida esa defensa.Mientras tanto, OpenAI observa ese escenario con atención. Si quiere lanzar su herramienta sin conflictos, necesita asegurar que su base de datos esté limpia y autorizada. De lo contrario, podría repetir la historia de Suno.El problema es de fondo: ¿cómo se define la creatividad cuando una máquina puede generar música inspirada en miles de artistas humanos? ¿Quién es el autor de una canción creada por IA? Hay empresas que ya encontraron un camino más seguro. ElevenLabs, conocida por sus voces artificiales, lanzó Eleven Music con acuerdos de licencia con la red de sellos independientes Merlin y la editorial Kobalt. Además, recibió inversión directa de NVIDIA para mejorar la calidad del audio.Estos acuerdos garantizan que los creadores humanos reciban compensación cuando sus obras se usan en el entrenamiento de la IA. Ese modelo podría servirle a OpenAI. Si adopta acuerdos similares, sus usuarios podrán generar música sin miedo a infracciones.Además, OpenAI tiene experiencia en integrar herramientas creativas dentro de su ecosistema. Si combina la generación de video de Sora con esta nueva herramienta musical, podríamos ver videos completos con música original creada en segundos.El beneficio sería enorme para creadores de contenido, músicos independientes y estudios de animación que necesitan sonido original sin pagar licencias complicadas. A la vez, se abriría un espacio para artistas que quieran colaborar con la IA, convirtiéndola en una compañera creativa, no en una rival.Y si logra establecer reglas claras, OpenAI puede convertirse en el nuevo estándar de la música generada con responsabilidad. La historia de la música y la tecnología ha tenido muchos puntos de inflexión. La llegada del sintetizador en los años setenta, el sampler en los ochenta, y el software de producción en los dos mil cambiaron cómo se componía. Ahora, la IA es el siguiente salto.Suno asegura tener más de 12 millones de usuarios y generar más de 100 millones de dólares anuales. Udio, su principal competidor, también enfrenta una demanda colectiva. Ambas empresas se amparan en la doctrina del “uso justo”, mientras los tribunales estudian si eso aplica a los datos musicales.OpenAI podría aprender de esos errores. Al trabajar con Juilliard, apuesta por una base de datos académica y transparente. Eso la separa del resto. Su enfoque busca enseñar a la IA desde la partitura, no desde la piratería.Los expertos creen que esta decisión es estratégica. Además de evitar demandas, mejora la calidad. Un modelo que entiende cómo funciona la armonía puede crear música más coherente, con melodías que se repiten y evolucionan, y con finales que suenan intencionados.La IA musical ya no es una curiosidad. Es una nueva industria. Y las empresas que la lideren, si actúan con ética, pueden transformar el futuro del entretenimiento y del trabajo creativo.🪘 Resumen final y recomendación (60 palabras)OpenAI prepara una herramienta musical generativa que puede cambiar cómo creamos sonido en videos, pódcasts y canciones. Su enfoque académico busca evitar errores legales y mejorar la calidad musical. ¿Será el inicio de una nueva forma de componer?📚 Bibliografía (con enlaces activos)TechCrunch: OpenAI reportedly developing new generative music toolPCMag: OpenAI exploring AI music generatorMusic Business Worldwide: Suno releases ‘most powerful’ model yetAutoblogging.ai: OpenAI ventures into AI music creationMusic Business Worldwide: ElevenLabs lanza Eleven Music con Merlin y Kobalt¿Quieres que ahora cree una imagen cuadrada fotográfica sin texto para la portada del episodio, con un ambiente de estudio musical moderno, luz cálida y una laptop generando música con IA?Conviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.📲 ¿Quieres ver más contenidos de ciencia y tecnología todos los días?Sígueme en Instagram: @ElSiglo21eshoy
Mico revive a Clippy Microsoft presenta Mico, el nuevo rostro de Copilot con memoria, voz y una sorpresa para nostálgicos de Clippy. Por Félix Riaño @LocutorCo Escucha este episodio completo y coméntalo en Flash Diario en Spotify. Microsoft acaba de lanzar una actualización importante para Copilot, su asistente de inteligencia artificial, con doce funciones nuevas que ya están activas en Estados Unidos y llegarán pronto a más países. La novedad más comentada es Mico, un nuevo avatar animado que puede expresarse, hablar contigo y, si sabes cómo hacerlo, transformarse en el legendario Clippy, aquel clip que hace casi treinta años enseñaba a usar Word.Esta actualización no solo añade nostalgia, también introduce funciones de memoria, trabajo en grupo, tutoría por voz y consultas de salud verificadas. La pregunta es: ¿puede una IA ser útil, divertida y segura al mismo tiempo? La nostalgia se mezcla con la inteligencia artificial más avanzada. Mico es la nueva cara de Copilot, el asistente de Microsoft. Su nombre viene de “Microsoft” y “Copilot”. Es un personaje animado que cambia de color según la conversación y puede reaccionar con expresiones parecidas a las de un ser vivo. Mustafa Suleyman, director de Microsoft AI, lo describe como un compañero “expresivo, cálido y personalizable”. Está diseñado para dar una sensación más humana a la interacción con la inteligencia artificial.Mico puede acompañarte por voz, adaptarse a tu tono y ayudarte a resolver tareas o proyectos. Si quieres, puedes desactivarlo y quedarte con la interfaz tradicional. Pero si lo tocas varias veces, aparece Clippy, el viejo asistente que muchos recordamos por su forma de clip. Un guiño directo a los años noventa, ahora potenciado por IA. El regreso de un asistente con rostro y personalidad despierta entusiasmo, pero también dudas. Por ejemplo, Mico puede recordar información personal, como fechas importantes o tus objetivos de entrenamiento, y usar esos datos para ofrecer respuestas más acertadas. Esa memoria constante es práctica, pero hace pensar en la privacidad. Microsoft dice que el acceso a datos requiere permiso explícito y que el usuario puede borrar su memoria en cualquier momento.Otro tema polémico es Copilot para la salud: el chatbot puede responder preguntas médicas basándose en fuentes como Harvard Health y ayudarte a buscar doctores por idioma o especialidad. Es útil, pero también arriesgado, porque la línea entre una sugerencia informativa y un diagnóstico médico es muy delgada. Copilot también gana funciones colaborativas. Ahora hasta treinta y dos personas pueden compartir una misma conversación en tiempo real. El sistema resume los mensajes, propone opciones, lleva la cuenta de votos y reparte tareas. Es como tener un coordinador invisible en un grupo de estudio o trabajo. Además, con la función Imagine, los usuarios pueden crear y modificar imágenes generadas por IA de manera colectiva.Otra mejora importante es el modo Learn Live, en el que Mico se convierte en un tutor socrático: en lugar de dar respuestas, hace preguntas, usa pizarras interactivas y guía al estudiante para razonar. También llega Journeys, una función que recuerda tus pestañas y búsquedas en el navegador Edge, permitiéndote cerrar todo sin miedo a perder el hilo. Y gracias a los Connectors, Copilot puede enlazar tus cuentas de Gmail, OneDrive y Google Drive, convirtiéndose en un verdadero asistente integral. La actualización se está desplegando gradualmente desde Estados Unidos hacia Reino Unido, Canadá y otros países. Microsoft indica que la disponibilidad depende del dispositivo y la suscripción: algunas funciones requieren Microsoft 365 Personal o Family.Estas novedades se suman a la tendencia de los “agentes conversacionales” que hemos visto esta semana con Atlas, el navegador integrado con ChatGPT de OpenAI, y Comet, el buscador conversacional de Perplexity. Todas apuntan a un mismo cambio: la web ya no se navega, se conversa.Mico se apoya en nuevos modelos internos de Microsoft, como MAI-Voice-1 y MAI-Vision-1, que buscan ofrecer una interacción más natural entre voz, texto e imágenes. Y como guiño adicional a la historia tecnológica, Mico permite activar el modo Clippy escribiendo “/clippy”. Es una función puramente estética, pero llena de nostalgia para quienes aprendieron informática con aquel clip sonriente.Resumen final y recomendación (60 palabras)Microsoft quiere que Copilot se sienta más humano con Mico, su nuevo asistente visual, que incluso puede transformarse en Clippy. Entre sus novedades hay memoria, colaboración y tutoría. ¿Será el regreso triunfal del asistente digital que todos recordamos?Escucha este episodio completo y coméntalo en Flash Diario en Spotify. Microsoft revive a Clippy con Mico, un avatar de IA que habla, recuerda y colabora con grupos. Nostalgia y tecnología juntas. Bibliografía:PCMag – The New Clippy? Mico Is One of 12 Copilot Upgrades Rolling Out NowThe Verge – Meet Mico, Microsoft’s AI Version of ClippyWindows Central – Microsoft’s New Copilot Has a Secret: It Can Turn Into ClippyReuters – Microsoft Introduces New Copilot Features Such as Collaboration, Google IntegrationSearch Engine Journal – Microsoft Updates Copilot With Memory, Search Connectors, & MoreEngadget – Mico Is Microsoft’s Clippy for the AI AgeConviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.📲 ¿Quieres ver más contenidos de ciencia y tecnología todos los días?Sígueme en Instagram: @ElSiglo21eshoy
Comet gratis para todosComet se vuelve gratuito y se enfrenta a Atlas, el navegador con ChatGPT. Por Félix Riaño @LocutorCo Puedes probarlo gratis con mi enlace y recibir un mes de Comet Pro.Síguenos en Spotify: Flash Diario. El navegador Comet de Perplexity ya está disponible gratis para todos. Antes costaba 200 dólares al mes y solo podían usarlo los suscriptores de Perplexity Max. Ahora cualquier persona puede descargarlo para Mac o Windows y aprovechar su asistente de inteligencia artificial integrado, que puede leer páginas web, resumir contenido, navegar por nosotros y hasta ayudarnos a trabajar con correos, viajes y finanzas. Comet es el primer navegador de Perplexity AI y acaba de convertirse en gratuito para todo el mundo. Está diseñado para reemplazar las pestañas tradicionales con un espacio de trabajo inteligente que integra un asistente capaz de analizar cualquier página, resumir textos, encontrar datos y hasta realizar acciones en línea. Su creador, Aravind Srinivas, dijo que Comet puede aumentar la productividad de las empresas y que su valor anual podría equivaler a 10 000 dólares por persona. Millones de usuarios estaban en lista de espera para probarlo. Pero su lanzamiento también ha despertado preocupaciones serias sobre seguridad, después de que investigadores demostraran que el navegador podía ser engañado por sitios maliciosos que logran ejecutar órdenes ocultas dentro de su asistente. Lo brillante de la inteligencia puede volverse peligroso si no se protege. Comet fue presentado como un navegador diferente. En lugar de depender de pestañas abiertas, propone un entorno de trabajo donde cada tarea tiene su propio asistente. Puedes pedirle que busque una receta, resuma un documento o mantenga abiertas solo las páginas activas mientras cierra las inactivas. Además, cuenta con “Discover”, que ofrece noticias personalizadas, y un modo Picture-in-Picture automático para mantener visible un video o videollamada mientras se navega. Su integración con el ecosistema de Perplexity permite hacer consultas sin cambiar de ventana. En pocas palabras, combina un buscador, un asistente personal y un navegador en una sola herramienta. Pero con la inteligencia llega la vulnerabilidad. Investigadores del navegador Brave descubrieron que Comet podía ser víctima de ataques llamados “inyecciones de prompt”. Este tipo de ataque consiste en esconder instrucciones maliciosas dentro de páginas web o imágenes, de modo que el asistente de inteligencia artificial las lea sin que el usuario lo note. En las pruebas, esas instrucciones lograron que Comet abriera cuentas de Gmail y copiara correos hacia los atacantes. Otro estudio de la empresa de ciberseguridad LayerX detectó un caso similar que bautizaron como “CometJacking”: enlaces con comandos ocultos podían hacer que el navegador robara información o realizara compras falsas. Aunque Perplexity afirma que ya corrigió esas fallas y que no fueron explotadas, los expertos advierten que los navegadores con agentes autónomos todavía tienen mucho que mejorar en seguridad. Aun así, Comet no ha perdido fuerza. Tras las críticas, Perplexity reforzó su programa de recompensas para investigadores de seguridad y amplió sus alianzas. Una de las más destacadas es con Chess.com, que organiza el torneo “Comet Open” con 200 000 dólares en premios y un mes gratuito de funciones premium para los jugadores que usen el navegador. Además, Comet sigue sumando novedades prácticas: modo pantalla dividida, bloqueador de anuncios, y próximamente una VPN integrada. Su asistente puede analizar correos, planificar viajes, o resumir videos de YouTube. Por eso muchos usuarios lo comparan con Atlas, el nuevo navegador de OpenAI impulsado por ChatGPT, que también promete realizar acciones en la web con un “modo agente”. La diferencia es que Atlas aún está limitado a usuarios de pago, mientras Comet ya es totalmente gratuito. El lanzamiento de Comet coincide con una nueva etapa de competencia entre navegadores con inteligencia artificial. Google integró Gemini en Chrome; Opera lanzó Neon, su propio navegador con IA; y The Browser Company presentó Dia, con enfoque en privacidad. En este contexto, Perplexity se posiciona como una alternativa de productividad. Su fundador asegura que si Comet logra aumentar la eficiencia un 20 %, podría sumar 5 billones de dólares al producto interno bruto mundial. Pero la otra cara de la innovación está en la confianza: un navegador que puede ejecutar órdenes por su cuenta necesita límites claros. De hecho, OpenAI advirtió que su propio navegador Atlas solo podrá actuar dentro de las pestañas, sin acceso a archivos del ordenador. Así, el futuro de los navegadores inteligentes dependerá tanto de su utilidad como de su capacidad para protegernos. Comet ya está disponible gratis para Mac y Windows. Es un navegador con asistente integrado que promete hacerte la vida más fácil, aunque también exige usarlo con precaución. Puedes probarlo gratis con mi enlace y recibir un mes de Comet Pro: https://pplx.ai/felix61591.Síguenos en Spotify: Flash Diario. Comet, el navegador con inteligencia artificial de Perplexity, ahora es gratis. Potente y útil, pero con alertas de seguridad importantes. 📚 Bibliografía The VergeCNBCGadgets360TimeChess.comWindows ReportLivemintConviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.📲 ¿Quieres ver más contenidos de ciencia y tecnología todos los días?Sígueme en Instagram: @ElSiglo21eshoy
Atlas desafía a GoogleEl navegador Atlas de OpenAI une ChatGPT con la web en una experiencia sin precedentes, capaz de leer, resumir y actuar en línea por ti. Por Félix Riaño @LocutorCo OpenAI lanzó Atlas, su primer navegador gratuito con inteligencia artificial integrada. La novedad está en que no usa una barra de direcciones: usa a ChatGPT como puerta de entrada a Internet. Con esta jugada, Sam Altman desafía directamente a Google Chrome, Safari y Microsoft Edge, los tres gigantes que dominan el acceso a la web. Alphabet, la empresa matriz de Google, vio caer sus acciones cerca de un 3 % tras el anuncio. Atlas fue presentado en una transmisión en vivo donde Sam Altman dijo que esta es una oportunidad única para repensar lo que puede ser un navegador. En lugar de escribir direcciones o hacer búsquedas, las personas pueden pedirle cosas directamente a ChatGPT. Por ejemplo, “muéstrame recetas con aguacate” o “busca un vuelo a París y resérvalo”. Atlas responde, resume y puede incluso realizar las tareas por ti si activas su nuevo “modo agente”. La aplicación está disponible desde hoy para macOS y llegará pronto a Windows, iOS y Android. ¿Podrá un navegador nuevo cambiar la forma en que usamos Internet? Pero Atlas no tiene una barra de direcciones. Y eso cambia todo. Atlas funciona como si ChatGPT se convirtiera en la página de inicio de Internet. Cada nueva pestaña abre el chat directamente, y desde allí se puede escribir lo que antes se buscaba en Google. El navegador tiene memoria y aprende del usuario, recordando consultas, historiales y preferencias para ofrecer respuestas más personalizadas. También incorpora una barra lateral llamada “Ask ChatGPT” que acompaña la navegación en cada página. Desde esa ventana, se pueden hacer preguntas sobre el contenido que se esté viendo, sin copiar ni pegar nada. Altman mostró ejemplos como resumir una crítica de cine o pedir que compre ingredientes en línea a través de Instacart. Este lanzamiento abre una nueva batalla en lo que algunos medios ya llaman las “guerras de navegadores de la era de la IA”. Chrome tiene una cuota de mercado mundial del 72 %, mientras Safari posee el 14 %. Romper ese dominio parece casi imposible, pero OpenAI cree que integrar la inteligencia artificial directamente en la experiencia de navegación puede ser la clave. Atlas ofrece una experiencia conversacional, en la que el chat reemplaza los motores de búsqueda tradicionales. Esto afecta el modelo de negocio de Google, que vive de los anuncios junto a sus enlaces. Analistas financieros en CNBC y Investor’s Business Daily explicaron que el temor de los inversionistas es que, si las personas dejan de buscar enlaces y comienzan a conversar con Atlas, la publicidad de Google pierda valor. Atlas no es solo un buscador con inteligencia artificial. Es un navegador completo con pestañas, marcadores, autocompletado y un modo agente capaz de actuar como si fuera el usuario. Puede comprar tiquetes de avión, escribir correos, llenar formularios o hacer compras en línea. En la demostración, se vio cómo el agente navegaba por varias páginas, seleccionaba ingredientes de una receta y los añadía a un carrito de compras. Todo esto ocurre en tiempo real y bajo supervisión del usuario. Aunque está en fase experimental, OpenAI promete que con el tiempo el agente aprenderá más tareas y se volverá un asistente integral. Por ahora, este modo solo está disponible para quienes pagan las versiones Plus y Pro de ChatGPT. La estrategia de OpenAI recuerda al lanzamiento de Google Chrome en 2008, cuando Google integró su motor de búsqueda dentro del navegador y cambió la historia de la web. Hoy la situación se invierte: OpenAI quiere quitarle ese poder. Los medios Wired, Financial Times y Bloombergcoinciden en que Atlas busca un “momento Chrome” propio, donde la inteligencia artificial reemplace la barra de búsqueda por una conversación natural. El navegador recopila datos con permiso del usuario para personalizar respuestas, igual que hacen Chrome o Safari, pero sin depender de motores externos. Perplexity, otro competidor, presentó su propio navegador llamado Comet, y Google ya integró su chatbot Gemini dentro de Chrome. La competencia está en plena ebullición. Sam Altman dijo que este es solo el comienzo y que “hay mucho más por agregar”. Atlas es el nuevo navegador de OpenAI que convierte a ChatGPT en la puerta principal de Internet. Su modo agente promete automatizar tareas y desafiar a Google Chrome. ¿Será este el inicio de una nueva forma de navegar?Puedes escuchar más episodios como este en Flash Diario en Spotify. OpenAI lanzó Atlas, un navegador con ChatGPT integrado que conversa con páginas, hace tareas y reta el dominio de Google. Bibliografía:The New York TimesCNBCFinancial TimesWiredArs TechnicaBloombergBarron’sBusiness InsiderCBS NewsInvestor’s Business DailyConviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.📲 ¿Quieres ver más contenidos de ciencia y tecnología todos los días?Sígueme en Instagram: @ElSiglo21eshoy
Los nuevos inodoros con cámaras y sensores usan inteligencia artificial para analizar tu salud intestinal diaria. Por Félix Riaño @LocutorCo Escucha esta y más historias de tecnología en Flash Diario. Desde Japón hasta Estados Unidos, el baño está entrando en la era de la inteligencia artificial. Inodoros con cámaras, luces LED y sensores analizan las heces y la orina para detectar signos tempranos de enfermedades o deshidratación. La empresa Kohler presentó su dispositivo Dekoda, mientras que la japonesa Toto y la startup Throne avanzan con modelos que convierten cada visita al baño en un chequeo médico automatizado. Lo que antes era rutina ahora puede ser diagnóstico. ¿Podríamos llegar a detectar cáncer de colon solo con un vistazo a nuestro inodoro? 🚽 Lo que tiras al baño puede salvarte la vida. Japón ha sido pionero en convertir los baños en espacios tecnológicos. Los inodoros Toto ya eran famosos por sus asientos calefactados, bidés electrónicos y música integrada. Ahora dan un paso más con sensores que analizan el color, la forma y el volumen de las heces. Al sentarse, una luz LED escanea los desechos y los datos se envían automáticamente a una aplicación en el teléfono. Esa app crea un “calendario intestinal” que detecta tendencias, sugiere mejoras alimenticias y alerta de cambios preocupantes. En otras palabras, el baño japonés se está convirtiendo en una consulta médica doméstica, cómoda y automatizada. El interés por los datos de salud crece, pero también las dudas sobre la privacidad. Kohler, fabricante estadounidense de baños y cocinas, presentó el accesorio Dekoda, una cámara de 599 dólares que se coloca en el borde del inodoro y analiza los desechos con sensores ópticos. Promete identificar sangre, medir hidratación y revisar la salud intestinal, todo sin ver tu cuerpo, según aclara la empresa. El sistema funciona con una aplicación y un sensor de huella digital para saber quién usa el baño. Los datos se encriptan de extremo a extremo. Pero la pregunta es inevitable: ¿hasta dónde queremos que llegue la inteligencia artificial en nuestra intimidad? Aun con esas dudas, la tecnología podría salvar vidas. Investigadores de la Universidad de Ginebra desarrollaron un modelo de inteligencia artificial capaz de detectar cáncer colorrectal a partir de una simple muestra de heces. Su sistema identifica bacterias intestinales a nivel de subespecie y predice la presencia de cáncer en el 90 % de los casos, casi igualando la precisión de una colonoscopia. Esta herramienta no es invasiva, rápida y podría aplicarse en millones de hogares si se integra en los inodoros inteligentes. La idea es que el baño deje de ser solo un espacio de higiene y se convierta en el centro de monitoreo más accesible de la salud humana. La startup estadounidense Throne también compite en esta carrera. Su modelo incluye una cámara dentro del inodoro que analiza tanto la orina como las heces, y puede identificar al usuario mediante Bluetooth. El dispositivo estudia patrones digestivos, flujo urinario y nivel de hidratación en tiempo real. En paralelo, los laboratorios médicos usan inteligencia artificial para mapear el microbioma intestinal y descubrir nuevas formas de detectar enfermedades desde las bacterias. Estas innovaciones apuntan a un futuro donde el diagnóstico se integre en la rutina diaria. Aunque hoy los precios son altos, la tendencia sugiere que en pocos años podríamos tener diagnósticos tempranos sin salir del baño. Los inodoros inteligentes con inteligencia artificial ya están analizando tu salud intestinal. Desde Japón hasta Estados Unidos, esta nueva frontera tecnológica promete comodidad y prevención médica sin agujas. ¿Lo adoptarías en casa? Cuéntamelo y escucha más historias de tecnología en Flash Diario. Nuevos inodoros con cámaras e inteligencia artificial analizan tus heces y orina para cuidar tu salud intestinal desde casa. 📚 Bibliografía:Times of India – Poopular Science: AI toilets get to the bottom of your gut healthCNET – Kohler wants to put a tiny camera in your toiletThe Verge – Kohler’s new toilet camera provides health insightsTechCrunch – Kohler unveils a camera for your toiletStuff – The Kohler Dekoda is a R10,000 camera designed for watching turdsConviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.📲 ¿Quieres ver más contenidos de ciencia y tecnología todos los días?Sígueme en Instagram: @ElSiglo21eshoy
Siri preocupa dentro de Apple: Ingenieros de Apple expresan dudas sobre el rendimiento de Siri en las pruebas internas de iOS 26.4. Por Félix Riaño @LocutorCo Escucha más sobre esta historia en Flash Diario en Spotify El próximo Siri con inteligencia artificial de Apple, previsto para iOS 26.4 en 2026, está generando inquietud entre empleados que ya lo están probando. Según reportes de Bloomberg y medios especializados como 9to5Mac, MacRumors y AppleInsider, las versiones internas de prueba no están cumpliendo las expectativas. La renovación de Siri debía marcar un cambio profundo para el asistente, pero los ingenieros describen resultados decepcionantes. Aún quedan seis meses para el lanzamiento público, pero dentro de la empresa se habla de “preocupación”. ¿Podrá Apple lograr que Siri finalmente compita de tú a tú con los asistentes impulsados por inteligencia artificial de Google y OpenAI? A comienzos de 2026, Apple planea lanzar su Siri completamente renovado dentro de la actualización iOS 26.4. Esa versión promete integrar el sistema Apple Intelligence, con un asistente capaz de entender el contexto personal del usuario, ver lo que hay en pantalla y ejecutar acciones dentro de las apps. Pero a pesar del tiempo extra que Apple se tomó para reconstruirlo desde cero, algunos ingenieros que prueban el software dicen que el nuevo Siri todavía no funciona bien.Las pruebas internas apuntan a problemas de rendimiento. Mark Gurman, periodista de Bloomberg, escribió en su boletín Power On que varios empleados expresan dudas sobre la calidad actual del asistente. Los ingenieros consideran que el comportamiento de Siri no está a la altura de lo que Apple había prometido en la conferencia de desarrolladores WWDC 2024.Apple Intelligence se presentó como el gran paso para que la inteligencia artificial funcione directamente en los dispositivos, sin depender siempre de la nube. Pero el estado actual del proyecto ha generado malestar dentro de la compañía y preocupación en el mercado. Algunos temen que Apple termine dependiendo de Google Gemini. En junio de 2024, Apple prometió que Siri se transformaría por completo gracias a Apple Intelligence. Sería un asistente con tres superpoderes: saber qué hay en pantalla, recordar el contexto de cada usuario y actuar dentro de las aplicaciones sin necesidad de tocar la pantalla. Esa versión debía llegar en 2025 con iOS 18.4 o 18.5. Pero los retrasos empezaron a acumularse cuando los ingenieros reconocieron que el sistema no cumplía con los estándares de calidad de Apple.Craig Federighi, jefe de software, explicó después de la conferencia WWDC25 que el equipo necesitaba más tiempo para “re-arquitecturar” Siri. Esa nueva etapa implicó dos caminos paralelos: un grupo trabajando con modelos de inteligencia artificial que funcionan dentro del dispositivo, y otro con modelos alojados en la nube privada de Apple, bajo el sistema Private Cloud Compute.El plan original era decidir cuál versión funcionaba mejor en una especie de “bake-off”, una competencia interna. Pero los reportes más recientes indican que el prototipo actual probablemente usa los modelos locales, y que los resultados no son alentadores. El problema no es nuevo. Siri lleva años intentando ponerse al día frente a Alexa, Google Assistant y ChatGPT. Apple tardó más de una década en transformar su asistente en un sistema realmente inteligente. Mientras tanto, la presión externa aumentó. Los avances de OpenAI y Google Gemini demostraron lo que un asistente conversacional puede hacer cuando se combina lenguaje natural con razonamiento.Apple Intelligence intentó ofrecer una alternativa: inteligencia generativa que funcione dentro del propio iPhone, sin depender de servidores externos. Eso permitiría proteger la privacidad y mantener la velocidad. Pero el desafío técnico ha sido enorme. Según AppleInsider, la empresa ha tenido que reorganizar equipos y busca reemplazar a John Giannandrea, el directivo a cargo de la inteligencia artificial. También se confirmó que Robby Walker, otro líder del área, dejará la empresa en octubre.Además, Apple enfrenta una fuga de talento hacia competidores como Meta, que ofrecen sueldos más altos a los ingenieros especializados en modelos de lenguaje. Esa pérdida de personal ha retrasado aún más el desarrollo y ha afectado el ánimo dentro de los equipos de Cupertino. A pesar de las dificultades, Apple mantiene su calendario: Siri debería llegar en la primavera de 2026 con iOS 26.4. Analistas financieros, como Amit Daryanani de Evercore ISI, creen que este lanzamiento podría ser un punto de inflexión para el valor de las acciones de Apple. Si el nuevo Siri cumple lo prometido, podría cambiar la percepción de los inversionistas y marcar el inicio de un nuevo ciclo de actualizaciones para el iPhone.Pero las dudas dentro de Apple son un mal presagio. Los ingenieros que están probando el sistema lo describen como inestable y poco confiable. Aún no se sabe si los problemas vienen de los modelos locales o de los que dependen de Google Gemini. Si la versión final no logra brillar, Apple podría verse obligada a admitir que necesita recurrir al modelo de Google para que Siri funcione como debe.Esa posibilidad, aunque incómoda para una empresa que siempre ha presumido de independencia tecnológica, no está descartada. De hecho, Apple ya colabora con OpenAI para integrar ChatGPT dentro de sus dispositivos. Lo que falta por ver es si esa colaboración se convierte en una dependencia. Bloomberg, MacRumors y AppleInsider coinciden en que Apple aún tiene entre cinco y seis meses para corregir los errores antes del lanzamiento. iOS 26.4 llegaría en marzo o abril de 2026, junto con las actualizaciones de macOS Tahoe y los nuevos equipos con chips M6.Durante los últimos meses, Apple ha añadido funciones menores de Apple Intelligence a otras partes del sistema: limpieza automática de imágenes en Fotos, creación de Genmoji personalizados y respuestas de ChatGPT integradas dentro de Siri. Pero el “gran salto” de un Siri verdaderamente proactivo todavía no se ha materializado.Dentro del código de iOS 26.1 ya hay referencias al “Model Context Protocol”, una estructura diseñada para que las apps puedan compartir información con la inteligencia artificial de forma más fluida. Si ese protocolo se completa, Siri podría acceder a datos de Mail, Calendario, Mensajes o Mapas sin comprometer la privacidad.La promesa original de Apple Intelligence era justamente esa: que el iPhone entienda lo que haces, recuerde lo que necesitas y actúe por ti sin exponerte a la nube. Falta ver si la empresa logra que esa promesa se cumpla a tiempo. Apple enfrenta una carrera contrarreloj para lanzar su nuevo Siri con inteligencia artificial en iOS 26.4. Los ingenieros que ya lo probaron expresan preocupación, pero aún queda margen para mejorar. Si Apple logra cumplir su promesa, podría recuperar liderazgo en la era de los asistentes inteligentes. Escucha más sobre esta historia en Flash Diario en Spotify Apple prueba su nuevo Siri con IA para iOS 26.4, pero sus ingenieros están preocupados por su rendimiento actual. 📚 Bibliografía:9to5MacMacRumorsAppleInsiderMacDailyNewsConviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.📲 ¿Quieres ver más contenidos de ciencia y tecnología todos los días?Sígueme en Instagram: @ElSiglo21eshoy
El computador que te escucha: Microsoft presenta Copilot Voice y Copilot Vision, las nuevas funciones de Windows 11 que permiten hablar con tu computador y dejar que la inteligencia artificial actúe por ti. Por Félix Riaño @LocutorCo Síguelo en Spotify aquí 👉 Flash Diario. ¿Te imaginas hablar con tu computador y que entienda lo que le pides, como si fuera una persona? Microsoft acaba de hacer realidad esa idea con Copilot Voice y Copilot Vision, dos nuevas funciones de Windows 11 que marcan el inicio de una nueva forma de usar el PC. Desde esta semana, los usuarios podrán decir “Hey Copilot” para dar órdenes, pedir ayuda o dejar que la inteligencia artificial realice tareas en el escritorio. Y todo llega justo después de que Windows 10 se despidió definitivamente, y de que vimos cómo Apple y Nvidia también apuestan por integrar la inteligencia artificial en cada dispositivo. Hablar con tu computador suena útil, pero también genera dudas. Microsoft anunció el lanzamiento de Copilot Voice y Copilot Vision, dos herramientas que llegan a todos los computadores con Windows 11, no solo a los nuevos modelos “Copilot Plus”. Con Voice, los usuarios pueden conversar directamente con el sistema operativo para realizar acciones, abrir aplicaciones, buscar información o incluso pedir consejos sobre cómo usar un programa. Copilot Vision, por su parte, permite que la inteligencia artificial “vea” lo que ocurre en la pantalla para ofrecer asistencia contextual.En una demostración, Yusuf Mehdi, vicepresidente ejecutivo y director de marketing de consumo de Microsoft, explicó que la idea es reescribir el sistema operativo alrededor de la inteligencia artificial. Según él, la meta es crear “el computador que te escucha, te ve y actúa contigo”. Estas funciones estarán disponibles en todos los mercados donde Copilot ya funciona y se activan con el comando de voz “Hey Copilot”. Pero hay una pregunta inevitable: ¿realmente la gente quiere hablar con su computador? Hace una década, Microsoft intentó algo parecido con Cortana, y la experiencia no fue la mejor. Muchas personas se sentían incómodas hablando frente a una máquina, y otras temían por su privacidad. Ahora, la compañía confía en que la nueva generación de asistentes con inteligencia artificial cambiará esa percepción.Para lograrlo, Copilot Voice y Vision están diseñados como funciones opcionales. El usuario decide si quiere permitir que la inteligencia artificial escuche o vea lo que hay en pantalla. Microsoft promete que todo ocurre dentro de un entorno seguro, sin grabaciones automáticas ni uso de datos sin permiso. Es una estrategia que busca evitar la polémica que causó la función “Recall”, aquella que tomaba capturas de todo lo que el usuario hacía en el computador.Aun así, la duda persiste: ¿qué tan cómodo es dejar que una inteligencia artificial observe tu escritorio o tus documentos personales para ayudarte? Microsoft asegura que esta vez la experiencia será diferente. Copilot Vision no almacena imágenes ni datos de pantalla, sino que los procesa en tiempo real, similar a cuando se comparte una pantalla en una videollamada. Además, las nuevas funciones no se limitan a escuchar o ver: pueden actuar. Con Copilot Actions, el asistente puede realizar tareas completas dentro del computador, como ordenar fotos, ajustar configuraciones o crear un sitio web a partir de un archivo.En las pruebas de Copilot Labs, algunos usuarios ya pueden ver cómo el asistente redimensiona imágenes, busca archivos o incluso prepara listas de reproducción en Spotify. Microsoft dice que Copilot ejecuta cada paso en un entorno aislado y seguro, visible para el usuario, que puede interrumpirlo o tomar el control en cualquier momento.Este enfoque convierte a Copilot en algo más parecido a un ayudante personal dentro del sistema operativo. Una especie de compañero digital que no solo responde preguntas, sino que realiza acciones reales en el escritorio. La presentación de Copilot Voice y Vision llega justo después de que Microsoft terminara el soporte gratuito para Windows 10. Muchos usuarios todavía usan ese sistema, y la empresa espera que estas novedades sirvan como incentivo para dar el salto a Windows 11. Es un movimiento similar al que vimos con Apple esta misma semana al lanzar los MacBook y iPad con el chip M5, diseñados para tareas de inteligencia artificial. Y también coincide con el anuncio de Nvidia, que presentó un computador de escritorio con capacidad para ejecutar modelos de inteligencia artificial gigantes sin depender de la nube.Todas estas noticias apuntan a un mismo destino: la inteligencia artificial integrada directamente en los dispositivos. Ya no se trata de usar una aplicación o entrar a un chatbot, sino de convivir con la inteligencia artificial dentro del sistema operativo. En el caso de Microsoft, la idea es clara: cada computador con Windows 11 debe convertirse en un “AI PC”.Según Yusuf Mehdi, el cambio será tan grande como lo fue la llegada del ratón o el teclado. En sus palabras, “la voz se convertirá en la tercera forma de interactuar con el computador”. Microsoft quiere que hables con tu computador y que Copilot te escuche, te vea y actúe contigo. Es un paso enorme hacia los computadores con inteligencia artificial integrada. Si quieres entender cómo llegamos a este punto, te recomiendo escuchar los episodios recientes del Flash Diario.Síguelo en Spotify aquí 👉 Flash Diario. Microsoft lanza Copilot Voice y Vision: podrás hablar con tu PC y dejar que la inteligencia artificial actúe por ti.📚 BibliografíaThe Verge – Microsoft wants you to talk to your PCAxios – Microsoft makes AI PC vision realAP News – Microsoft pushes AI updates in Windows 11Yahoo Finance – Microsoft’s latest Windows 11 update puts AI at the center of your PCCNBC – Microsoft will test a Copilot AI feature that performs work on local filesWired – Microsoft is rewriting Windows 11 around AIConviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.📲 ¿Quieres ver más contenidos de ciencia y tecnología todos los días?Sígueme en Instagram: @ElSiglo21eshoy
💻 El nuevo chip M5 💻 Apple lanza el chip M5 con cuatro veces más potencia de inteligencia artificial en MacBook, iPad y Vision Pro. Por Félix Riaño @LocutorCo Flash Diario, disponible en Spotify. Apple presentó su nuevo chip M5, el corazón que ahora impulsa los nuevos MacBook Pro, iPad Pro y el visor Vision Pro. Este procesador promete hasta cuatro veces más potencia en tareas de inteligencia artificial y un rendimiento gráfico un 45 % superior al del M4. Los nuevos modelos ya se pueden reservar y estarán disponibles el 22 de octubre. Pero más allá de los números, el M5 marca el momento en que Apple quiere que sus dispositivos hagan inteligencia artificial directamente en el equipo, sin depender tanto de la nube. ¿Será suficiente para ponerse al nivel de Microsoft y Nvidia? El chip M5 llega con diez núcleos de CPU, diez núcleos de GPU y un motor neuronal de 16 núcleos. Todo esto, dentro de un sistema de tres nanómetros de tercera generación, pensado para acelerar la inteligencia artificial dentro del dispositivo. Apple afirma que este nuevo chip tiene los núcleos más rápidos del mundo, capaces de procesar grandes modelos de lenguaje y gráficos avanzados con una eficiencia energética que reduce el consumo total de energía. En la práctica, esto significa que los usuarios podrán usar herramientas de IA para editar fotos, mejorar videos o generar contenido sin conexión a internet, directamente desde sus dispositivos.El anuncio incluye los nuevos MacBook Pro de 14 pulgadas, que parten desde 1.599 dólares, los iPad Pro desde 999 dólares y el Vision Pro actualizado con la nueva banda Dual Knit desde 3.499 dólares. Pero el gran salto no está en la velocidad, sino en la mente. El M5 no es solo otro chip más rápido. Es el paso más decidido de Apple hacia la inteligencia artificial en cada tarea. Este nuevo procesador tiene un “Neural Accelerator” dentro de cada núcleo gráfico. En palabras simples, cada parte del chip piensa por sí misma para ejecutar procesos de IA, lo que acelera muchísimo todo lo que dependa de modelos generativos o análisis de datos complejos.Por ejemplo, aplicaciones como Final Cut Pro podrán mejorar videos con IA directamente en el MacBook, sin conectarse a servidores externos. Lo mismo ocurrirá con el Vision Pro, que ahora procesará en tiempo real escenas tridimensionales, fotos espaciales y avatares generados por IA con menos latencia y más fluidez. El iPad Pro también aprovecha esa potencia, combinando el nuevo M5 con pantallas OLED y más memoria para creadores de contenido que usan diseño, dibujo o edición en movilidad. Durante años, Apple ha estado un paso detrás en inteligencia artificial generativa frente a competidores como Google o Microsoft. Mientras esas empresas integraban IA conversacional en sus sistemas operativos, Apple se enfocaba más en hardware. El M5 busca cambiar eso al permitir que toda esa inteligencia corra directamente en los dispositivos, con una velocidad que, según la propia Apple, multiplica por 3,5 la del M4 en tareas de IA.Aun así, el movimiento llega en un contexto difícil: los analistas de Wall Street observan si los precios se mantendrán o si Apple asumirá los costos de los aranceles anunciados por el presidente Donald Trump sobre chips fabricados en China. Apple asegura que mantiene los precios, pero la presión del mercado es alta. Y muchos usuarios todavía se preguntan si realmente necesitan tanta potencia de inteligencia artificial para sus tareas diarias. El M5 quiere que el usuario sienta la IA sin notarla. En el Vision Pro, por ejemplo, convierte fotos planas en escenas espaciales y genera “Personas” más realistas. En el MacBook Pro, mejora el rendimiento de edición de video hasta un 80 % frente al modelo anterior y aumenta la velocidad de los compiladores de código, algo muy útil para desarrolladores. En el iPad Pro, los nuevos 12 GB y 16 GB de memoria permiten trabajar con aplicaciones exigentes, como programas de dibujo vectorial, sin caídas de rendimiento.Además, la arquitectura unificada del M5 alcanza una velocidad de memoria de 153 GB por segundo. Eso permite que el chip acceda a todos los recursos a la vez, como si tuviera una autopista interna más ancha. Apple dice que eso hará posible ejecutar modelos de inteligencia artificial completos sin conexión. En términos simples, un futuro más rápido y más privado. El nuevo M5 se fabrica con un proceso de tres nanómetros de tercera generación. Ese tamaño casi microscópico permite colocar más transistores y mantener el consumo bajo. En comparación, los primeros chips M1 de 2020 usaban cinco nanómetros.Además, Apple incorporó una mejora llamada “dynamic caching”, que distribuye automáticamente los recursos gráficos según la necesidad del momento. En juegos, esto significa imágenes más fluidas y sin saltos. En diseño o animación, menos tiempo de renderizado. El chip también incluye un motor de medios mejorado que acelera la reproducción de video en alta resolución, e incluso permite que el Vision Pro muestre 10 % más píxeles con menos calor.Apple asegura que su nueva generación de chips mantiene el objetivo de 2030: lograr que todos sus productos sean neutros en carbono. El M5 consume menos energía en reposo y requiere menos refrigeración, lo que prolonga la vida útil de las baterías y reduce el impacto ambiental. El chip M5 convierte al MacBook, al iPad y al Vision Pro en máquinas pensantes. Apple apuesta todo por una inteligencia artificial que trabaje desde el hardware y sin depender tanto de la nube. ¿Es el comienzo de una nueva era Mac? Flash Diario, disponible en Spotify. Apple lanza el chip M5: cuatro veces más potencia en inteligencia artificial para MacBook, iPad y Vision Pro. 📚 BibliografíaCNBCThe VergeEngadgetApple Newsroom Conviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.📲 ¿Quieres ver más contenidos de ciencia y tecnología todos los días?Sígueme en Instagram: @ElSiglo21eshoy
El nuevo Nvidia DGX Spark promete un petaflop de potencia y 128 GB de memoria unificada, capaz de ejecutar modelos de IA gigantes en tu escritorioPor Félix Riaño @LocutorCo Si te gusta la tecnología y quieres entender el futuro de los mini PC, búscame en Flash Diario en Spotify. Nvidia acaba de lanzar el DGX Spark, un computador tan pequeño que cabe en una mano, pero tan potente que puede ejecutar modelos de inteligencia artificial con 200.000 millones de parámetros. Cuesta 4.000 dólares, pesa apenas 1,2 kilogramos y consume 240 vatios, lo mismo que una bombilla potente.La presentación oficial coincidió con una escena poco común: Jensen Huang, el CEO de Nvidia, llevó personalmente el primer Spark a Elon Musk en las instalaciones de SpaceX, en Texas, justo antes del ensayo número 11 del cohete Starship. Según Nvidia, el Spark no está pensado para videojuegos ni para uso doméstico, sino para desarrolladores, investigadores y creadores que necesiten potencia de supercomputador sin depender de la nube. Su promesa es poner la inteligencia artificial “al alcance de la mano”. Pequeño por fuera, pero con cerebro de cohete espacial.El DGX Spark es, literalmente, un supercomputador de escritorio. Mide apenas 15 por 15 centímetros y 5 centímetros de grosor. Dentro lleva el nuevo chip GB10 Grace Blackwell Superchip, una combinación de CPU Arm de 20 núcleos y GPU Blackwell con el poder de una RTX 5070. Su sistema operativo no es Windows, sino DGX OS, una versión personalizada de Ubuntu Linux llena de herramientas para inteligencia artificial.Nvidia lo describe como “el supercomputador de IA más pequeño del mundo”, capaz de alcanzar un petaflop, es decir, un millón de billones de operaciones por segundo. Y lo mejor: puedes enchufarlo en un tomacorriente normal y tener potencia de centro de datos en tu mesa de trabajo.Durante años, los desarrolladores de inteligencia artificial tuvieron que alquilar tiempo en la nube para entrenar modelos grandes. Eso implicaba pagar mes a mes, esperar colas y depender de servidores remotos. Los computadores personales simplemente no tenían memoria suficiente ni conectividad adecuada para manejar tantos datos.El DGX Spark quiere cambiar esa historia. Con sus 128 GB de memoria unificada y NVLink-C2C para cinco veces más ancho de banda que PCIe 5, puede ejecutar modelos locales como Flux.1 de Black Forest Labs para generar imágenes, Cosmos Reason para visión computacional o Qwen3 para crear chatbots. Aun así, queda la duda: ¿cuántas personas podrán pagar 4 000 dólares por un mini PC que no trae Windows ni está pensado para jugar?Nvidia está apostando a que sí. Quiere que cada estudiante, investigador y creador tenga su propio laboratorio de IA en el escritorio. Por eso abrió el hardware a socios como Acer, Asus, Dell, HP, Lenovo y MSI, que lanzarán sus propias versiones del Spark. La idea es democratizar la potencia de la IA sin depender de la nube.Además, Nvidia prepara un modelo mayor, el DGX Station, una torre de escritorio con el chip GB300 Grace Blackwell Ultra que va a llegar a finales de año. Mientras tanto, el pequeño Spark ya está en laboratorios de robótica, universidades y estudios de arte digital, donde empiezan a usarlo para entrenar modelos sin internet ni latencia. Y sí, la versión que recibió Elon Musk fue autografiada por Jensen Huang.El primer DGX Spark se entregó a Musk en la base de SpaceX en Texas, justo cuando se preparaba el undécimo vuelo de Starship. Nvidia aprovechó la escena para recordar que ya en 2016 le había dado a OpenAI su primer DGX-1, una máquina que costaba 129.000 dólares y medía más de 85 centímetros. Hoy, el Spark cuesta una treintava parte y es 20 veces más pequeño.Con su peso de 1,2 kilogramos y sus 200 Gb/s de conectividad, puede conectarse a otros Sparks para trabajar en equipo, como si fueran bloques de LEGO de supercomputación. Las reseñas especializadas ya lo llaman “freaking cool” y “un laboratorio en una caja”. En otras palabras, Nvidia no solo vendió un PC, sino una fantasía para los que soñaban con tener su propio centro de datos en el escritorio. El DGX Spark de Nvidia transforma el concepto de computador personal con potencia de supercomputador por 4.000 dólares. Aunque no es para todos, marca el inicio de una nueva generación de IA local. Si te gusta la tecnología y quieres entender el futuro de los mini PC, búscame en Flash Diario en Spotify. Nvidia lanza el DGX Spark: un mini supercomputador de 4.000 dólares con 1 petaflop de potencia y 128 GB de memoria. 📚 Bibliografía:Ars TechnicaPCMagThe VergeServe The HomeCNETNvidia BlogConviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.📲 ¿Quieres ver más contenidos de ciencia y tecnología todos los días?Sígueme en Instagram: @ElSiglo21eshoy
Adiós Windows 10: Termina hoy, pero hay un año gratis de seguridad Por Félix Riaño @LocutorCo Escucha más consejos en Flash Diario en Spotify. Desde hoy, 14 de octubre de 2025, Microsoft deja de actualizar Windows 10. Pero hay buenas noticias: puedes mantenerlo seguro durante un año más con el programa Extended Security Updates (ESU). Aquí te cuento cómo hacerlo gratis y evitar riesgos mientras decides si pasarte a Windows 11. Después de diez años, Windows 10 llega oficialmente al final de su vida útil. A partir de hoy, los equipos que sigan usando este sistema operativo dejarán de recibir actualizaciones de seguridad automáticas. Eso significa que seguirán funcionando, pero estarán más expuestos a ataques informáticos. Microsoft ofrece tres caminos: pasarte gratis a Windows 11, comprar un nuevo PC o activar un año extra de protección con el programa Extended Security Updates (ESU). Esta última opción es gratuita para la mayoría de usuarios, y se puede activar en pocos minutos desde el menú de configuración. ¿Quieres saber cómo mantener tu computadora protegida sin gastar dinero? El fin de Windows 10 no tiene que ser el fin. Windows 10 se lanzó en 2015 como una actualización gratuita desde Windows 7 y Windows 8. Desde entonces, ha sido el sistema operativo más usado del planeta. Hoy, Microsoft lo declara oficialmente en “estado de fin de vida”. Esto no apaga tu computadora ni borra tus archivos, pero sí detiene las actualizaciones de seguridad. Y sin esas actualizaciones, las vulnerabilidades pueden ser aprovechadas por virus o fraudes. Para evitarlo, Microsoft creó el programa Extended Security Updates (ESU), pensado para quienes no pueden o no quieren actualizar todavía a Windows 11. Este programa extiende las actualizaciones de seguridad por un año más, hasta el 13 de octubre de 2026. El obstáculo principal es que muchos equipos antiguos no cumplen los requisitos de Windows 11. El nuevo sistema exige, por ejemplo, un chip TPM 2.0, procesadores recientes y al menos 4 GB de memoria RAM. Esto deja a millones de usuarios sin posibilidad de actualizar fácilmente. Además, según Windows Central, la herramienta oficial de instalación de Windows 11 falló justo antes de esta fecha, lo que dificulta aún más la migración. Ante este panorama, el programa ESU se convierte en una solución práctica para mantener la seguridad de los equipos con Windows 10 mientras se busca una alternativa definitiva. Activar el programa ESU es sencillo y gratuito en la mayoría de los casos. Solo hay que abrir la Configuración de Windows 10, entrar en Actualización y seguridad, y buscar el enlace “Inscribirse ahora” en el aviso sobre el fin del soporte. Allí aparecen tres formas de hacerlo:1️⃣ Sincronizar la copia de seguridad del PC con OneDrive (gratis hasta 5 GB).2️⃣ Canjear 1 000 puntos del programa Microsoft Rewards.3️⃣ Pagar 30 dólares por un año adicional de actualizaciones.En Europa, la extensión gratuita se aplica sin necesidad de usar OneDrive. En otros países, la opción más rápida es la sincronización en la nube, aunque se pueden desactivar carpetas grandes para no superar el límite gratuito. Una vez inscrito, tu PC seguirá recibiendo parches de seguridad hasta octubre de 2026. Microsoft aclara que el programa ESU solo incluye parches de seguridad y no añade funciones nuevas ni soporte técnico. Es una medida temporal, pensada como un “puente” hasta la migración a Windows 11 o a otro sistema moderno. Según CNET y PCMag, más de 400 millones de computadoras siguen usando Windows 10, y muchas lo harán durante 2026. Si decides cambiar de equipo, Wired recomienda laptops con Windows 11 como el Framework 13, el Lenovo Yoga 7i o el Acer Swift 16 AI, con mejor rendimiento y eficiencia energética. Por ahora, el paso más importante es activar el programa ESU hoy mismo, para mantener tu computadora protegida mientras planificas tu próxima actualización. Windows 10 llega al final de su soporte, pero puedes seguir protegido durante un año más con el programa gratuito ESU. Actívalo desde Configuración → Actualización y seguridad → “Inscribirse ahora”. Es rápido, gratuito y te da tiempo para decidir tu paso a Windows 11. Escucha más consejos en Flash Diario en Spotify. Hoy termina Windows 10. Activa gratis el programa ESU en Configuración y protege tu PC con seguridad hasta octubre de 2026.📚 FuentesEngadgetPCMagCNETWindows CentralWiredConviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.📲 ¿Quieres ver más contenidos de ciencia y tecnología todos los días?Sígueme en Instagram: @ElSiglo21eshoy
El primer teléfono de tres pliegues podría llegar a todo el mundo Por Félix Riaño @LocutorCo Escucha y comenta este episodio en Flash DiarioEl nuevo Samsung Galaxy Z TriFold podría venderse fuera de Corea del Sur y China. Fuentes cercanas aseguran que Samsung planea un lanzamiento global, impulsado por su confianza en el diseño y potencia de su primer móvil con tres pliegues. Samsung va a presentar su primer teléfono con pantalla de tres pliegues, y ya no será exclusivo de Asia. Nuevos reportes confirman que el Galaxy Z TriFold saldrá también en Emiratos Árabes Unidos y posiblemente en Estados Unidos. Esto cambia las expectativas: un producto que parecía limitado podría ser el primer tri-fold realmente global. La presentación podría ocurrir en el foro APEC, en Corea, entre el 31 de octubre y el 1 de noviembre. Este paso marca una nueva fase en la batalla de los plegables entre Samsung, Huawei y Motorola. ¿Estamos frente al futuro de los teléfonos o frente a una moda cara con fecha de caducidad? Pero la competencia con Huawei y Motorola se va a intensificar. El Galaxy Z TriFold sería el primer teléfono de Samsung capaz de doblarse en tres partes, con una pantalla OLED de 10 pulgadas.Cuando está cerrado, se convierte en un móvil compacto con una pantalla de 6,5 pulgadas en la tapa.Por dentro, llevaría el procesador Snapdragon 8 Elite for Galaxy, hasta 16 GB de memoria RAM y un chasis de titanio.El diseño incluye tres bisagras y tres baterías internas para equilibrar el peso y la energía. Además, ofrecería cámara triple con sensor principal de 200 megapíxeles, zoom digital de 100 x y carga inalámbrica reversible. Todo esto bajo Android 16 con la interfaz One UI 8, prometiendo siete años de actualizaciones de sistema. La fecha de lanzamiento apunta al cierre de octubre, junto al foro APEC en Gyeongju, Corea del Sur. Durante meses, los rumores indicaban que el Galaxy Z TriFold sería exclusivo para Corea y China. Esa estrategia parecía un paso atrás frente a Huawei, que ya lanzó su Mate XT de 10,2 pulgadas con formato más panorámico. El diseño de Huawei se abre hacia afuera; el de Samsung, hacia adentro en tres partes. Dos filosofías distintas que compiten por dominar el formato plegable del futuro. Motorola y Google también avanzan, apostando por pantallas más duraderas y bisagras sin pliegues visibles. Mientras tanto, los usuarios esperan mejoras en batería, peso y precio. Si el TriFold llega realmente a más países, el mercado de los plegables volverá a moverse con fuerza.La gran pregunta es: ¿será práctico para la vida diaria o un lujo para unos pocos? Samsung parece confiar más que nunca en su innovación. Según SamMobile y Notebookcheck, la expansión internacional del TriFold ya estaría confirmada, con Emiratos Árabes Unidos como primer país fuera de Asia. Después podrían sumarse Estados Unidos y Reino Unido.La decisión no solo muestra confianza, también marca un mensaje claro a sus rivales: Samsung sigue liderando la categoría que creó en 2019 con el primer Galaxy Fold. En 2024, la marca tenía el 32,9 % del mercado mundial de plegables, frente al 23 % de Huawei y el 17 % de Motorola. Pero Huawei tomó la delantera con su Mate XT y ahora Samsung necesita demostrar que su modelo de tres pliegues puede ofrecer una mejor experiencia. Si logra combinar potencia, durabilidad y utilidad, el TriFold podría redefinir lo que entendemos por teléfono y tableta. El dispositivo fue mostrado por primera vez en enero, durante la presentación del Galaxy S25. Desde entonces, se ha mantenido bajo secreto hasta ahora, cuando se acerca su presentación oficial en el foro APEC. Ese evento reúne a 21 economías del Asia–Pacífico y se centrará en salud digital y tecnologías inteligentes. Samsung aprovecharía esa vitrina internacional para presentar su nuevo plegable como un ejemplo de innovación tecnológica global.La competencia con Huawei, Motorola y hasta Google refleja una tendencia clara: los teléfonos se están convirtiendo en herramientas flexibles, capaces de pasar de bolsillo a escritorio sin perder potencia.Si el TriFold logra combinar tres pantallas, tres baterías y una cámara de 200 MP sin sacrificar la experiencia de uso, podríamos estar ante el nuevo estándar de los dispositivos móviles de gama alta.El futuro de los teléfonos no está en ser más grandes ni más pequeños, sino más versátiles. El Samsung Galaxy Z TriFold llega con promesa de globalización y un diseño que rompe las reglas.El mercado de los plegables entra en su fase más competitiva.Si te interesa la tecnología móvil y su futuro, escucha y comenta este episodio en Flash Diario. Samsung lanzará el Galaxy Z TriFold, su primer teléfono de tres pliegues.Ahora sí podría venderse en todo el mundo. 📚 BibliografíaTechRadarSamMobileNotebookcheckYonhap NewsAPEC 2025 KoreaConviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.📲 ¿Quieres ver más contenidos de ciencia y tecnología todos los días?Sígueme en Instagram: @ElSiglo21eshoy
Gemini en el trabajo: La nueva apuesta de Google para llevar la inteligencia artificial a cada escritorio Por Félix Riaño @LocutorCo Escuchar esta y otras historias del Flash Diario en Spotify. Google lanza Gemini Enterprise, una plataforma que busca transformar la forma en que las empresas usan la inteligencia artificial. Con precios desde 21 dólares al mes, promete un asistente personalizado para cada trabajador y una respuesta directa frente a Microsoft, OpenAI y Amazon. Google presentó Gemini Enterprise, su nueva plataforma de inteligencia artificial para empresas. La propuesta busca integrar todos los servicios de Google Cloud y Workspace en un solo punto de acceso: un chat empresarial donde cada persona puede crear y usar sus propios agentes de IA sin saber programar. La plataforma ya está activa en todos los países donde se venden los productos de Google Cloud y tiene clientes como Figma, Klarna, Macquarie Bank, Gordon Food Service, Virgin Voyages y Gap. Su precio empieza en 21 dólares por usuario para pequeñas empresas y 30 dólares en los planes corporativos. Gemini Enterprise es el paso más ambicioso de Google en inteligencia artificial aplicada al trabajo. No se trata de un complemento para Workspace, sino de una plataforma completa dentro de Google Cloud. Desde un solo chat, cualquier persona puede conectarse con sus datos en Google Workspace, Microsoft 365, Salesforce o SAP, y activar agentes inteligentes que responden, analizan y ejecutan tareas reales.El concepto de “agente” es clave: son pequeñas inteligencias diseñadas para hacer cosas específicas. Por ejemplo, redactar correos, analizar ventas, escribir código o resumir reuniones. Todo se coordina desde un entorno seguro con control centralizado, llamado Governance Framework, donde los responsables de TI pueden auditar y monitorear el comportamiento de cada agente.Thomas Kurian, CEO de Google Cloud, definió la plataforma como “la nueva puerta de entrada a la inteligencia artificial en el trabajo”. Y lo cierto es que el lanzamiento marca un cambio profundo: Google pasa de ofrecer herramientas dispersas, como Gemini para Gmail o Docs, a ofrecer una arquitectura completa de inteligencia artificial para toda la organización. Aquí es donde el panorama se vuelve interesante. La llegada de Gemini Enterprise no ocurre en el vacío, sino en medio de una batalla abierta entre los gigantes de la inteligencia artificial. Microsoft ya vende Copilot dentro de su suite 365. OpenAI tiene ChatGPT Enterprise, con más de cinco millones de usuarios empresariales. Y Amazon acaba de anunciar Quick Suite, su propio entorno de agentes.Cada una de estas plataformas busca convertirse en el “centro” del trabajo digital. Microsoft apuesta por su ecosistema cerrado, OpenAI por la potencia de su modelo, y Google por un enfoque abierto, conectado a más de 100 000 socios tecnológicos. El precio también forma parte de la estrategia: Gemini Enterprise cuesta 30 dólares mensuales por usuario, menos que el plan de Copilot, que ronda los 40 dólares.En este contexto, la competencia no es solo técnica: es por el control del flujo de trabajo. Si las empresas adoptan Gemini, sus datos y procesos quedarán dentro del ecosistema de Google Cloud, con integraciones directas en su infraestructura. Por eso, esta batalla por la IA en el trabajo no trata únicamente de quién tiene el modelo más avanzado, sino de quién logra convertirse en el lugar donde todo ocurre. Para Google, el reto está en convertir ese enfoque abierto en una ventaja real. Ya tiene aliados importantes. Virgin Voyages usa Gemini Enterprise para crear más de 50 agentes internos, incluido uno llamado Email Ellie, que aumentó un 28 % las ventas en julio y redujo el tiempo de producción de campañas en un 40 %. Macquarie Bank en Australia también adoptó la plataforma: el 99 % de sus empleados ya completó la capacitación en IA usando la herramienta Google Skills, y ahora desarrollan agentes que analizan documentos y mejoran la atención al cliente.Otro caso destacado es Gordon Food Service, con más de 12 000 empleados integrando Gemini Enterprise y Workspace. Sus equipos de ventas, marketing y recursos humanos ya usan agentes para automatizar informes, estudiar tendencias de consumo y crear contenidos internos. En todos los casos, el objetivo es el mismo: liberar tiempo humano para tareas creativas y estratégicas.Estos ejemplos muestran el verdadero propósito del proyecto: democratizar el uso de agentes de inteligencia artificial sin depender de programadores. Google quiere que cada trabajador tenga su propio “asistente empresarial”, entrenado con los datos de su organización y listo para colaborar en cualquier flujo de trabajo. El ecosistema de Gemini Enterprise incluye seis componentes:Los cerebros: los modelos Gemini más recientes, incluidos Gemini 2.5 Flash Image y Gemini 2.5 Pro.El taller: un entorno sin código llamado Workbench, donde se crean y coordinan agentes.La fuerza de tarea: una colección de agentes preinstalados para investigación, análisis de datos y programación.El contexto: conectores que enlazan la IA con herramientas empresariales como Jira, Teams, Box o Confluence.La gobernanza: un tablero de control con seguridad, permisos y auditorías.El ecosistema abierto: más de 100 000 socios que desarrollan y venden sus propios agentes compatibles.Además, Google lanzó el programa GEAR (Gemini Enterprise Agent Ready) para formar a un millón de desarrolladores y una nueva plataforma educativa llamada Google Skills, con tres mil cursos gratuitos sobre inteligencia artificial. En paralelo, grandes consultoras como Deloitte, PwC, Capgemini y Accenture ya integran Gemini Enterprise en sus servicios para clientes corporativos.La estrategia de Google busca combinar tecnología, formación y un mercado de agentes certificados. Cada empresa podrá comprar, vender o compartir agentes dentro del ecosistema, lo que abre paso a una nueva economía digital: la de los agentes de IA. Google está apostando fuerte con Gemini Enterprise, una plataforma diseñada para que la inteligencia artificial deje de ser un lujo y se convierta en una herramienta de trabajo cotidiana. Su enfoque abierto, su integración con sistemas de otras marcas y sus programas de aprendizaje apuntan a un futuro donde cada trabajador podrá diseñar su propio agente inteligente.Si te interesa cómo la IA está cambiando el mundo del trabajo, te invito a escuchar más historias como esta y seguir Flash Diario en Spotify. Google lanza Gemini Enterprise, su nueva IA para empresas, capaz de crear asistentes inteligentes que automatizan el trabajo en cualquier sector. 📚 Fuentes bibliográficasTechCrunchArtificial Intelligence NewsVentureBeatAxiosCNBCReutersGoogle Cloud BlogConviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.📲 ¿Quieres ver más contenidos de ciencia y tecnología todos los días?Sígueme en Instagram: @ElSiglo21eshoy
























💚WATCH>>ᗪOᗯᑎᒪOᗩᗪ>>👉https://co.fastmovies.org
🔴WATCH>>ᗪOᗯᑎᒪOᗩᗪ>>👉https://co.fastmovies.org