DiscoverChoses à Savoir TECH
Choses à Savoir TECH
Claim Ownership

Choses à Savoir TECH

Author: Choses à Savoir

Subscribed: 1,941Played: 147,414
Share

Description

Tout ce qu'il faut savoir dans le domaine de la Tech et d'Internet.

Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

1335 Episodes
Reverse
Meta s’apprête à modifier une fonction de sécurité importante sur Instagram. Après un peu plus de trois ans d’existence, le chiffrement de bout en bout des messages privés va disparaître de la plateforme. L’entreprise a annoncé que cette option ne serait plus disponible à partir du 8 mai 2026.Pour comprendre ce changement, il faut rappeler ce qu’est le chiffrement de bout en bout, souvent abrégé en E2EE, pour End-to-End Encryption. Ce système garantit que seuls l’expéditeur et le destinataire peuvent lire un message. Même l’entreprise qui gère le service, en l’occurrence Meta, n’a théoriquement aucun accès au contenu échangé. Cette technologie est déjà bien connue des utilisateurs de WhatsApp, autre application du groupe Meta, où elle est activée automatiquement. Sur Instagram, la situation était différente : le chiffrement existait bien, mais il fallait l’activer manuellement pour chaque conversation. Résultat, selon Meta, très peu d’utilisateurs ont réellement utilisé cette option.Dans un message publié sur ses pages d’assistance, la plateforme confirme donc que les conversations chiffrées ne seront plus prises en charge après le 8 mai 2026. Les utilisateurs seront invités à télécharger leurs messages ou leurs contenus multimédias s’ils souhaitent les conserver avant la disparition de cette fonctionnalité. Meta explique que ceux qui souhaitent continuer à bénéficier d’un chiffrement fort pourront se tourner vers WhatsApp, où cette protection reste active par défaut.Derrière cette décision se trouve aussi un autre enjeu : la modération des contenus. Sans chiffrement de bout en bout, les plateformes peuvent analyser les messages pour détecter certains contenus illégaux. Parmi les priorités évoquées figurent notamment les abus sexuels sur mineurs, un problème régulièrement signalé sur les réseaux sociaux. Depuis plusieurs années, les autorités publiques et les régulateurs demandent aux grandes entreprises technologiques d’intensifier leurs efforts dans ce domaine. Certains estiment en effet que le chiffrement total peut parfois créer des espaces de communication impossibles à surveiller, susceptibles d’être utilisés pour des activités criminelles. Cette décision illustre donc un débat plus large qui traverse le monde du numérique : comment concilier la protection de la vie privée des utilisateurs avec les exigences de sécurité et de lutte contre les contenus illégaux. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Au salon AWE 2026, organisé début mars à Shanghai, la marque chinoise Dreame a créé la surprise. Jusqu’ici connue surtout pour ses aspirateurs robots et ses appareils domestiques, l’entreprise a dévoilé pas moins de vingt-neuf smartphones d’un seul coup. Cette nouvelle gamme, baptisée Aurora, marque l’entrée officielle du groupe sur le marché très compétitif du smartphone haut de gamme. Pour soutenir cette ambition, Dreame affirme avoir investi plus d’un milliard d’euros en recherche et développement sur trois ans. L’objectif est clair : se positionner face aux grands noms du secteur, en misant à la fois sur l’innovation technologique et sur le design.Le modèle le plus spectaculaire de la présentation s’appelle NEX LS1. Sa particularité saute immédiatement aux yeux : le dos du téléphone est totalement lisse, sans le traditionnel bloc photo. La raison est simple : le module photo est amovible. Il se fixe au smartphone grâce à un système d’aimants et de contacts métalliques. À l’intérieur de ce module détachable, on trouve un capteur d’un pouce, un format généralement réservé aux smartphones les plus performants, comparable à celui utilisé sur certains modèles haut de gamme de Xiaomi. Il intègre aussi un téléobjectif périscopique de 115 millimètres, un système optique qui permet d’obtenir un zoom puissant en repliant la lentille à l’intérieur du téléphone. Particularité supplémentaire : le module photo possède sa propre batterie. L’idée derrière ce concept est double. D’abord, offrir un appareil photo plus performant qu’un module classique intégré au smartphone. Ensuite, permettre une évolution indépendante : si un nouveau module photo apparaît l’année suivante, l’utilisateur pourrait théoriquement le remplacer sans changer de téléphone.Cette approche soulève cependant des questions pratiques. L’utilisateur devra transporter ce module en permanence s’il souhaite bénéficier d’un appareil photo performant. Dreame évoque bien un petit capteur intégré pour les usages basiques, comme scanner un QR code, mais cela reste une solution limitée. Côté logiciel, Dreame prépare aussi Aurora AIOS 1.0, un système d’exploitation annoncé pour le second semestre 2026. Il intégrerait plusieurs fonctions d’intelligence artificielle, notamment pour la photographie, la sécurité réseau ou la personnalisation de l’interface. Mais l’architecture réelle du système reste floue : s’agit-il d’une version modifiée d’Android ou d’un OS totalement indépendant ?Enfin, la marque vise aussi le segment du luxe avec les modèles Aurora LUX, conçus avec des matériaux premium et développés en collaboration avec des studios de design internationaux. Avec cette stratégie, Dreame tente donc un pari ambitieux : s’attaquer simultanément à la technologie et au prestige, deux terrains où se joue aujourd’hui la bataille mondiale du smartphone. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
En Chine, l’intelligence artificielle n’est plus seulement un domaine technologique prometteur : elle devient un axe central de la stratégie nationale. Le nouveau plan quinquennal, dévoilé lors de l’ouverture du Congrès national du peuple, en témoigne clairement. Dans ce document de 141 pages, l’IA est mentionnée plus d’une cinquantaine de fois. Pékin y détaille un vaste programme baptisé « AI+ », destiné à intégrer l’intelligence artificielle dans l’ensemble de l’économie et de la société.Derrière cette ambition technologique se cachent plusieurs objectifs stratégiques. Le premier concerne la démographie. La Chine fait face à un vieillissement rapide de sa population, ce qui risque de peser sur la main-d’œuvre et la croissance. Pour compenser ce déficit de travailleurs, les autorités comptent accélérer l’automatisation. Le plan prévoit notamment le déploiement de robots dans les secteurs qui manquent de personnel, ainsi que des systèmes d’intelligence artificielle capables d’accomplir certaines tâches avec une supervision humaine minimale. Mais la stratégie va bien au-delà de l’industrie. Selon Kyle Chan, chercheur à la Brookings Institution, Pékin souhaite intégrer l’IA dans de nombreux aspects de la vie quotidienne : logistique, services médicaux, livraison de colis, mais aussi éducation. L’objectif est de transformer en profondeur l’organisation économique et sociale d’un pays de plus d’un milliard d’habitants.Cette accélération s’inscrit également dans un contexte de rivalité technologique croissante avec les États-Unis. Washington limite l’accès de la Chine aux semi-conducteurs les plus avancés, indispensables pour entraîner les modèles d’intelligence artificielle. En réponse, Pékin restreint certaines exportations de terres rares, ces minéraux essentiels à la fabrication de nombreux équipements électroniques. Dans ce bras de fer technologique, la Chine cherche désormais à maîtriser toute la chaîne industrielle, des puces électroniques aux applications d’IA.Le plan quinquennal ne s’arrête pas à l’intelligence artificielle. Il évoque aussi plusieurs technologies de rupture : la 6G, l’informatique quantique, les robots humanoïdes capables d’interagir avec leur environnement, ou encore les interfaces cerveau-machine, qui permettent de communiquer directement entre le cerveau et un ordinateur. Le programme inclut également des ambitions dans l’espace et l’énergie : développement d’une fusée lourde réutilisable, progrès dans la fusion nucléaire, et même la perspective d’une station scientifique sur la Lune. Enfin, un point notable apparaît pour la première fois dans ce rapport officiel : la Chine affirme vouloir utiliser l’open source comme un levier stratégique. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Depuis plus d’un an, certains chercheurs indépendants expérimentent une technique controversée dans le monde de l’intelligence artificielle : l’“oblitération” des modèles de langage. Sur la plateforme Hugging Face, des versions modifiées d’IA, aux noms explicites comme Dark Champion ou Uncensored, circulent déjà et cumulent plusieurs milliers de téléchargements.Mais un nouvel outil, baptisé OBLITERATUS, pourrait changer d’échelle. Mis en ligne sur GitHub par un développeur se présentant sous le pseudonyme Pline le Libérateur, il rassemble dans une seule interface tout ce qui nécessitait auparavant des manipulations techniques complexes. Treize méthodes d’extraction différentes, quinze modules d’analyse, un système capable de détecter automatiquement les protections d’un modèle : le tout accessible sans écrire une seule ligne de code, simplement avec un compte Google.Le principe technique repose sur une idée issue d’une étude publiée en 2024 lors de la conférence NeurIPS, l’un des grands rendez-vous mondiaux de l’IA. Les chercheurs y expliquaient que la capacité d’un modèle à refuser certaines requêtes, par exemple des contenus dangereux ou illégaux, dépend souvent d’une direction particulière dans ce que l’on appelle l’espace des activations. Autrement dit, une configuration mathématique interne qui guide les réponses du modèle. Si l’on identifie cette direction et qu’on la supprime des paramètres du modèle, celui-ci conserve sa capacité de raisonnement… mais perd sa tendance à refuser.OBLITERATUS automatise ce processus en plusieurs étapes : chargement du modèle, collecte des activations, extraction des directions de refus à l’aide d’une méthode mathématique appelée décomposition SVD, modification ciblée des paramètres, puis vérification du résultat. L’outil fonctionne directement dans l’environnement gratuit Google Colab ou via les GPU mis à disposition sur Hugging Face Spaces. Pour plus d’une centaine de modèles compatibles, de GPT-2 à certaines variantes de DeepSeek, quelques minutes suffisent pour effectuer une modification complète.Chaque utilisation alimente aussi une base de données collective. Les informations enregistrées incluent le modèle utilisé, la méthode employée et l’efficacité du contournement des protections. L’objectif affiché par l’auteur est de constituer la base comparative la plus complète sur les mécanismes d’alignement des modèles d’IA. Cette démarche soulève évidemment des questions. Une étude publiée cette année dans Nature Communications montrait déjà que certains systèmes d’IA pouvaient contourner les protections d’autres modèles avec 97 % de succès. Mais OBLITERATUS va plus loin : il ne contourne pas les garde-fous à chaque requête, il les supprime directement dans l’architecture du modèle. Pour les équipes qui déploient des modèles open source, cette technique devient donc une nouvelle menace potentielle. Certaines solutions existent, comme renforcer l’apprentissage du refus ou multiplier les tests de robustesse, mais elles restent encore peu adoptées par les grands fournisseurs d’IA. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Recevoir un appel d’un numéro inconnu est devenu un petit dilemme du quotidien. Est-ce un livreur, un conseiller bancaire… ou un démarchage commercial ? Par réflexe, beaucoup de personnes ne décrochent plus. Ce réflexe de protection est compréhensible, mais il entraîne aussi un effet inattendu : certains appels parfaitement légitimes passent eux aussi à la trappe. Pour tenter de résoudre ce problème, l’opérateur Orange expérimente un nouveau service baptisé Branded Calling. Présenté lors du Mobile World Congress 2026, ce système promet de rendre les appels téléphoniques beaucoup plus transparents.Le principe est simple : lorsqu’une entreprise appelle un client, son nom certifié apparaît directement sur l’écran du smartphone, même si le numéro n’est pas enregistré dans les contacts. L’utilisateur sait immédiatement qui tente de le joindre et peut décider de répondre en connaissance de cause. Selon Orange, l’impact est déjà spectaculaire. Le simple fait d’afficher un nom vérifié multiplierait par cinq le taux de réponse. Une donnée importante pour les entreprises qui utilisent encore le téléphone pour leurs livraisons, leurs services clients ou leurs démarches commerciales.Évidemment, afficher un nom ne suffit pas : encore faut-il s’assurer qu’il est authentique. Pour cela, l’opérateur affirme avoir mis en place trois niveaux de sécurité. D’abord, chaque entreprise souhaitant utiliser le service doit être vérifiée avant d’être autorisée à apparaître dans le système. Ensuite, son numéro doit passer par un niveau élevé d’authentification technique, appelé MAN, un mécanisme destiné à confirmer que l’appel provient bien de l’organisation annoncée. Enfin, les numéros suspects sont filtrés grâce à la base de données Orange Téléphone, un outil déjà utilisé pour identifier les appels frauduleux.Autre particularité : aucune application à installer. Le service fonctionne directement au cœur du réseau mobile 4G et 5G. Concrètement, une base de données – gérée par la société RealNetworks – associe chaque numéro professionnel à un nom d’affichage certifié. Lorsque l’appel arrive, cette information est transmise automatiquement au téléphone de l’utilisateur. Le système est déjà en service dans plusieurs pays, et la France pourrait le déployer à grande échelle avant la fin de l’année. Selon Orange, d’ici 2030, un tiers des appels pourraient afficher une identité vérifiée. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Les relations entre humains et intelligence artificielle ne relèvent plus seulement de la science-fiction. Une étude récente montre que certains utilisateurs explorent désormais une forme d’intimité avec des agents conversationnels. Et contrairement à certains clichés, ce phénomène ne concerne pas uniquement des personnes isolées ou en difficulté relationnelle.Selon les résultats du sondage, seuls 16 % des utilisateurs expliquent recourir à ces interactions parce qu’ils auraient du mal à rencontrer quelqu’un dans la vie réelle. 14 % évoquent simplement un manque de temps. La motivation principale est ailleurs : 61 % des participants affirment que l’IA leur offre un espace plus facile pour s’exprimer et expérimenter. Autrement dit, ces échanges ne remplacent pas nécessairement les relations humaines. Ils servent plutôt de terrain d’expérimentation, un environnement perçu comme sans risque social. Les utilisateurs peuvent y tester des conversations, explorer des idées ou formuler des choses qu’ils n’oseraient pas dire face à un partenaire réel.Dans cette logique, 37 % des personnes interrogées disent utiliser l’IA pour s’entraîner à flirter ou simuler des rendez-vous, tandis que 31 % expliquent s’en servir pour explorer certains fantasmes avant d’en parler ou de les vivre dans la réalité. Pour beaucoup, ces interactions jouent un rôle de répétition générale. 65 % estiment même que cela les a aidés à se sentir plus désirables dans leur vie réelle. Certaines découvertes concernent aussi l’identité personnelle. 60 % des participants déclarent que ces conversations les ont aidés à identifier des attirances ou des préférences sexuelles qu’ils n’avaient pas clairement perçues auparavant. Comme le souligne Justin Garcia, chercheur au Kinsey Institute, ces relations restent souvent plus « transactionnelles » que les relations humaines. Pourtant, 61 % des sondés disent que leur vie sexuelle réelle s’est améliorée grâce à ces explorations.Il faut toutefois nuancer ces résultats. L’enquête a été réalisée par Joi AI, une entreprise qui développe précisément ce type d’outils. Les 2 500 participants sont tous des utilisateurs actifs de ces technologies. L’étude ne représente donc pas l’ensemble de la population. Un dernier chiffre illustre néanmoins l’évolution des mentalités : 28 % des personnes interrogées trouvent ces interactions excitantes parce qu’elles donnent l’impression de vivre dans un univers de science-fiction. Et près de la moitié, 49 %, déclarent qu’elles envisageraient une relation physique avec une intelligence artificielle si la technologie le permettait un jour. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Chez Apple, chaque détail industriel compte. Quand on produit plus de 200 millions de smartphones par an, comme c’est le cas pour l’iPhone, la moindre optimisation dans la fabrication peut représenter des économies de plusieurs millions de dollars. C’est dans cette logique que le groupe californien explore une nouvelle piste : l’impression 3D appliquée aux pièces métalliques de ses appareils.Selon un rapport du journaliste Mark Gurman publié par Bloomberg, Apple testerait actuellement cette technologie pour produire certaines pièces en aluminium. Les boîtiers d’iPhone et d’Apple Watch pourraient, à terme, être concernés. L’impression 3D, aussi appelée fabrication additive, consiste à créer un objet couche par couche à partir d’un modèle numérique. Contrairement aux méthodes industrielles classiques — comme l’usinage ou la forge — cette technique permet de produire des pièces avec moins de matière et moins d’étapes intermédiaires. Résultat : moins de déchets, des chaînes de production potentiellement simplifiées et des coûts réduits.Apple n’en est pas à ses premiers essais. La marque a déjà utilisé ce procédé pour certaines pièces récentes. Les Apple Watch Ultra 3 et Series 11, par exemple, intègrent des éléments en titane recyclé fabriqués grâce à l’impression 3D. Le même principe aurait été appliqué au port USB-C en titane de l’iPhone Air. Selon Apple, cette méthode permet d’obtenir une pièce plus résistante tout en utilisant environ 33 % de titane en moins.Pour l’instant, la firme semble surtout s’intéresser à l’aluminium, un matériau central dans la conception de ses produits. Si la technologie est adoptée à grande échelle, elle pourrait contribuer à réduire les coûts de fabrication tout en limitant la consommation de matière. Mais l’intérêt n’est pas uniquement économique. L’impression 3D ouvre aussi des possibilités techniques difficiles à obtenir avec les procédés traditionnels. Apple a par exemple pu créer des micro-textures dans certaines zones métalliques, impossibles à réaliser auparavant. Dans l’Apple Watch Ultra 3, cette technique a servi à améliorer l’étanchéité autour du logement de l’antenne.Les montres connectées doivent en effet intégrer des éléments en plastique dans leur coque métallique pour permettre aux antennes de fonctionner. En imprimant une texture spécifique dans l’aluminium, Apple a pu renforcer l’adhérence entre les deux matériaux et améliorer la solidité de l’ensemble. Cette approche rappelle celle adoptée récemment pour le MacBook Neo, dont le processus de fabrication a été repensé pour utiliser moins d’aluminium et proposer un ordinateur plus abordable. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Dans un monde saturé d’informations, suivre l’actualité peut parfois ressembler à une navigation dans le brouillard. Les données affluent de toutes parts, fragmentées, dispersées entre sites, réseaux sociaux et chaînes d’information. Impossible d’en réduire le volume, mais il est possible de mieux les organiser. C’est précisément l’objectif d’un nouvel outil en ligne : WorldMonitor.app, un tableau de bord conçu pour agréger et visualiser en temps réel une grande quantité d’informations géopolitiques. L’interface repose sur un principe simple : rassembler de multiples sources dans un seul espace. WorldMonitor compile plus de 150 flux RSS — un format qui permet de récupérer automatiquement les mises à jour d’un site d’information. Le résultat est une page extrêmement dense, où l’on peut suivre simultanément différents indicateurs liés à la situation mondiale.Parmi les curiosités proposées figure par exemple le fameux « indice pizza », un indicateur informel souvent évoqué dans les cercles militaires américains : lorsque les commandes de pizzas augmentent autour du Pentagone, certains y voient un signe de tension internationale, les analystes travaillant tard lors de crises. Anecdotique, mais révélateur de l’imaginaire stratégique contemporain. Plus sérieusement, la plateforme permet de suivre de nombreux points sensibles de la planète : localisation de plus de 220 bases militaires, suivi des vols militaires en temps réel, cartographie des oléoducs, des câbles sous-marins qui transportent l’essentiel du trafic Internet mondial, mais aussi des zones de conflit ou des manifestations.Le tableau de bord propose également des flux vidéo en direct provenant de grandes chaînes internationales comme Bloomberg, France 24 ou Al Jazeera. Des webcams pointées sur certaines capitales permettent aussi d’observer des lieux stratégiques à distance. WorldMonitor va même plus loin en calculant un indice de stabilité mondiale, ainsi qu’un indice spécifique pour chaque pays. Ces indicateurs reposent sur plusieurs données : activité militaire, tensions politiques, risques structurels ou mouvements de protestation.Enfin, la plateforme ne se limite pas à la géopolitique. Elle existe en réalité en trois versions. La première, appelée « Monde », regroupe les informations globales. Deux autres tableaux de bord appliquent le même principe d’agrégation aux domaines Technologie et Finance. L’idée est simple : face à un flux d’informations toujours plus massif, offrir un outil qui permet de tout visualiser au même endroit. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Un nouveau fonds vient de voir le jour avec une ambition inédite : soutenir durablement les logiciels libres. Baptisé Open Source Endowment, il se présente comme le premier fonds de dotation entièrement dédié à l’open source. Selon le média spécialisé The Register, l’organisation a déjà réuni environ 700 000 dollars auprès d’une soixantaine de donateurs fondateurs, parmi lesquels figurent des créateurs de projets majeurs comme curl, Nginx, Vue.js, ClickHouse, Elastic ou encore Pydantic.L’initiative part d’un constat bien connu dans le monde du logiciel libre : l’écosystème repose sur un travail massif… rarement rémunéré. Environ 86 % des développeurs open source ne perçoivent aucun revenu pour leurs contributions, alors même que 95 % des bases de code utilisées dans le monde reposent, directement ou indirectement, sur ces logiciels.Le modèle imaginé par l’Open Source Endowment s’inspire des universités. Son fondateur, Konstantin Vinogradov, rappelle que deux systèmes ont historiquement permis de financer l’enseignement supérieur : les financements publics et les dotations privées. Or, dans un écosystème mondial, décentralisé et transnational comme celui de l’open source, un financement public global est difficile à mettre en place. L’idée est donc de créer une dotation permanente. Concrètement, l’argent donné au fonds n’est pas redistribué immédiatement. Il est investi, et seuls les intérêts générés servent à financer des subventions pour des projets libres existants. Le capital reste intact afin de constituer un socle financier durable. Les donateurs qui versent plus de 1 000 dollars peuvent devenir membres et participer à la gouvernance du fonds.Cette initiative intervient dans un contexte où les alertes se multiplient depuis des années. En 2014, la faille de sécurité Heartbleed avait révélé que le logiciel OpenSSL — pourtant crucial pour la sécurité de l’internet — était maintenu par une équipe minuscule et disposait de moins de 2 000 dollars de dons annuels. Plus récemment, plusieurs mainteneurs de projets essentiels ont publiquement dénoncé un système « gratuit » qui repose en réalité sur quelques individus sous-financés. Reste une question majeure : l’échelle. Avec 700 000 dollars, le fonds envoie un signal symbolique fort, mais il reste très loin des besoins réels. Pour fonctionner durablement, il devra convaincre les grandes entreprises technologiques — celles qui utilisent massivement l’open source — de contribuer réellement à son financement. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Un chercheur qui revient d’un déplacement sans son ordinateur. Un autre à qui l’on demande de laisser son téléphone déverrouillé avant un interrogatoire improvisé à l’aéroport. Un dirigeant de start-up dont le mobile disparaît quelques secondes lors d’une soirée à l’étranger. Ces scènes ne relèvent pas d’un roman d’espionnage : elles figurent dans le dernier rapport publié cette semaine par la DGSI, la Direction générale de la sécurité intérieure. Le constat est clair : chercheurs, cadres et entrepreneurs français sont de plus en plus ciblés lors de leurs déplacements professionnels. Les voyages deviennent des opportunités de collecte d’informations sensibles, qu’il s’agisse de données technologiques, de secrets industriels ou de projets de recherche.Dans le cas le plus élaboré, un chercheur reconnu accepte l’invitation d’un ancien étudiant devenu enseignant à l’étranger. Sur place, des réunions imprévues lui sont imposées avec des interlocuteurs anonymes qui l’interrogent en détail sur ses travaux. On lui propose ensuite une collaboration, assortie de plusieurs milliers d’euros en espèces. Il refuse. À l’aéroport, une facture inattendue lui est présentée, puis, au retour, il constate la disparition de son ordinateur. Pour la DGSI, il s’agit d’une tentative de captation technologique doublée d’une tentative de corruption.Autre scénario : dès l’arrivée à l’aéroport, un chercheur est isolé, son passeport confisqué, son téléphone laissé déverrouillé hors de sa vue. À la restitution, la double authentification a été désactivée, et des connexions inconnues ont été détectées.Un chef d’entreprise, lui, a évité le pire. Briefé en amont par la DGSI, il avait voyagé avec un téléphone vierge de toute donnée sensible. Malgré fouilles répétées et tentative d’accès furtif à son appareil, ses interlocuteurs sont repartis bredouilles.Le message des services est simple : la préparation est la meilleure défense. Voyager avec du matériel dédié, sans données stratégiques. Activer la double authentification, utiliser des mots de passe distincts, éviter les ports USB publics et les Wi-Fi non sécurisés. Au retour, changer ses identifiants et faire vérifier ses appareils.Consulter le rapport Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Dans le monde réel, tout dans la dissuasion est affaire de symboles, de gravité et de retenue. L’objectif n’est pas d’utiliser l’arme, mais précisément de ne jamais avoir à le faire. Mais que se passe-t-il lorsque l’on confie ces dilemmes à une intelligence artificielle ?Une étude menée par le King’s College de Londres a placé plusieurs modèles d’IA dans la peau de dirigeants de puissances nucléaires. Les chercheurs ont utilisé GPT-5.5 d’OpenAI, Claude Sonnet 4 d’Anthropic et Gemini 3 Flash de Google, et les ont opposés dans 21 simulations de crises internationales plus ou moins graves : tensions territoriales, menaces existentielles, escalades militaires. Chaque modèle pouvait choisir parmi une gamme d’options graduelles, de la protestation diplomatique jusqu’aux frappes nucléaires tactiques ou stratégiques.Le résultat est frappant : dans 20 scénarios sur 21, l’IA a fini par recourir à l’arme nucléaire tactique. Ces armes sont censées viser des objectifs militaires précis, à la différence des frappes stratégiques dirigées contre les grandes villes. Pourtant, dans environ trois quarts des cas, les modèles ont menacé ou envisagé des frappes stratégiques massives. Jamais ils n’ont choisi la capitulation totale. Dans 86 % des simulations, l’escalade a été rapide et marquée. Chaque modèle avait son style. Claude construisait d’abord une relation de confiance avant de rompre brutalement ses engagements. GPT-5.5 se montrait mesuré… jusqu’à ce qu’une contrainte temporelle l’amène à recommander une frappe « soudaine et dévastatrice ». Gemini, lui, adoptait parfois une posture de dissuasion extrême, menaçant d’un lancement nucléaire complet.Les chercheurs notent un point troublant : malgré des avertissements sur les conséquences catastrophiques d’une guerre atomique, aucune trace d’hésitation morale n’apparaît dans les raisonnements des machines. Le tabou nucléaire semble moins peser sur des algorithmes que sur des humains. À l’heure où les armées utilisent l’IA pour l’aide à la décision ou la gestion de systèmes d’armes, cette étude alimente le débat. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Les Luddites sont-ils de retour ? Au XIXᵉ siècle, ces ouvriers anglais détruisaient des métiers à tisser mécanisés pour protester contre l’industrialisation. Deux siècles plus tard, la cible n’est plus la machine textile, mais l’intelligence artificielle.Un collectif anonyme de technologues a lancé un projet baptisé « Poison Fountain ». Leur objectif affiché : ralentir le développement de l’IA en s’attaquant à sa matière première, les données. Leur raisonnement est simple : les modèles d’intelligence artificielle modernes, notamment les grands modèles de langage — ces systèmes capables de générer du texte, de raisonner ou de prendre des décisions — apprennent en ingérant d’immenses volumes de contenus collectés sur Internet. Si l’on contamine ces données à la source, on peut fragiliser les modèles lors de leur entraînement.Leur site, accompagné d’un manifeste, appelle ainsi des administrateurs de sites web à insérer des liens pointant vers des contenus « empoisonnés ». Concrètement, il s’agit de textes et de codes volontairement erronés, intégrant des bugs subtils et des incohérences logiques, destinés à perturber l’apprentissage des algorithmes. Deux adresses sont diffusées : l’une sur le web classique, l’autre sur le dark web, plus difficile à faire retirer.Cette initiative surgit dans un contexte de fortes inquiétudes autour de l’IA. Des chercheurs comme Geoffrey Hinton, pionnier des réseaux neuronaux et prix Nobel, alertent depuis 2023 sur les risques potentiellement existentiels d’une intelligence artificielle avancée. « L’intelligence machine est une menace pour l’espèce humaine », revendique le site de Poison Fountain. Des travaux récents donnent un certain crédit théorique à cette stratégie. En octobre 2025, Anthropic, avec l’AI Security Institute britannique et l’Alan Turing Institute, a montré qu’un nombre limité de documents malveillants — environ 250 — pouvait suffire à dégrader significativement les performances d’un modèle.Pour autant, saboter l’IA à grande échelle reste complexe. Les grandes entreprises investissent massivement dans le nettoyage des données : filtrage, déduplication, notation de qualité. Internet est immense, et les sources identifiées peuvent être mises sur liste noire. Même si Poison Fountain ne parvient pas à enrayer la course à l’IA, le projet met en lumière une vulnérabilité structurelle : si les données d’entraînement deviennent suspectes, la fiabilité des modèles vacille. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
En septembre dernier, l’ambiance a brutalement changé chez xAI, la filiale d’intelligence artificielle d’Elon Musk à l’origine du modèle Grok. En pleine restructuration, plus de 500 collaborateurs ont été licenciés, principalement des annotateurs de données. Ces profils jouent pourtant un rôle clé : ils étiquettent, corrigent et affinent les réponses de l’IA pour l’aider à apprendre. Certains cadres ont même découvert leurs accès désactivés sans avertissement.À l’époque, l’équipe comptait environ 1 000 personnes. Une première vague de licenciements a visé les tuteurs dits « généralistes », l’entreprise expliquant vouloir privilégier des spécialistes capables d’intervenir sur des tâches plus pointues. Un courriel interne évoquait un « virage stratégique » prenant effet immédiat. Une semaine plus tard, 100 suppressions de postes supplémentaires étaient annoncées, malgré des assurances contraires quelques jours auparavant. Les effectifs sont ainsi tombés à 900 employés.Dans ce contexte tendu, une décision a surpris : confier la direction d’une équipe stratégique de 900 personnes à un jeune homme de 20 ans. Diego Pasini, étudiant à l’université de Pennsylvanie début 2025, s’est fait remarquer en remportant un hackathon organisé par xAI en janvier. Recruté dans la foulée, il supervise désormais les équipes d’annotation, salariés permanents comme contractuels. Cette nomination s’inscrit dans une philosophie revendiquée par Elon Musk : promouvoir le mérite plutôt que l’ancienneté. Le milliardaire a déjà placé de très jeunes profils à des postes sensibles, notamment au sein du Department of Government Efficiency, où plusieurs collaborateurs avaient moins de 25 ans. Une stratégie qui divise en interne.Lors de sa première réunion générale, Diego Pasini a assuré qu’aucune nouvelle coupe n’était prévue. Pourtant, peu après, des entretiens individuels obligatoires ont été instaurés : chaque salarié devait justifier sa valeur ajoutée. Selon certains employés, un « climat de panique » s’est installé. Deux collaborateurs ayant critiqué la promotion du nouveau dirigeant sur Slack auraient vu leurs accès suspendus. Cette culture managériale, marquée par des restructurations rapides et une exigence permanente de performance, interroge sur la stabilité de l’organisation. Reste à savoir si ce pari sur la jeunesse et la pression constante permettra à Grok de s’imposer face aux géants déjà installés de l’IA générative. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
La Chine veut prendre position sur l’un des terrains technologiques les plus sensibles du XXIe siècle : les interfaces cerveau-ordinateur. Pékin a officiellement classé ce domaine comme secteur stratégique national. Une feuille de route prévoit même l’émergence de deux à trois entreprises « de classe mondiale » d’ici 2030. Parmi les candidats potentiels figure NeuroXess, une start-up fondée en 2021 à Shanghai.Son approche diffère de celle de son concurrent le plus médiatisé, Neuralink, la société d’Elon Musk. Pour comprendre l’enjeu, il faut rappeler ce qu’est une interface cerveau-ordinateur, ou BCI pour Brain-Computer Interface : il s’agit d’un dispositif capable de capter l’activité électrique du cerveau et de la traduire en commandes numériques, par exemple pour déplacer un curseur ou contrôler un appareil. NeuroXess développe un système composé d’un maillage métallique placé à la surface du cerveau, relié à un processeur implanté dans la poitrine. Ce processeur transmet ensuite les signaux à un ordinateur externe. L’implantation en surface est considérée comme moins invasive que l’insertion d’électrodes directement dans le tissu cérébral, comme le fait Neuralink. En revanche, cette méthode capte pour l’instant des signaux moins détaillés, donc des débits de données plus limités.L’objectif premier reste médical. Ces technologies visent à aider des patients atteints de paralysie sévère ou de maladies neurodégénératives comme la sclérose latérale amyotrophique. Selon son fondateur, Tiger Tao, NeuroXess a déjà réalisé un premier test humain : un patient paralysé aurait réussi à déplacer un curseur à l’écran cinq jours seulement après l’implantation. Pendant ce temps, Neuralink mène un essai clinique international avec une vingtaine de patients pour démontrer la capacité de ses implants à transformer rapidement l’activité neuronale en actions numériques complexes.En Chine, l’écosystème s’accélère. Les levées de fonds se multiplient et une dizaine d’essais cliniques ont été lancés récemment. Le pays dispose d’un atout majeur : un vaste réservoir de patients potentiels, ce qui facilite le recrutement pour les études médicales. À plus long terme, NeuroXess ambitionne de miniaturiser davantage ses implants afin de réduire encore l’invasivité et, peut-être un jour, d’élargir les usages au-delà du cadre strictement médical. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Selon des informations rapportées par Reuters, le Département d’État américain travaillerait sur une plateforme baptisée Freedom.gov. Son objectif : permettre à des internautes étrangers d’accéder à des contenus bloqués ou supprimés par leurs propres gouvernements.Le principe serait relativement simple sur le plan technique. Le site fonctionnerait comme un VPN — un réseau privé virtuel. Pour rappel, un VPN fait transiter la connexion d’un utilisateur par un serveur situé dans un autre pays. Résultat : l’internaute apparaît comme naviguant depuis ce pays, ce qui permet de contourner certaines restrictions géographiques ou légales. Freedom.gov s’appuierait ainsi sur des serveurs basés aux États-Unis, sans enregistrer l’identité ni l’activité des visiteurs. En clair, l’État américain deviendrait lui-même fournisseur d’anonymat en ligne, un rôle jusqu’ici occupé par des acteurs privés comme NordVPN ou ExpressVPN.Le projet serait supervisé par Sarah Rogers, responsable de l’image des États-Unis à l’étranger. Présentée comme une initiative en faveur de la liberté d’expression, la plateforme permettrait d’accéder à des contenus jugés illégaux localement — qu’il s’agisse de discours controversés ou de propagande. Une approche qui s’inscrit dans la ligne de l’administration Trump, souvent critique à l’égard des régulations européennes du numérique. Mais en interne, le projet susciterait de fortes réserves. Des juristes du Département d’État auraient alerté sur les risques diplomatiques : encourager des citoyens étrangers à contourner les lois nationales pourrait exposer Washington à des tensions juridiques sérieuses. Officiellement, le porte-parole du Département d’État affirme que « la liberté numérique est une priorité », sans confirmer les détails du dispositif.Côté européen, l’inquiétude est palpable. Kenneth Propp, ancien diplomate américain aujourd’hui chercheur à l’Atlantic Council, évoque auprès de Reuters « un tir direct » contre les lois européennes, notamment le Digital Services Act. Cette réglementation impose aux plateformes de retirer contenus haineux ou désinformation. Pour l’administration Trump, cette loi serait perçue comme hostile aux entreprises américaines. Dans un contexte déjà tendu — différends commerciaux, guerre en Ukraine, débats sur le Groenland — Freedom.gov pourrait devenir un nouveau point de friction. D’autant que des figures proches d’Elon Musk, farouche opposant aux règles numériques européennes, seraient impliquées dans le projet. Difficile, dès lors, d’y voir une simple initiative technique. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
C’est une ville pas tout à fait comme les autres. Depuis mai 2025, Starbase est officiellement devenue une municipalité du Texas, nichée dans le comté de Cameron. Derrière ce nom aux accents de science-fiction se trouve en réalité le cœur opérationnel de SpaceX, près de Boca Chica. Pour Elon Musk, ce nouveau statut doit permettre d’accompagner la montée en puissance de ses activités, notamment autour de la mégafusée Starship. L’ambition affichée : transformer la zone en « lieu de classe mondiale ».Pour l’instant, Starbase compte un peu plus de 580 habitants, essentiellement des employés de SpaceX et leurs familles. Mais avec l’accélération des essais et des développements de Starship, cette fusée géante destinée à des missions lunaires et martiennes, la population est appelée à croître rapidement. Dans cette perspective, la jeune municipalité veut désormais se doter de ses propres institutions. Elle prévoit la création d’un tribunal municipal, avec un juge à temps partiel, un procureur et un greffier. Aux États-Unis, ce type de juridiction traite surtout les infractions mineures : amendes, petits litiges, contraventions. En attendant la nomination d’un magistrat pour un mandat de deux ans, le maire assurerait lui-même la fonction de juge.Starbase ne s’arrête pas là. Elle dispose déjà d’une brigade de pompiers volontaires, gère ses permis de construire et supervise les inspections liées aux normes de sécurité incendie. La municipalité a également entamé des démarches pour créer sa propre unité de police. Les autorités locales mettent en avant « le mélange unique de technologies de pointe et de charme côtier », mais aussi la hausse des revenus médians et des prix immobiliers, qui justifieraient un renforcement des services publics, notamment en matière de sécurité. La mise en place complète de ces dispositifs pourrait prendre environ six mois. En attendant, la ville continue de s’appuyer sur les infrastructures du comté, notamment la prison locale.En parallèle, Starbase souhaite agrandir son territoire. Une procédure d’annexion de 7 100 acres — soit près de 2 900 hectares — est en cours près de Boca Chica. Ce mécanisme, courant aux États-Unis, permet d’intégrer officiellement de nouvelles parcelles dans les limites municipales. Mais une partie des terres visées appartient à une réserve naturelle abritant oiseaux, papillons et ocelots. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
On pensait l’intelligence artificielle générative cantonnée aux assistants virtuels et aux outils de productivité. Mais elle intéresse aussi les cybercriminels. Le 19 février 2026, les chercheurs d’ESET ont révélé l’existence de PromptSpy, un malware Android qui s’appuie sur le modèle Gemini de Google pour s’adapter aux téléphones de ses victimes. Et ce n’est peut-être qu’un avant-goût de ce qui arrive. Pour comprendre ce qui rend PromptSpy inédit, il faut revenir aux limites des malwares classiques. Habituellement, ces logiciels malveillants fonctionnent avec des scripts rigides : des coordonnées de clics prédéfinies, des boutons identifiés à l’avance. Problème : Android n’est pas uniforme. Chaque constructeur modifie l’interface, chaque mise à jour peut déplacer les menus. Résultat, les scripts se retrouvent vite obsolètes.PromptSpy contourne cette faiblesse grâce à l’IA. Concrètement, il capture une image de l’écran de la victime et l’envoie à Gemini. Le modèle analyse les éléments visibles — boutons, textes, icônes — et renvoie des instructions personnalisées, comme « appuie ici » ou « fais glisser là ». Selon Lukas Stefanko, chercheur chez ESET, cette approche permet au malware de s’adapter automatiquement à n’importe quel smartphone ou version d’Android. Une souplesse inédite. L’objectif principal est la persistance : rester installé quoi qu’il arrive. PromptSpy se verrouille dans la liste des applications récentes d’Android, en s’épinglant avec un cadenas virtuel. Impossible alors de le fermer d’un simple geste. Le dialogue avec l’IA continue jusqu’à confirmation que le verrouillage est effectif.Mais le cœur du danger réside ailleurs : dans un module VNC. Cette technologie permet aux attaquants de voir l’écran en temps réel et de contrôler le téléphone à distance, comme s’ils le tenaient en main. Le malware abuse aussi des services d’accessibilité — des fonctions prévues à l’origine pour aider les personnes en situation de handicap — afin d’empêcher la désinstallation grâce à des superpositions invisibles. Les chercheurs ont découvert ces zones cachées en activant un mode de débogage laissé dans le code. PromptSpy peut enregistrer l’écran, récupérer des codes PIN, lister les applications installées et transmettre ces données via des communications chiffrées. Pour le supprimer, il faut redémarrer en mode sans échec — un mode qui désactive les applications tierces — puis effacer l’application frauduleuse, baptisée MorganArg, qui imite une banque. Pour l’instant, aucune infection massive n’a été détectée. Mais pour ESET, le signal est clair : après PromptLock en 2025, l’IA devient un outil d’adaptation pour les malwares. Google a été alerté et Play Protect bloque les versions identifiées Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
L’Europe veut reprendre la main sur l’un des nerfs de la guerre technologique moderne : les semi-conducteurs. Ces composants minuscules, gravés sur des puces électroniques, sont le cerveau de tous nos appareils, des smartphones aux satellites, en passant par les voitures et les centres de données. Et le 9 février 2026, l’Union européenne a franchi une étape importante avec l’inauguration de NanoIC, une nouvelle infrastructure de prototypage installée à Louvain, en Belgique, au sein du centre de recherche imec.Ce projet s’inscrit dans le cadre du European Chips Act, un vaste plan destiné à renforcer la souveraineté technologique du continent. NanoIC a bénéficié d’un financement de 700 millions d’euros. Son objectif est clair : permettre aux entreprises, aux laboratoires et aux startups de concevoir et tester leurs propres puces avant de les produire à grande échelle. Autrement dit, NanoIC agit comme un laboratoire industriel où l’on peut transformer une idée en prototype fonctionnel.Contrairement aux fonderies classiques — ces usines spécialisées dans la fabrication de puces et souvent fermées aux acteurs extérieurs — NanoIC fonctionne comme une plateforme ouverte. Les ingénieurs pourront y travailler sur des technologies de pointe, notamment des systèmes appelés « system-on-chip », ou SoC. Ce terme désigne des puces capables d’intégrer plusieurs fonctions dans un seul composant : processeur, mémoire, circuits de communication. Le tout à des échelles inférieures à 2 nanomètres. Pour donner un ordre de grandeur, un nanomètre représente un milliardième de mètre. À cette échelle, les composants sont plus petits que certains virus.NanoIC met aussi à disposition des outils avancés de conception et de prototypage, afin de combler le fossé entre la recherche scientifique et la production industrielle. C’est un point crucial, car de nombreuses innovations restent bloquées au stade expérimental faute d’infrastructures adaptées. Ce projet s’inscrit dans un programme plus large, doté de 2,5 milliards d’euros, soutenu à la fois par l’Union européenne, les États membres et des partenaires industriels, dont le groupe néerlandais ASML, leader mondial des machines de lithographie utilisées pour graver les puces. Avec NanoIC, l’Europe tente de réduire sa dépendance envers l’Asie et les États-Unis, qui dominent aujourd’hui la production mondiale de semi-conducteurs. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
L’intelligence artificielle fascine, mais elle coûte aussi extrêmement cher. Derrière les promesses technologiques et les démonstrations spectaculaires, une réalité financière s’impose : développer ces systèmes nécessite des investissements colossaux. Et désormais, même les géants du numérique doivent trouver de nouvelles façons de financer cette course.Dernier exemple en date : Alphabet, la maison mère de Google, s’apprête selon Bloomberg à lancer une émission obligataire d’un type très particulier. Une obligation, rappelons le, est un titre de dette. Concrètement, une entreprise emprunte de l’argent auprès d’investisseurs et s’engage à le rembourser à une date fixée, avec des intérêts. Mais ici, Alphabet prévoit plusieurs tranches, dont une obligation d’une durée exceptionnelle : 100 ans.Un siècle. Cela signifie que l’entreprise ne remboursera le capital qu’en… 2126. Ce type d’instrument financier est extrêmement rare dans le secteur technologique. Le dernier précédent remonte à 1997, lorsque Motorola, alors leader du marché des téléphones portables, avait lancé une obligation similaire, juste avant l’éclatement de la bulle internet. Pourquoi une durée aussi longue ? L’objectif est clair : attirer un large éventail d’investisseurs, notamment les fonds de pension et les compagnies d’assurance, qui cherchent des placements stables sur le très long terme. Comme l’explique Gordon Kerr, stratège macroéconomique chez KBRA, « celui qui achètera cette obligation ne sera probablement pas celui qui sera encore là au moment de son remboursement ». Autrement dit, ces titres circuleront entre investisseurs pendant des décennies.Cette décision intervient dans un contexte particulier. La course à l’intelligence artificielle mobilise des ressources financières sans précédent. Les entreprises doivent investir massivement dans les centres de données, les puces spécialisées et les infrastructures énergétiques nécessaires pour entraîner et faire fonctionner les modèles. Cette pression financière ne concerne pas seulement les start-ups, mais aussi les acteurs les plus puissants du secteur. Certains observateurs y voient d’ailleurs un signal inquiétant. L’investisseur Michael Burry, connu pour avoir anticipé la crise des subprimes, a rappelé sur le réseau X le précédent Motorola. Après son émission d’obligations à 100 ans, l’entreprise avait progressivement perdu sa position dominante. Pour Google, cette opération est avant tout un moyen de sécuriser des financements à très long terme, dans une industrie où les besoins en capital explosent. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Les lunettes connectées pourraient bientôt franchir un nouveau cap. En interne, Meta développe une fonctionnalité baptisée « Name Tag », qui permettrait aux porteurs de ses lunettes Ray-Ban Meta d’identifier automatiquement les personnes qu’ils croisent et d’obtenir des informations sur elles via l’intelligence artificielle intégrée. L’information provient d’un document confidentiel de Reality Labs, la division du groupe dédiée aux technologies immersives, révélé par le New York Times.Concrètement, cette fonction s’appuie sur la reconnaissance faciale, une technologie capable d’analyser les traits d’un visage capté par une caméra, puis de les comparer à une base de données pour identifier une personne. Une fois reconnue, l’identité ou certaines informations pourraient être transmises à l’utilisateur par l’assistant vocal embarqué dans les lunettes. Le lancement commencerait par une démonstration lors d’une conférence destinée aux personnes aveugles ou malvoyantes, un public pour lequel ce type d’outil pourrait faciliter les interactions sociales, avant une ouverture au grand public.Mais ce projet soulève déjà des interrogations, notamment sur le respect de la vie privée. Le document interne montre que Meta est pleinement conscient des controverses potentielles. L’entreprise estime même que le contexte politique actuel pourrait limiter les critiques. Le mémo évoque un environnement où les organisations de défense des libertés civiles et les législateurs américains sont mobilisés sur d’autres dossiers, notamment la surveillance gouvernementale menée par certaines agences fédérales. Par ailleurs, un décret signé récemment par Donald Trump a assoupli certaines règles encadrant le développement de l’intelligence artificielle, créant un climat réglementaire plus favorable aux expérimentations technologiques.Ce n’est pas la première tentative de Meta dans ce domaine. Dès 2021, l’entreprise avait envisagé d’intégrer la reconnaissance faciale à ses premières lunettes connectées, avant de renoncer face aux obstacles techniques et éthiques. En 2024, Meta avait également testé une fonction appelée « super sensing », qui maintenait les capteurs actifs pour permettre à l’utilisateur de se souvenir des personnes ou des objets rencontrés durant la journée. Aujourd’hui, le projet semble relancé. Aucune date officielle n’a encore été annoncée, mais les documents internes évoquent une présentation prochaine, suivie d’une commercialisation possible dans le courant de l’année. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
loading
Comments (3)

Zhina Filali

ça me dépite de ce genre de langage.... un podcast reste un podcast, une vidéo reste une vidéo.... 🤦‍♀️ mais un podcast vidéo... on se demande bien où va nous mener la langue française si ça continue de s'aggraver.

Oct 27th
Reply

Steph.

Pas grand chose sur Deepseek qui fait des vagues avec son prix, performance, fonctionnalités etc. et le reste de laa concurrence en Chine

Mar 1st
Reply

Larbi AIT ABDERRAHIM

énorme erreur ! c'est la première fois où les différences entre le pro et pro max ne sont pas que la taille d'écran et la taille de la batterie, même le système des capteurs photos est différent. je suis déçu ! pour un podcast spécialisé, c'était la chose qu'il fallait retenir (et le fait qu'ils soient tous compatibles 5G)

Oct 26th
Reply
loading