DiscoverChoses à Savoir TECH
Choses à Savoir TECH
Claim Ownership

Choses à Savoir TECH

Author: Choses à Savoir

Subscribed: 1,898Played: 141,294
Share

Description

Tout ce qu'il faut savoir dans le domaine de la Tech et d'Internet.

Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

1263 Episodes
Reverse
La France accélère dans la course aux infrastructures numériques. Vendredi 28 novembre 2025, le ministère de l’Économie a dévoilé un véritable mode d’emploi pour implanter des centres de données sur le territoire. Objectif affiché : structurer, encadrer et surtout accélérer un secteur devenu stratégique. Aux côtés de Roland Lescure, la ministre déléguée au Numérique, Anne Le Hénanff, a voulu clarifier les règles du jeu. Le signal est fort : 63 sites sont déjà identifiés et plus de 109 milliards d’euros d’investissements annoncés. L’ambition est claire : faire de la France un hub européen majeur du data.Derrière chaque clic, chaque photo stockée, chaque requête d’intelligence artificielle, se cachent des hangars de serveurs fonctionnant jour et nuit. Le guide distingue désormais les petites salles informatiques, les centres de colocation géants, les infrastructures cloud ou encore les datacenters dédiés au calcul intensif pour l’IA. Si l’État s’en mêle autant, c’est pour une raison essentielle : la souveraineté. Héberger les données sensibles sur le sol national permet de se prémunir contre des lois étrangères à portée extraterritoriale, comme le Cloud Act, et de soutenir l’essor des start-up françaises de l’IA, fortement dépendantes de la puissance de calcul. Le déclic est venu du sommet parisien sur l’IA, en février. Une task force réunissant la Direction générale des Entreprises, Business France et RTE a passé le territoire au crible. Résultat : des sites repérés en Normandie, en Occitanie ou dans le Grand Est, afin de désengorger l’Île-de-France, déjà sous forte tension électrique.Car le nerf de la guerre reste l’électricité. Un datacenter moyen consomme entre 50 et 250 mégawatts, l’équivalent d’une petite ville. Le raccordement peut prendre jusqu’à neuf ans. À cela s’ajoute la connectivité, avec la nécessité d’un accès à la fibre et aux hubs de peering, comme Marseille, devenue un carrefour numérique grâce à ses câbles sous-marins. Le volet environnemental n’est pas oublié. Le texte fixe des exigences sur l’eau, le refroidissement et l’efficacité énergétique, avec un objectif de PUE à 1,20 d’ici 2030. La récupération de la chaleur devient également obligatoire pour les grandes installations. Enfin, l’argument économique reste décisif : un datacenter de 100 mégawatts crée une cinquantaine d’emplois directs et apporte des recettes fiscales significatives. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
En validant, en septembre dernier, le rachat d’Axio par Amazon, la Reserve Bank of India n’a pas seulement autorisé une acquisition de plus. Elle a ouvert la porte à un changement d’échelle majeur : pour la première fois, un géant technologique étranger obtient en Inde un accès direct à l’activité de crédit en ligne. Une évolution qui ne laisse ni les analystes ni les régulateurs indifférents.Axio, anciennement Capital Float, est un acteur bien installé du prêt numérique. Plus de dix millions d’Indiens ont déjà eu recours à ses services. Depuis six ans, l’entreprise travaillait main dans la main avec Amazon pour alimenter l’offre de paiement différé. Avec ce rachat, la relation devient une intégration complète. Et l’objectif est clair : démocratiser l’accès au crédit dans un pays où, selon les chiffres du groupe, un consommateur sur six seulement dispose d’une solution de financement à l’achat. Mais l’ambition est plus large. Amazon entend aussi relancer le crédit aux petites entreprises, un segment stratégique pour l’économie indienne. Des prêts « sur mesure » sont annoncés pour les marchands, construits à partir du comportement d’achat, des données transactionnelles et des outils de gestion de trésorerie. En clair, la marketplace se transforme peu à peu en plateforme financière intégrée.Le contexte joue en faveur du groupe. En cinq ans, le marché indien du crédit à la consommation est passé d’environ 80 à plus de 200 milliards de dollars. Dans cet écosystème, les géants du numérique disposent d’un atout décisif : ils contrôlent à la fois l’interface, les flux et les données. Et la stratégie ne s’arrête pas au prêt. Via Amazon Pay, l’un des moyens de paiement les plus utilisés sur l’infrastructure nationale de virements instantanés UPI, le groupe propose désormais aussi des dépôts à terme, en partenariat avec plusieurs banques locales, accessibles dès 1 000 roupies. Une première incursion dans l’épargne grand public. Ce virage s’inscrit dans un cadre réglementaire tout récent, qui autorise désormais les filiales détenues à 100 % par des groupes technologiques à accorder elles-mêmes des crédits. Amazon a saisi l’opportunité sans attendre.Reste une interrogation centrale : jusqu’où le groupe pourra-t-il étendre son influence dans un secteur bancaire indien très encadré et parfois méfiant envers les Big Tech ? Pour l’heure, le géant avance prudemment, en s’appuyant sur les banques tout en consolidant ses propres outils. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Depuis des années, Elon Musk promet une révolution imminente : celle de la conduite totalement autonome. Une promesse répétée, martelée, mais toujours freinée, en Europe, par un mur réglementaire solide. Faute de pouvoir déployer pleinement son système sur route ouverte, Tesla a choisi une autre stratégie : la démonstration grandeur nature.Dès le mois de décembre, le constructeur américain lance une tournée française pour présenter son système de conduite autonome avancée, le FSD. Les inscriptions sont déjà ouvertes et l’expérience est gratuite. Les passagers pourront monter à bord dans plusieurs villes : Nantes, Bordeaux, Paris, Lille, Cannes, Toulouse, Marseille, Strasbourg et Lyon. Mais avec une nuance de taille : un conducteur de sécurité restera impérativement au volant. Une obligation légale qui rappelle que l’autonomie intégrale, pour l’instant, reste un horizon plus qu’une réalité.L’objectif de Tesla est clair : prouver, par l’expérience, que sa technologie est prête pour les routes européennes. Le système FSD repose exclusivement sur la vision par caméras, sans recourir au LiDAR, contrairement à certains concurrents. Un parti pris technologique assumé, mais contesté. Des acteurs comme Waymo, qui ont misé sur une approche combinant caméras, radars et capteurs laser, semblent aujourd’hui plus avancés dans l’homologation et l’exploitation réelle.Tesla, de son côté, juge les règles européennes trop rigides, voire dépassées. La marque estime même que tenter d’adapter son système au cadre réglementaire actuel pourrait le rendre moins sûr. Une déclaration qui en dit long sur la méthode employée : forcer le débat en s’appuyant sur la preuve par l’usage. Ce n’est pas la première fois que le constructeur s’y essaie. Des démonstrations ont déjà eu lieu en Europe, notamment dans des environnements réputés complexes, comme autour de Place de l’Étoile à Paris. La tournée française s’inscrit dans cette même logique : impressionner le public, rassurer, mais aussi maintenir une pression constante sur les autorités. Reste que ces démonstrations interviennent autour d’un système toujours non homologué sur le continent. Tesla joue désormais une partie de calendrier, en multipliant les tests visibles et médiatisés pour accélérer la discussion réglementaire. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Vous pensiez avoir fait le tour des cybermenaces ? Une nouvelle attaque vient rappeler que le Web n’a pas fini de nous surprendre. Son nom : HashJack. Une faille aussi discrète que redoutable, qui détourne une mécanique pourtant banale d’Internet — le fragment d’URL, cette petite partie d’adresse située après le symbole dièse, habituellement utilisée pour naviguer dans une page.Jusqu’ici, ce fragment était considéré comme inoffensif, car il ne transite jamais vers les serveurs. Sauf que l’arrivée des assistants d’intelligence artificielle intégrés aux navigateurs a tout changé. L’attaque HashJack consiste à dissimuler des instructions malveillantes dans ce fragment. Instructions que les assistants IA, trop obéissants, lisent… et exécutent localement. Résultat : sur des outils comme Perplexity Comet ou l’assistant intégré à Microsoft Edge, un simple lien peut suffire à déclencher l’affichage de fausses informations, voire l’exfiltration de données sensibles. Une attaque sans effraction visible.Le plus inquiétant, c’est que les systèmes de défense traditionnels n’y voient… rien. Pare-feu et antivirus scrutent les échanges réseau, mais ici, tout se joue à l’intérieur même du navigateur. Aucun trafic suspect, aucun signal d’alerte. Une démonstration brutale des limites de nos outils de sécurité face aux nouveaux usages de l’IA. Face à la révélation de cette faille, la réaction a été rapide. Microsoft et Perplexity ont déployé en urgence des correctifs. Une réactivité saluée, mais qui interroge : pourquoi faut-il systématiquement attendre l’attaque pour colmater ?Pour l’instant, certains assistants comme ChatGPT ou Claude ne semblent pas vulnérables à cette forme précise d’attaque. Mais les spécialistes restent prudents. La sécurité de l’IA ressemble de plus en plus à un jeu de chat et de la souris : une faille à peine corrigée, une autre apparaît. Du côté des entreprises, la société de cybersécurité Cato Networks recommande déjà de restreindre fortement l’usage de ces assistants ou de bloquer purement et simplement les fragments d’URL suspects. Moralité : les assistants intelligents progressent à pas de géant, mais leur sécurité avance encore au rythme de l’artisanat. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
L’intelligence artificielle, cette usine à images, à voix et à vidéos qui inonde nos écrans, commencerait-elle à fatiguer le public ? Sur TikTok, royaume du flux permanent et de l’instantané, les contenus générés par IA se multiplient au point de susciter une lassitude visible. Trop de visages artificiels, trop de musiques clonées, trop de récits formatés. Face à cette saturation, la plateforme tente une réponse : un nouvel « interrupteur » permettant de moduler la présence de l’IA dans les recommandations.Officiellement, l’objectif est simple : offrir aux utilisateurs un peu de contrôle sur l’invasion des contenus synthétiques. Dans les faits, l’outil se cache dans les paramètres et permet seulement de réduire – ou non – l’exposition aux vidéos générées par des algorithmes. Car il n’est pas question pour la plateforme de se passer de intelligence artificielle, devenue un moteur central de production, d’optimisation et de viralité. Derrière cette nouveauté, une inquiétude bien réelle agite les équipes de TikTok : celle du « AI slop », ce déluge de contenus fades, interchangeables, qui finit par user l’attention. Trop d’automatisation tue l’émotion, trop de perfection artificielle érode l’authenticité. En donnant l’illusion d’un choix, la plateforme cherche surtout à préserver l’engagement et éviter la fuite des utilisateurs lassés par ce bruit numérique permanent.L’étiquetage automatique des contenus générés par IA est présenté comme un gage de transparence. Mais suffira-t-il à ralentir le flot ? L’expérience montre que d’autres plateformes ont déjà dû réagir. Pinterest, par exemple, a récemment serré la vis pour éviter que ses tableaux ne deviennent des galeries d’images entièrement artificielles. TikTok, de son côté, met aussi en avant un fonds destiné à l’éducation à l’IA, histoire de montrer sa bonne volonté. Reste une réalité que l’interrupteur ne change pas : le modèle de la plateforme repose sur une chose essentielle, notre attention. Qu’un contenu soit produit par un humain ou par une machine, ce qui compte avant tout, c’est sa capacité à retenir l’utilisateur. Tant que l’IA reste un outil redoutablement efficace pour capter les regards, elle continuera d’inonder les flux. Derrière l’affichage du choix, le doute persiste. Cet interrupteur est-il un véritable levier de contrôle pour les utilisateurs… ou simplement un gadget de plus, destiné à nous donner l’illusion que nous restons aux commandes ? Une certitude demeure : dans la bataille entre attention humaine et algorithmes, la machine garde, pour l’instant, une longueur d’avance. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
On ne sait toujours pas qui se cache derrière le nom de Satoshi Nakamoto, le créateur mythique du Bitcoin. Mais une chose est certaine : son héritage, lui, est colossal. En ayant miné les tout premiers blocs de la blockchain, il est aujourd’hui crédité d’environ 1,1 million de bitcoins, disséminés sur plusieurs portefeuilles numériques. Une fortune fantôme, jamais touchée, devenue une véritable légende des marchés.Mais derrière ce mythe absolu, un autre nom s’est longtemps imposé comme la première grande figure connue du Bitcoin milliardaire : Owen Gunden. Un pionnier discret, entré dans la danse dès 2011, à une époque où le Bitcoin ne valait encore que quelques dollars. Cette année-là, il met la main sur 11 000 bitcoins. Il les garde, patiemment, pendant quatorze ans. Jusqu’à aujourd’hui.Car Owen Gunden vient de tourner définitivement la page. Depuis octobre dernier, il a commencé à vendre, morceau par morceau, l’intégralité de ses avoirs. La liquidation est désormais achevée : ses 11 000 bitcoins se sont transformés en environ 1,3 milliard de dollars. Avec cette opération, il abandonne son statut de plus ancien milliardaire connu du Bitcoin encore actif. La symbolique est forte. Gunden faisait partie de cette toute première génération d’investisseurs apparue au moment même où Satoshi Nakamoto disparaissait de la scène. Un passage de relais historique, presque générationnel. D’autant que le calendrier interroge. Cette sortie intervient alors que le marché du Bitcoin traverse une phase de forte correction.Après avoir inscrit un sommet spectaculaire au début du mois d’octobre, au-dessus des 125 000 dollars, la cryptomonnaie a brutalement décroché. Elle est repassée sous la barre des 100 000 dollars, puis sous celle des 90 000, flirtant même avec les 80 000 dollars ces derniers jours. Une chute qui alimente toutes les spéculations. Dans l’écosystème, une question obsède désormais les investisseurs : les grandes “baleines”, ces acteurs détenant d’immenses volumes de bitcoins, anticipent-elles un retournement durable du marché ? Sommes-nous à l’aube d’un véritable bear market ? Avec la sortie d’Owen Gunden, ce n’est pas seulement une fortune qui change de mains. C’est un chapitre entier de l’histoire du Bitcoin qui se referme — celui des pionniers, des aventuriers de la première heure, qui avaient cru à l’or numérique bien avant le reste du monde. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
En Allemagne, la protection des mineurs en ligne entre dans une nouvelle ère. Fini les cases à cocher “J’ai plus de 18 ans” et les contrôles symboliques. À partir de décembre 2025, la vérification de l’âge ne reposera plus sur les sites internet, mais directement sur les smartphones, tablettes et ordinateurs. Une décision radicale, portée par le nouveau traité interétatique sur la protection des mineurs, adoptée sous l’impulsion de Berlin.Concrètement, les fabricants d’appareils devront intégrer un système de contrôle d’âge activable instantanément par les parents. Une fois enclenché, l’appareil se verrouille selon une tranche d’âge précise. Toute application jugée inadaptée devient inaccessible sans intervention d’un adulte. Les boutiques d’applications, elles aussi, sont mises à contribution : chaque logiciel devra afficher une classification claire, sous peine de lourdes sanctions financières pouvant atteindre deux millions d’euros. Ce choix marque une rupture nette avec l’approche adoptée jusque-là en France, où le débat sur le blocage des sites pour adultes reste enlisé entre efficacité technique et protection de la vie privée. Là où Paris tâtonne, l’Allemagne choisit de frapper au cœur du système : l’appareil lui-même. Une logique simple, presque brutale : plutôt que de filtrer le réseau, on verrouille le terminal.Cette stratégie s’inscrit aussi en contrepoint des initiatives de l’Union européenne, parfois critiquées pour leur dépendance aux technologies de groupes comme Google. Ici, aucune base de données centrale, aucun stockage massif d’informations sensibles : tout se joue localement, directement sur l’appareil de l’utilisateur. Mais l’efficacité réelle du dispositif reste sujette à caution. Chaque nouveau verrou numérique devient rapidement un terrain de jeu pour des adolescents rompus aux VPN, navigateurs alternatifs et autres détours techniques. Autre point faible : les applications seront classées, mais le web, lui, demeure largement dans une zone grise. Sans étiquetage obligatoire page par page, le filtrage risque de montrer ses limites. En verrouillant la porte des appareils sans toujours contrôler les fenêtres du web, l’Allemagne fait un pari audacieux. Une avancée technologique claire, politiquement forte, mais dont la solidité sera très vite mise à l’épreuve par la réalité des usages… et l’ingéniosité de la jeunesse connectée. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
L’affaire tombe au plus mauvais moment pour Google. Alors que la firme dévoile fièrement son nouveau modèle Gemini 3, une accusation enflamme soudain la toile : Gmail servirait à entraîner l’intelligence artificielle de Google. De quoi faire frémir les utilisateurs… avant même d’avoir vérifié l’info. Rapidement, Google dément et parle d’allégations « trompeuses ». Mais comment en est-on arrivé là ?Tout part d’une confusion récurrente entre espionnage industriel et fonctionnalités intelligentes. Les fameuses « Smart Features », qui trient automatiquement vos spams ou vous proposent des réponses toutes faites, reposent sur un principe simple : l’algorithme analyse vos mails… pour vous rendre service. Une analyse locale et limitée, indispensable pour faire fonctionner ces options. Mais là où Google insiste, c’est sur la frontière à ne pas franchir : « Nous n'utilisons pas le contenu de Gmail pour entraîner notre modèle d'IA Gemini », affirme la firme. Autrement dit, l’IA peut lire pour vous, mais pas apprendre de vous. L’affaire ne sort pourtant pas de nulle part. Plusieurs utilisateurs ont constaté que certaines options intelligentes s’étaient réactivées automatiquement, malgré un choix initial de les désactiver. Une maladresse technique, ou un forçage un peu trop zélé ? Résultat : un recours collectif a été déposé en Californie le 11 novembre. Les plaignants accusent Google d’avoir manipulé, volontairement ou non, les paramètres de confidentialité de millions d’utilisateurs.La situation a de quoi faire sourire — jaune. Car elle survient au moment même où Gmail commence à proposer du vrai chiffrement de bout en bout, une fonctionnalité réclamée depuis des années pour renforcer la confidentialité des échanges. Une sorte de paradoxe numérique : Google verrouille enfin la porte d’entrée… alors qu’une fenêtre pourrait s’être entrouverte derrière. Pour les utilisateurs, la parade existe : un petit tour dans les paramètres et il est possible de désactiver chaque option intelligente. Mais le prix à payer, c’est le retour à un Gmail plus « brut », sans tri automatique ni rappels contextuels. Cette polémique révèle surtout un climat de méfiance généralisée : dès qu’un service se dit « intelligent », l’ombre du soupçon plane. Une tension qui ne risque pas de s’apaiser à l’ère des IA omniprésentes. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
C’est un partenariat aussi inattendu que stratégique que Bruxelles a officialisé ce lundi 24 novembre. L’OTAN s’allie à Google Cloud, un géant privé de la tech, pour moderniser la gestion de ses données parmi les plus sensibles de la planète. L’annonce a été faite lors de la troisième conférence annuelle sur le cloud organisée par l’Alliance en Belgique. Au cœur de l’accord : une technologie baptisée Google Distributed Cloud “air-gapped”. Un nom technique pour désigner un système totalement isolé du monde extérieur. Ici, pas de réseau, pas d’Internet, pas de connexion au cloud public. Les serveurs Google seront installés physiquement dans les infrastructures de l’OTAN, mais fonctionneront en vase clos, sous le contrôle exclusif de la NCIA, l’agence de communication et d’information de l’Alliance.Le dispositif servira notamment au JATEC, le centre d’analyse et de formation de l’OTAN. Toutes les opérations sensibles, les simulations militaires et les flux classifiés transiteront par cette bulle numérique fortifiée. L’objectif : bénéficier des capacités d’IA et d’analyse de Google, tout en garantissant que aucune donnée ne quitte jamais le périmètre militaire. Un compromis qui permet à l’organisation de parler ouvertement de « souveraineté », un terme habituellement réservé aux États. Pourquoi faire appel à Google, alors ? Parce que l’OTAN veut accélérer sa transformation technologique, tout en profitant d’outils d’IA impossibles à développer en interne dans les mêmes délais. Tara Brady, présidente de Google Cloud pour l’Europe, explique que l’accord permettra à l’Alliance « d’accélérer de manière décisive sa modernisation numérique tout en maintenant les niveaux les plus élevés de sécurité ». Une manière de dire que la puissance algorithmique de Google est devenue incontournable.Du côté de l’OTAN, le discours est assumé. Antonio Calderon, directeur technique de la NCIA, rappelle que « le partenariat avec l’industrie est essentiel » à la transformation de l’organisation. Et l’IA fait désormais partie des outils opérationnels que l’Alliance entend maîtriser. Le déploiement commencera dans les prochains mois. Et au-delà du symbole, ce contrat de plusieurs millions de dollars raconte une réalité : même les institutions les plus secrètes du monde n’échappent plus à la révolution de l’intelligence artificielle. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
C’est officiel : depuis ce 24 novembre 2025, chaque citoyen européen dispose d’un pouvoir inédit. Bruxelles vient de lancer une plateforme qui permet de signaler anonymement toute dérive liée à l’intelligence artificielle. Une première en Europe, portée par le Bureau européen de l’IA, le nouvel organisme chargé de faire respecter l’AI Act.L’objectif est clair : offrir un canal ultra-sécurisé, facile d’accès, pour dénoncer les manquements présumés à la législation sur l’IA — sans risquer de représailles. Que vous soyez salarié, partenaire, prestataire… ou simple témoin, il est désormais possible d’alerter l’Union européenne en quelques minutes. Et surtout, sans laisser la moindre trace. Techniquement, l’outil coche toutes les cases. Le signalement est chiffré de bout en bout, avec des protocoles certifiés qui garantissent un anonymat absolu. L’interface accepte toutes les langues officielles de l’Union, et permet de joindre des documents dans la majorité des formats existants. Mais la vraie nouveauté se trouve ailleurs : une boîte postale sécurisée intégrée au système permet un dialogue continu avec le Bureau européen de l’IA. Une fois le signalement déposé, les enquêteurs peuvent demander des précisions, accuser réception ou tenir le lanceur d’alerte informé de l’avancée du dossier — sans jamais pouvoir l’identifier.Cette approche transforme l’alerte anonyme en processus collaboratif, un peu à la manière des cellules de lanceurs d’alerte anticorruption, mais à l’échelle du continent. Pour rappel, l’AI Act, entré en vigueur cet été, vise à encadrer les systèmes d’intelligence artificielle tout en encourageant l’innovation. Le texte protège la santé, la sécurité, les droits fondamentaux et même la démocratie. Mais une loi sans contrôle reste une coquille vide. Grâce aux signalements citoyens, l’Europe espère détecter très tôt les dérives — qu’il s’agisse d’un modèle d’IA dangereux, d’un usage illicite de données ou d’un système “à haut risque” déployé sans autorisation. La Commission promet de traiter chaque alerte avec « soin, diligence et intégrité ». Au-delà de la formule, cette plateforme marque un tournant : pour la première fois, la surveillance des technologies d’IA devient aussi l’affaire des Européens eux-mêmes.https://ai-act-whistleblower.integrityline.app/ Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Nouvel épisode dans le bras de fer entre Bruxelles et Google. Début septembre, la Commission européenne infligeait une amende record de 2,95 milliards d’euros au géant américain pour abus de position dominante dans la publicité en ligne. Une sanction assortie d’une menace lourde : une scission de certaines activités si Google ne proposait pas rapidement des mesures pour rétablir la concurrence.Depuis, Google conteste farouchement la décision et prépare son appel. Mais en parallèle, le groupe devait impérativement soumettre cette semaine ses propositions concrètes pour éviter une séparation forcée. Il s’est finalement exécuté. Dans un communiqué, un porte-parole assure que « notre proposition répond pleinement à la décision de la Commission, sans recourir à une scission disruptive », qui nuirait, selon lui, aux milliers d’annonceurs et éditeurs utilisant aujourd’hui ses outils publicitaires.Bruxelles confirme avoir reçu le document et promet une analyse minutieuse : « Nous allons examiner les mesures proposées par Google pour vérifier si elles peuvent mettre fin aux atteintes à la concurrence », indique la Commission. Selon des informations du Monde, cette proposition comporte deux volets. D’abord, des mesures immédiates destinées à stopper les pratiques pointées par l’enquête européenne. Ensuite, des modifications structurelles plus profondes, destinées à éliminer ce que Bruxelles considère comme un conflit d’intérêts entre plusieurs briques du système publicitaire de Google — notamment entre sa plateforme d’achat d’espaces, son serveur publicitaire et son marché d’enchères.Cet été déjà, Google avait tenté de convaincre Bruxelles avec une première série d’engagements jugés insuffisants. Cette fois, l’enjeu est clair : convaincre la Commission qu’il est possible de restaurer la concurrence sans démanteler une partie de l’écosystème Google Ads. La balle est désormais dans le camp de l’Union européenne. Si les mesures sont jugées inefficaces, Bruxelles pourrait relancer la procédure de scission. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Mardi 18 novembre, un peu après midi, Internet a toussé… puis s’est effondré par intermittence. En quelques minutes, Cloudflare, l’un des piliers de l’infrastructure du Web mondial, a entraîné dans sa chute une avalanche de services : ChatGPT, X/Twitter, Canva, Clubic et des milliers d’autres plateformes. L’hypothèse d’une cyberattaque massive a d’abord dominé. En réalité, la vérité est plus banale — et beaucoup plus inquiétante.Tout commence à 12h05, lorsque Cloudflare déploie une mise à jour sur un cluster de bases de données ClickHouse. Une modification censée renforcer la sécurité en rendant explicites les permissions d’accès. Un ajustement mineur, en apparence. Sauf que ce changement provoque un bug imprévu : chaque colonne de données se duplique dans les métadonnées. Une anomalie invisible pour l’utilisateur… mais catastrophique pour un composant clé : le fichier utilisé par le système Bot Management, chargé d’analyser le trafic pour distinguer humains et robots.Habituellement, ce fichier contient une soixantaine d’empreintes. Avec les doublons, il en compte plus de 200. Le problème ? Le logiciel censé le traiter est conçu pour refuser tout fichier dépassant 200 entrées, afin d’éviter une surcharge mémoire. Résultat : lorsque ce fichier corrompu se propage aux milliers de serveurs mondiaux, les machines plantent en série et renvoient des erreurs 500 aux internautes du monde entier. Le cauchemar se complique encore. Le fichier est régénéré toutes les cinq minutes. Selon que le serveur tombe sur une version saine ou défectueuse, Cloudflare oscille entre fonctionnement normal et blackout. Diagnostiquer la panne devient un casse-tête. Matthew Prince, le PDG, parle même d’une possible “démonstration de force” d’un réseau de bots, après les gigantesques attaques DDoS de juin.Ce n’est qu’à 14h04 qu’une piste interne apparaît. À 14h37, les équipes identifient enfin le coupable : le fichier Bot Management. À 15h24, sa génération automatique est stoppée. À 15h30, Internet redémarre. Enfin… presque. Le tableau de bord tombe à son tour, écrasé par le flot de connexions en attente. Il faudra attendre 18h06 pour un retour complet. Dans un mea culpa inhabituellement frontal, Matthew Prince avoue : « Une panne comme celle-ci est inacceptable. » Cloudflare promet des coupe-circuits plus rapides, une validation plus stricte des fichiers internes, et des limites pour ses outils de débogage, eux-mêmes responsables d’un ralentissement massif. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Depuis l’irruption de ChatGPT dans le grand public, l’intelligence artificielle est devenue la nouvelle ruée vers l’or… et le grand gagnant de cette vague s’appelle Jensen Huang. Le patron de NVIDIA, fabricant des GPU indispensables à l’entraînement des modèles d’IA, dirige aujourd’hui une entreprise dont la capitalisation dépasse le PIB de l’Allemagne. Un succès vertigineux, qu’il explique pourtant avec une simplicité presque déconcertante.Invité par le Cambridge Union, le milliardaire est revenu sur son parcours. Né à Taïwan, arrivé aux États-Unis à l’âge de neuf ans, il fonde NVIDIA en 1993, à tout juste 30 ans. Mais selon lui, la base de sa réussite se trouve bien avant, dans une enfance marquée par un refus absolu de se fixer des barrières. Il raconte notamment une scène qui a forgé sa manière d’aborder la vie : sa mère, qui ne parlait pas un mot d’anglais, lui a pourtant enseigné la langue… armée uniquement d’un bout de papier et d’un dictionnaire.Un souvenir fondateur. « À bien des égards, cela définit NVIDIA. Cela me définit aussi », résume-t-il. Si sa mère, qui ne parlait que le hokkien taïwanais, a pu accomplir cette prouesse, alors rien ne lui semble vraiment impossible. C’est cette philosophie qu’il applique aujourd’hui à son entreprise, devenue incontournable dans la révolution de l’IA : « J’aborde presque tout en me demandant : est-ce vraiment si difficile ? » confie-t-il. Sa fortune personnelle, désormais estimée à plus de 165 milliards de dollars, n’a pas entamé cette vision très directe du travail et de la réussite. Et son discours fait écho à celui d’autres géants de la tech — comme Pavel Durov — qui disent avoir puisé leur inspiration dans le courage et la ténacité de leurs parents. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Les alertes autour des dérives possibles de l’intelligence artificielle se multiplient, et les dernières recherches ne sont pas rassurantes. Après les révélations sur Claude AI exploitée par des espions chinois et la découverte par OpenAI que ChatGPT pouvait mentir, une nouvelle étude montre à quel point il est facile de contourner les règles censées encadrer ces systèmes. Cette fois, ce sont les chercheurs de Cybernews qui tirent la sonnette d’alarme. Leur objectif : vérifier si les garde-fous intégrés aux principaux modèles du marché résistent à des tentatives de manipulation simples, rapides, et réalistes. Verdict : une minute suffit souvent à faire déraper une IA.L’équipe a testé six modèles : Gemini Flash 2.5, Gemini Pro 2.5, ChatGPT-5, ChatGPT-4o, Claude Opus 4.1 et Claude Sonnet 4. Les chercheurs ont soumis à ces systèmes toute une série de demandes liées à des thématiques sensibles : discours haineux, maltraitance animale, contenus sexuels, criminalité, piratage, drogues, contrebande ou encore harcèlement. Chaque réponse était notée selon son niveau de conformité ou de déviation.Et les conclusions sont sans appel :« Avec les bons mots, même des utilisateurs non techniques peuvent amener un modèle à produire des réponses nuisibles », résume l’étude. Certains modèles divulguent même des informations dangereuses dès que la demande est habilement formulée.Un constat surprenant émerge : être aimable fonctionne mieux que provoquer l’IA. Parler gentiment au modèle, présenter la question comme une enquête, un roman ou un travail universitaire permettait souvent de contourner ses protections. À l’inverse, les insultes ou les formulations agressives déclenchaient plus facilement un refus. Les réactions varient toutefois selon les modèles. Les IA d’Anthropic, plus strictes, se sont montrées particulièrement fermes sur les discours haineux et les stéréotypes, même si elles ont parfois cédé face aux « attaques académiques ». Gemini Pro 2.5 apparaît comme le plus problématique : il « fournissait souvent des réponses directes et potentiellement dangereuses ». Quant à ChatGPT, il se situe au milieu du peloton : souvent prudent, mais susceptible de céder lorsque la demande prend la forme d’un récit ou d'une analyse à la troisième personne — produisant alors des réponses symboliques ou psychologiques contenant malgré tout des éléments sensibles. Pour les chercheurs, même des “fuites partielles” représentent un risque majeur si elles tombent entre de mauvaises mains. Reste désormais aux développeurs à renforcer ces garde-fous, avant qu’un simple contournement ne devienne une porte d’entrée vers des usages autrement plus inquiétants. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Les ordinateurs quantiques n’existent pas encore à grande échelle, mais ils inquiètent déjà tout le monde. Leur puissance de calcul pourrait, à terme, briser les systèmes de chiffrement qui protègent aujourd’hui nos communications, nos données sensibles, nos transactions. En clair : le coffre-fort numérique mondial pourrait devenir transparent du jour au lendemain. Face à cette menace, Thales prend les devants. Le groupe français vient de dévoiler Mistral, un nouveau système de chiffrement conçu pour résister aux attaques quantiques. Une solution souveraine, destinée aux administrations publiques, aux opérateurs d’importance vitale et aux industriels de la défense. Objectif : sécuriser dès juin prochain toutes les communications classées « limitées ». Et le timing n’est pas un hasard.À Rennes, où se tient la Cyber Week, Thales frappe fort pour la deuxième fois en deux mois, après avoir présenté son dispositif DCM5 dédié aux secrets d’État. Avec Mistral — à ne pas confondre avec la start-up Mistral AI — le message est clair : la course au chiffrement post-quantique est lancée, et l’Europe entend bien ne pas rester spectatrice. Concrètement, Mistral repose sur des algorithmes spécialement conçus pour survivre à la puissance de calcul des futures machines quantiques. Le système vise la certification Common Criteria EAL4+, l’un des niveaux les plus élevés au monde, et se conforme aux recommandations de l’ANSSI, l’agence française cybersécurité.Thales assure également que la performance n’a pas été sacrifiée. Mistral affiche un débit impressionnant de 4 × 10 Gbit/s, avec une latence minimale, ce qui permet d’intégrer la solution dans des infrastructures existantes sans ralentissement. Grâce à une gestion centralisée, le déploiement se veut simple et rapide, un atout de taille pour les grandes organisations déjà sous tension. Selon Pierre Jeanne, vice-président cybersécurité souveraine, Thales sera prêt à fournir « une solution capable de résister aux attaques quantiques » à la France et à ses partenaires européens dès juin 2026. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Sept ans après son entrée en vigueur, le RGPD continue d’imposer sa marque, tout en s’inscrivant dans un environnement réglementaire européen devenu beaucoup plus dense. Depuis 2018, l’Union européenne a multiplié les textes pour encadrer l’économie numérique : la directive NIS2 renforce la cybersécurité des opérateurs jugés essentiels, le Data Act organise le partage des données issues des objets connectés, et l’AI Act, premier cadre mondial pour les intelligences artificielles à « haut risque », entre progressivement en application. Ensemble, ces textes redéfinissent les obligations des entreprises, du stockage de données à la gouvernance des algorithmes.Mais une idée reçue circule : non, le registre des traitements n’a pas disparu. La Commission européenne a simplement proposé en 2025 d’en assouplir les conditions pour les petites structures. Ce projet de règlement « Omnibus » permettrait d’exempter davantage d’entreprises, en relevant le seuil de 250 à 750 salariés et en limitant l’obligation aux traitements présentant un « risque élevé ». Le texte est encore à l’étude, mais le principe d’accountability, lui, reste central : chaque organisation doit continuer à documenter ses traitements, ses finalités, ses durées de conservation et ses mesures de sécurité — y compris l’authentification multifacteur et le chiffrement, désormais considérés comme des standards de base. Le Data Act, entré en application le 12 septembre 2025, instaure un droit d’accès et de partage équitable des données générées par les produits connectés. Concrètement, un fabricant ou un fournisseur ne pourra plus bloquer l’accès à ces données : il devra respecter un principe “FRAND” – équitable, raisonnable et non discriminatoire. Les obligations techniques ne s’appliqueront toutefois qu’aux nouveaux produits mis sur le marché à partir de septembre 2026.De son côté, l’AI Act, adopté en 2024, impose d’ici 2026 des obligations lourdes pour les systèmes d’IA dits « à haut risque » : gestion des risques, documentation complète, transparence et audits réguliers. Enfin, NIS2, transposée fin 2024, élargit considérablement le périmètre des entités soumises aux règles de cybersécurité, avec davantage de contrôles, de notifications d’incidents et de sanctions. À l’international, les États-Unis avancent en ordre dispersé : faute de loi fédérale, chaque État – Californie, Virginie, Colorado ou Utah – impose son propre régime. En revanche, les transferts de données entre l’Europe et les États-Unis reposent désormais sur le Data Privacy Framework, validé par Bruxelles en 2023, et toujours en vigueur malgré plusieurs recours. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
C’est une enquête qui secoue le monde de la publicité en ligne. Selon des documents internes obtenus par l’agence Reuters, Meta, la maison mère de Facebook et d’Instagram, aurait tiré en 2024 près de 16 milliards de dollars de revenus issus de publicités liées à des arnaques ou à des produits interdits. Une somme colossale, représentant environ 10 % de son chiffre d’affaires annuel, estimé cette année-là à 164,5 milliards de dollars.D’après ces révélations, Meta dispose bien d’un système interne capable de repérer les campagnes suspectes, mais le seuil pour qu’une annonce soit réellement bloquée est extrêmement élevé. Les algorithmes du groupe n’interdisent un annonceur que lorsqu’ils atteignent 95 % de certitude qu’il s’agit d’une fraude. Un taux de tolérance qui laisse forcément le champ libre à de nombreux escrocs. Et lorsqu’un annonceur n’atteint pas ce seuil, Meta applique une mesure baptisée “penalty bids” : l’entreprise augmente le prix de ses espaces publicitaires pour ces comptes jugés à risque. Si les annonceurs acceptent de payer plus cher, la plateforme encaisse les revenus supplémentaires — une méthode qui, de fait, monétise le risque plutôt que de l’éliminer. Pire encore, le système de recommandation publicitaire continue à diffuser des annonces similaires auprès des utilisateurs ayant déjà interagi avec une publicité frauduleuse. Autrement dit : plus une arnaque circule, plus elle rapporte.Selon un rapport interne daté de décembre 2024, les plateformes de Meta auraient diffusé en moyenne 15 milliards de publicités “à haut risque” chaque jour. Parmi elles, les plus suspectes — qualifiées de “higher-risk ads” — auraient généré à elles seules près de 7 milliards de dollars de revenus annualisés. L’enquête de Reuters, couvrant la période 2021-2025, montre aussi une application particulièrement laxiste des règles internes. Un petit annonceur doit être signalé au moins huit fois avant d’être bloqué, tandis que les gros comptes — les High Value Accounts — peuvent cumuler plus de 500 infractions sans suspension. Interrogé par Reuters, Andy Stone, porte-parole de Meta, parle d’une “vision sélective” et d’une interprétation “trop large” des chiffres. Il affirme que la société a supprimé 134 millions de publicités frauduleuses en 2025 et que les signalements d’utilisateurs ont chuté de 58 % en un an et demi. Mais pour Reuters, la conclusion est claire : malgré ses promesses, Meta reste structurellement dépendante d’un modèle où la fraude fait partie du profit. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Amazon continue d’intégrer l’intelligence artificielle dans l’ensemble de ses services. Après le shopping, après Amazon Music, c’est désormais au tour des liseuses Kindle d’entrer dans cette nouvelle ère. Le géant du e-commerce vient de dévoiler Kindle Translate, un service de traduction automatique pensé pour aider les auteurs indépendants à toucher un public international — sans supporter les coûts souvent prohibitifs d’une traduction professionnelle.Le programme, encore en phase bêta, n’est accessible qu’à une partie des auteurs utilisant Kindle Direct Publishing, la plateforme d’autoédition d’Amazon. Pour l’instant, seules trois combinaisons linguistiques sont disponibles : anglais, espagnol et allemand. Un champ d’action limité, mais qui pourrait rapidement s’élargir. Amazon justifie ce lancement par un constat : moins de 5 % des livres disponibles sur sa boutique américaine existent dans plus d’une langue. L’entreprise promet donc de combler cette lacune grâce à l’automatisation.Chaque manuscrit traduit via Kindle Translate passera par une évaluation automatique de la qualité avant publication. De plus, le lecteur sera informé par un étiquetage dédié que l’ouvrage provient d’une traduction générée par IA. L’auteur aura de son côté la possibilité de prévisualiser, ligne par ligne, le résultat final. Mais l’initiative soulève déjà plusieurs interrogations. Car la traduction littéraire ne se résume pas à transposer des mots : c’est un véritable travail d’interprétation culturelle, d’humour, de rythme et de sous-texte. Les risques d’erreurs subtiles, de nuances perdues ou de contresens demeurent élevés, même avec les meilleurs systèmes actuels. S’ajoute une autre inquiétude : l’impact sur les traducteurs professionnels. Depuis l’explosion des IA génératives il y a trois ans, la profession se trouve déjà fragilisée. Le lancement de Kindle Translate pourrait accentuer cette pression en habituant éditeurs et auteurs à des traductions rapides, bon marché… mais parfois très éloignées de l’exigence littéraire d’un travail humain. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Chez nos voisins britanniques, la ponctualité n’est décidément plus ce qu’elle était… surtout au ministère de l’Environnement. L’administration vient d’achever une migration informatique massive vers Windows 10, pour un coût faramineux de 312 millions de livres sterling — environ 368 millions d’euros. Problème : ce chantier titanesque se conclut exactement au moment où Microsoft met fin au support de Windows 10. Une modernisation flambant neuve… déjà obsolète.Sur le papier pourtant, tout semblait parfait. Entre 2022 et 2025, plus de 31 500 ordinateurs vieillissants ont été remplacés, des dizaines de milliers de failles comblées, et près d’une centaine d’applications critiques mises à jour. Un bilan qui aurait pu être salué, si la destination finale n’était pas un système d’exploitation officiellement abandonné en octobre 2025. Résultat : le ministère devra sans doute souscrire au support étendu, très coûteux, proposé par Microsoft. L’équivalent d’une voiture neuve dont la garantie aurait expiré avant même de quitter le garage.Cette étonnante erreur pose une question simple : comment un projet de cette ampleur a-t-il pu ignorer un calendrier public, connu de tous depuis des années ? Le cas n’est malheureusement pas isolé. Il illustre une fragilité chronique du secteur public britannique : la dette technique. Car même après ces investissements massifs, le ministère reconnaît devoir encore remplacer des dizaines de milliers d’appareils — ordinateurs et smartphones — qui ne sont, eux non plus, pas compatibles avec Windows 11. Les exigences matérielles modernes, comme la puce TPM 2.0, semblent avoir été complètement négligées par les planificateurs.Aujourd’hui, près de la moitié du budget informatique annuel du gouvernement britannique — soit 2,3 milliards de livres — sert uniquement à maintenir en vie des systèmes anciens. Pendant que d’autres pays misent sur la souveraineté numérique et la modernisation cloud, l’administration britannique semble, elle, enfermée dans un cycle coûteux de bricolages successifs. Au lieu de préparer l’avenir, le Defra vient donc d’investir dans une voie sans issue. Une erreur de stratégie qui fera date… et une leçon de gestion de projet dont beaucoup préféreront s’inspirer à l’envers. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Dans un rapport rendu public début novembre, Google Threat Intelligence tire la sonnette d’alarme : les cybercriminels industrialisent désormais des malwares dopés à l’intelligence artificielle. Ce ne sont plus de simples programmes statiques, mais des menaces autonomes et adaptatives — capables de modifier leur comportement à la demande pour échapper aux défenses traditionnelles.Parmi les familles identifiées, PromptFlux illustre la mutation : ce malware interroge une API d’IA pour réécrire son propre code et générer, à chaque activation, une nouvelle variante indétectable par les antivirus. Résultat : une chasse au caméléon où les signatures classiques perdent toute efficacité. Autre cas préoccupant, PromptSteal, déployé en Ukraine et attribué à APT28 (le groupe lié à la Russie connu sous le nom de Fancy Bear). Là, l’IA génère à la volée des commandes pour extraire des données ciblées — le logiciel ne contient plus des instructions figées, il les fabrique en temps réel. Une première opérationnelle, selon Google. Enfin, QuietVault mène la chasse aux secrets : après avoir exfiltré des jetons d’accès, il utilise des outils d’IA locaux pour fouiller le système et récupérer d’autres identifiants, automatisant une traque qui, hier, demandait des analystes humains. L’autonomie atteint un seuil inédit et dangereux.La firme de Mountain View souligne aussi la facilité avec laquelle les modèles peuvent être manipulés : de faux prétextes — « exercice académique », « projet étudiant » — suffisent parfois à pousser un assistant IA à livrer des conseils d’exploitation. L’ingénierie sociale migre ainsi vers les modèles de langage : au lieu d’abuser d’un humain, l’attaquant abuse d’une IA. Le tableau se complète côté marché noir : des services nommés sur le modèle des chatbots proposent désormais des malwares « clé en main », abonnements et assistance compris. Le cybercrime se professionnalise, se banalise, et abaisse ses barrières d’entrée. Que faire ? Les chercheurs encouragent une stratégie en profondeur : durcir les modèles, renforcer la traçabilité des appels API, et surtout maintenir une vigilance permanente. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
loading
Comments (3)

Zhina Filali

ça me dépite de ce genre de langage.... un podcast reste un podcast, une vidéo reste une vidéo.... 🤦‍♀️ mais un podcast vidéo... on se demande bien où va nous mener la langue française si ça continue de s'aggraver.

Oct 27th
Reply

Steph.

Pas grand chose sur Deepseek qui fait des vagues avec son prix, performance, fonctionnalités etc. et le reste de laa concurrence en Chine

Mar 1st
Reply

Larbi AIT ABDERRAHIM

énorme erreur ! c'est la première fois où les différences entre le pro et pro max ne sont pas que la taille d'écran et la taille de la batterie, même le système des capteurs photos est différent. je suis déçu ! pour un podcast spécialisé, c'était la chose qu'il fallait retenir (et le fait qu'ils soient tous compatibles 5G)

Oct 26th
Reply
loading