DiscoverChoses à Savoir TECH
Choses à Savoir TECH
Claim Ownership

Choses à Savoir TECH

Author: Choses à Savoir

Subscribed: 1,900Played: 141,637
Share

Description

Tout ce qu'il faut savoir dans le domaine de la Tech et d'Internet.

Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

1268 Episodes
Reverse
L’intelligence artificielle est déjà partout dans notre quotidien professionnel. Depuis plus d’un an, Google a intégré son IA Gemini dans la suite Google Workspace : résumés automatiques dans Gmail, rédaction de documents dans Drive, prise de notes dans Meet… Mais avec l’arrivée de l’IA dite « agentique », le géant de la tech passe à l’étape suivante.Google vient d’annoncer le lancement de Google Workspace Studio, un nouvel outil destiné aux professionnels. Promesse affichée : permettre de créer, en quelques minutes, de véritables agents IA capables d’automatiser les tâches du quotidien, sans écrire une seule ligne de code. Il suffit d’expliquer, en langage naturel, ce que l’on souhaite faire. L’agent se charge du reste, grâce à la puissance de Gemini 3. Ces agents ne se contentent pas d’exécuter des consignes figées. Ils sont conçus pour analyser des situations, s’adapter à de nouvelles informations et déclencher des actions en fonction du contexte. Concrètement, ils peuvent surveiller vos mails, détecter des mots-clés, envoyer automatiquement des alertes, préparer des briefings, ou encore organiser des tâches à partir de contenus présents dans vos documents. Ils peuvent aussi aller chercher des informations sur le web pour ajuster leur comportement.Autre point clé : l’ouverture aux outils tiers. Google Workspace Studio peut se connecter à des applications professionnelles majeures comme Jira, Salesforce, Mailchimp ou Asana. Les agents peuvent ainsi automatiser des chaînes complètes de travail, de la gestion de projet au suivi client. Ils sont aussi partageables entre collaborateurs, avec des modèles prêts à l’emploi pour accélérer la prise en main. Google voit déjà plus loin. Des évolutions sont annoncées, notamment le partage externe, l’envoi d’e-mails hors du domaine principal, ainsi qu’une prise en charge avancée des webhooks, ces mécanismes qui permettent aux applications de dialoguer entre elles en temps réel. Le déploiement a commencé cette semaine. L’accès pour les utilisateurs finaux est prévu à partir du 5 janvier 2026, pour les domaines à activation progressive. L’outil reste réservé aux abonnements payants Business, Enterprise, Education et aux offres Google AI dédiées. Les mineurs, eux, n’y auront pas accès. Derrière cette annonce, un signal clair : Google ne veut plus seulement proposer de l’assistance par IA, mais confier aux entreprises de véritables agents numériques autonomes. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
C’est une annonce qui fait l’effet d’un séisme dans le monde du web. Matthew Prince, le patron de Cloudflare, révèle que son entreprise a bloqué 416 milliards de requêtes de robots d’intelligence artificielle depuis juillet. Un chiffre vertigineux, qui confirme une tendance que beaucoup pressentaient : Internet n’est plus majoritairement parcouru par des humains, mais par des machines.Les données du rapport 2025 d’Imperva enfoncent le clou : les bots représentent désormais 51 % du trafic mondial, contre seulement 27 % il y a dix ans. Une bascule spectaculaire, portée par la frénésie des géants de l’IA — OpenAI, Anthropic, Google et consorts — dont les modèles doivent avaler toujours plus de données pour s’améliorer. Résultat : leurs robots arpentent le web en long, en large et en travers. GPTBot, l’aspirateur d’OpenAI, a triplé sa présence en un an. ClaudeBot, son équivalent chez Anthropic, suit le même rythme. Ces bots vont plus loin que les anciens robots d’indexation : ils réclament 2,5 fois plus de données par requête que le crawler de Google. Et le plus croustillant, c’est qu’ils ne renvoient quasiment aucun visiteur vers les sites qu’ils exploitent. Cloudflare a mesuré un ratio édifiant : 70 900 visites de ClaudeBot pour 1 visiteur humain généré. OpenAI fait un peu mieux… mais reste entre 250 et 1 217 pour un.Cette marée robotique a un coût. Le projet open source Read the Docs a vu sa consommation de bande passante chuter de 75 % en bloquant les bots IA — de 800 à 200 Go par jour — générant 1 500 dollars d’économies mensuelles. Multipliez cela par des milliers de sites : la facture globale devient gigantesque. Face à cette extraction massive de contenus, des pistes émergent : faire payer les visites des robots d’IA, ou rémunérer les créateurs dont les contenus alimentent les réponses générées. Reste à convaincre les géants du secteur. En attendant, Cloudflare a tranché : depuis juillet, tous les bots IA sont bloqués par défaut sur les sites qu’il protège. Un geste symbolique — l’entreprise ne couvre qu’environ 20 % du web — mais un signal fort. Les créateurs de contenus ne sont peut-être pas encore dépossédés. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Pour la dernière grande journée de son événement annuel AWS re:Invent, Amazon Web Services a levé le voile sur une annonce stratégique : l’arrivée de Graviton5, son tout nouveau processeur maison. Une puce ARM de cinquième génération, gravée en 3 nanomètres, embarquant… 192 cœurs. Un monstre de calcul, pensé pour bouleverser l’équation performance-prix du cloud.AWS ne s’en cache pas : le pari Graviton est déjà un succès. Plus de la moitié des nouvelles capacités de calcul de la plateforme reposent désormais sur cette architecture, et près de 90 % des 1 000 plus gros clients EC2 utilisent déjà ces processeurs. Avec Graviton5, Amazon ne se contente plus d’optimiser : il change d’échelle. Cette nouvelle génération marque un véritable saut technologique. En concentrant 192 cœurs sur une seule puce, Amazon augmente considérablement la densité de calcul. Résultat : les échanges entre cœurs sont 33 % plus rapides. Le cache L3, cette mémoire ultra-rapide essentielle aux performances, a été multiplié par cinq. Chaque cœur dispose ainsi de 2,6 fois plus d’espace immédiat que sur Graviton4. Concrètement, cela accélère fortement les bases de données, l’analyse de données massives, mais aussi les jeux en ligne ou les services temps réel.Côté réseau, les progrès sont tout aussi notables : +15 % de bande passante en moyenne, jusqu’à un doublement sur les instances les plus puissantes. L’accès au stockage cloud progresse aussi de 20 %. Graviton5 promet au total 30 % de performances supplémentaires et 20 % de latence en moins par rapport à la génération précédente. La gravure en 3 nm, l’une des plus avancées du marché — dominée par TSMC, Samsung et Intel — permet d’augmenter la puissance tout en réduisant la consommation. Un point crucial à l’heure où les data centers pèsent de plus en plus lourd dans la consommation électrique mondiale. AWS va même jusqu’à refroidir directement la puce, sans boîtier intermédiaire.Autre avancée majeure : la sécurité. Avec le Nitro Isolation Engine, AWS ne se contente plus d’affirmer l’isolation des données… il en apporte une preuve mathématique. Une garantie très recherchée par les banques, les hôpitaux et les administrations. Les premiers retours sont enthousiastes. Airbnb gagne 25 % sur ses moteurs de recherche. Atlassian observe 30 % de rapidité en plus sur Jira. SAP annonce même jusqu’à 60 % d’accélération sur ses bases de données. Les premières instances EC2 M9g sont déjà disponibles en test. Les déclinaisons C9g et R9g, dédiées au calcul intensif et à la mémoire, arriveront en 2026. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
C’est une plainte devenue quasi quotidienne chez les joueurs comme chez les télétravailleurs : Discord consomme de plus en plus de mémoire vive. La plateforme de chat vocal et textuel confirme aujourd’hui ce que beaucoup constataient déjà : lorsque plusieurs serveurs sont ouverts, l’application peut dépasser les 4 gigaoctets de RAM, au point de ralentir sérieusement Windows 11 et les jeux lancés en parallèle.Face à la grogne, Discord teste désormais une solution radicale : surveiller sa propre consommation de mémoire… et se relancer automatiquement lorsqu’elle dépasse un seuil critique. L’objectif est simple : libérer de la RAM pour éviter que la machine ne suffoque. Une mesure présentée comme un garde-fou, mais qui révèle surtout l’ampleur du problème. Cette gourmandise n’est pas qu’une question d’usage intensif. Discord repose sur le framework Electron, qui embarque en réalité un navigateur complet basé sur Chromium. Autrement dit, chaque fenêtre de discussion fonctionne comme une page web à part entière, avec son moteur JavaScript, ses composants, ses modules. Dans des conditions dites « normales », l’application flirte déjà avec le gigaoctet de mémoire. Et après plusieurs heures d’utilisation, entre appels vocaux, partages d’écran et navigation frénétique, la consommation peut exploser.Les développeurs reconnaissent d’ailleurs l’existence de fuites de mémoire. Neuf ont été corrigées ces derniers mois, permettant une réduction d’environ 5 % pour les profils les plus gourmands. Un progrès, certes, mais encore loin de transformer Discord en logiciel léger. D’où cette nouvelle expérimentation : si l’application dépasse 4 Go de RAM, qu’elle tourne depuis plus d’une heure, que l’utilisateur est inactif depuis trente minutes et qu’aucun appel n’est en cours, alors Discord se ferme… puis redémarre automatiquement. L’opération ne peut se produire qu’une fois toutes les 24 heures pour éviter les interruptions en boucle.Sur le papier, la mécanique est rassurante. Dans la pratique, elle ressemble surtout à un pansement posé sur une architecture lourde. Et Discord est loin d’être un cas isolé. D’autres applications comme Microsoft Teams ou la nouvelle version de WhatsApp pour Windows affichent elles aussi des consommations démesurées. Le problème devient d’autant plus sensible que le prix de la mémoire vive remonte. Tout le monde ne peut pas se permettre d’ajouter 16 Go de RAM pour suivre la course aux logiciels XXL. Entre applications toujours plus lourdes et matériel plus cher, les configurations modestes plient rapidement. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
C’est une annonce qui a fait trembler Hollywood : Netflix a proposé un chèque de 83 milliards de dollars pour s’offrir Warner Bros., ses studios de cinéma, de télévision, de jeux vidéo… et surtout sa plateforme de streaming, HBO Max. Une opération titanesque, présentée comme historique. Mais attention : à ce stade, rien n’est encore acté. Le processus pourrait s’étendre jusqu’à fin 2026, et le chemin s’annonce semé d’embûches réglementaires et politiques.Car cette acquisition devrait être passée au crible par les autorités de la concurrence dans le monde entier. En clair, Netflix devra démontrer que l’absorption de Warner et de son catalogue — de Game of Thrones à l’univers DC, en passant par Harry Potter — ne portera pas atteinte à la concurrence ni aux consommateurs. Officiellement, la plateforme le répète : « rien ne change pour l’instant ». Mais en coulisses, les tensions sont déjà très fortes. Le groupe Paramount-Skydance, candidat malheureux au rachat, conteste ouvertement le processus. Son patron, David Ellison, fils du fondateur d’Oracle, espérait l’emporter grâce à ses relations politiques, notamment avec Donald Trump. Quelques heures avant l’annonce de Netflix, Paramount dénonçait publiquement une vente « opaque et injuste ».Donald Trump, justement, est entré directement dans le jeu. Le 7 décembre 2025, sur Truth Social, il a déclaré vouloir examiner de près cette opération, évoquant un risque de « part de marché excessive ». S’il ne peut pas bloquer seul le dossier, il pèse lourdement sur la FTC, dont il a placé un proche à la tête. Le patron de Netflix, Ted Sarandos, a bien tenté d’apaiser les tensions en rencontrant Donald Trump avant l’annonce. Sans succès visible. Pire encore, selon plusieurs médias américains, Paramount-Skydance pourrait préparer une OPA hostile pour reprendre Warner à coup de surenchère boursière.Et les obstacles ne s’arrêtent pas aux États-Unis. Les régulateurs européens et britanniques, réputés plus stricts, pourraient à leur tour freiner le dossier. Le syndicat des acteurs SAG-AFTRA s’y oppose déjà, inquiet pour l’avenir du cinéma en salles. Même dans le scénario le plus optimiste, la transaction ne serait pas finalisée avant la seconde moitié de 2026. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
La France accélère dans la course aux infrastructures numériques. Vendredi 28 novembre 2025, le ministère de l’Économie a dévoilé un véritable mode d’emploi pour implanter des centres de données sur le territoire. Objectif affiché : structurer, encadrer et surtout accélérer un secteur devenu stratégique. Aux côtés de Roland Lescure, la ministre déléguée au Numérique, Anne Le Hénanff, a voulu clarifier les règles du jeu. Le signal est fort : 63 sites sont déjà identifiés et plus de 109 milliards d’euros d’investissements annoncés. L’ambition est claire : faire de la France un hub européen majeur du data.Derrière chaque clic, chaque photo stockée, chaque requête d’intelligence artificielle, se cachent des hangars de serveurs fonctionnant jour et nuit. Le guide distingue désormais les petites salles informatiques, les centres de colocation géants, les infrastructures cloud ou encore les datacenters dédiés au calcul intensif pour l’IA. Si l’État s’en mêle autant, c’est pour une raison essentielle : la souveraineté. Héberger les données sensibles sur le sol national permet de se prémunir contre des lois étrangères à portée extraterritoriale, comme le Cloud Act, et de soutenir l’essor des start-up françaises de l’IA, fortement dépendantes de la puissance de calcul. Le déclic est venu du sommet parisien sur l’IA, en février. Une task force réunissant la Direction générale des Entreprises, Business France et RTE a passé le territoire au crible. Résultat : des sites repérés en Normandie, en Occitanie ou dans le Grand Est, afin de désengorger l’Île-de-France, déjà sous forte tension électrique.Car le nerf de la guerre reste l’électricité. Un datacenter moyen consomme entre 50 et 250 mégawatts, l’équivalent d’une petite ville. Le raccordement peut prendre jusqu’à neuf ans. À cela s’ajoute la connectivité, avec la nécessité d’un accès à la fibre et aux hubs de peering, comme Marseille, devenue un carrefour numérique grâce à ses câbles sous-marins. Le volet environnemental n’est pas oublié. Le texte fixe des exigences sur l’eau, le refroidissement et l’efficacité énergétique, avec un objectif de PUE à 1,20 d’ici 2030. La récupération de la chaleur devient également obligatoire pour les grandes installations. Enfin, l’argument économique reste décisif : un datacenter de 100 mégawatts crée une cinquantaine d’emplois directs et apporte des recettes fiscales significatives. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
En validant, en septembre dernier, le rachat d’Axio par Amazon, la Reserve Bank of India n’a pas seulement autorisé une acquisition de plus. Elle a ouvert la porte à un changement d’échelle majeur : pour la première fois, un géant technologique étranger obtient en Inde un accès direct à l’activité de crédit en ligne. Une évolution qui ne laisse ni les analystes ni les régulateurs indifférents.Axio, anciennement Capital Float, est un acteur bien installé du prêt numérique. Plus de dix millions d’Indiens ont déjà eu recours à ses services. Depuis six ans, l’entreprise travaillait main dans la main avec Amazon pour alimenter l’offre de paiement différé. Avec ce rachat, la relation devient une intégration complète. Et l’objectif est clair : démocratiser l’accès au crédit dans un pays où, selon les chiffres du groupe, un consommateur sur six seulement dispose d’une solution de financement à l’achat. Mais l’ambition est plus large. Amazon entend aussi relancer le crédit aux petites entreprises, un segment stratégique pour l’économie indienne. Des prêts « sur mesure » sont annoncés pour les marchands, construits à partir du comportement d’achat, des données transactionnelles et des outils de gestion de trésorerie. En clair, la marketplace se transforme peu à peu en plateforme financière intégrée.Le contexte joue en faveur du groupe. En cinq ans, le marché indien du crédit à la consommation est passé d’environ 80 à plus de 200 milliards de dollars. Dans cet écosystème, les géants du numérique disposent d’un atout décisif : ils contrôlent à la fois l’interface, les flux et les données. Et la stratégie ne s’arrête pas au prêt. Via Amazon Pay, l’un des moyens de paiement les plus utilisés sur l’infrastructure nationale de virements instantanés UPI, le groupe propose désormais aussi des dépôts à terme, en partenariat avec plusieurs banques locales, accessibles dès 1 000 roupies. Une première incursion dans l’épargne grand public. Ce virage s’inscrit dans un cadre réglementaire tout récent, qui autorise désormais les filiales détenues à 100 % par des groupes technologiques à accorder elles-mêmes des crédits. Amazon a saisi l’opportunité sans attendre.Reste une interrogation centrale : jusqu’où le groupe pourra-t-il étendre son influence dans un secteur bancaire indien très encadré et parfois méfiant envers les Big Tech ? Pour l’heure, le géant avance prudemment, en s’appuyant sur les banques tout en consolidant ses propres outils. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Depuis des années, Elon Musk promet une révolution imminente : celle de la conduite totalement autonome. Une promesse répétée, martelée, mais toujours freinée, en Europe, par un mur réglementaire solide. Faute de pouvoir déployer pleinement son système sur route ouverte, Tesla a choisi une autre stratégie : la démonstration grandeur nature.Dès le mois de décembre, le constructeur américain lance une tournée française pour présenter son système de conduite autonome avancée, le FSD. Les inscriptions sont déjà ouvertes et l’expérience est gratuite. Les passagers pourront monter à bord dans plusieurs villes : Nantes, Bordeaux, Paris, Lille, Cannes, Toulouse, Marseille, Strasbourg et Lyon. Mais avec une nuance de taille : un conducteur de sécurité restera impérativement au volant. Une obligation légale qui rappelle que l’autonomie intégrale, pour l’instant, reste un horizon plus qu’une réalité.L’objectif de Tesla est clair : prouver, par l’expérience, que sa technologie est prête pour les routes européennes. Le système FSD repose exclusivement sur la vision par caméras, sans recourir au LiDAR, contrairement à certains concurrents. Un parti pris technologique assumé, mais contesté. Des acteurs comme Waymo, qui ont misé sur une approche combinant caméras, radars et capteurs laser, semblent aujourd’hui plus avancés dans l’homologation et l’exploitation réelle.Tesla, de son côté, juge les règles européennes trop rigides, voire dépassées. La marque estime même que tenter d’adapter son système au cadre réglementaire actuel pourrait le rendre moins sûr. Une déclaration qui en dit long sur la méthode employée : forcer le débat en s’appuyant sur la preuve par l’usage. Ce n’est pas la première fois que le constructeur s’y essaie. Des démonstrations ont déjà eu lieu en Europe, notamment dans des environnements réputés complexes, comme autour de Place de l’Étoile à Paris. La tournée française s’inscrit dans cette même logique : impressionner le public, rassurer, mais aussi maintenir une pression constante sur les autorités. Reste que ces démonstrations interviennent autour d’un système toujours non homologué sur le continent. Tesla joue désormais une partie de calendrier, en multipliant les tests visibles et médiatisés pour accélérer la discussion réglementaire. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Vous pensiez avoir fait le tour des cybermenaces ? Une nouvelle attaque vient rappeler que le Web n’a pas fini de nous surprendre. Son nom : HashJack. Une faille aussi discrète que redoutable, qui détourne une mécanique pourtant banale d’Internet — le fragment d’URL, cette petite partie d’adresse située après le symbole dièse, habituellement utilisée pour naviguer dans une page.Jusqu’ici, ce fragment était considéré comme inoffensif, car il ne transite jamais vers les serveurs. Sauf que l’arrivée des assistants d’intelligence artificielle intégrés aux navigateurs a tout changé. L’attaque HashJack consiste à dissimuler des instructions malveillantes dans ce fragment. Instructions que les assistants IA, trop obéissants, lisent… et exécutent localement. Résultat : sur des outils comme Perplexity Comet ou l’assistant intégré à Microsoft Edge, un simple lien peut suffire à déclencher l’affichage de fausses informations, voire l’exfiltration de données sensibles. Une attaque sans effraction visible.Le plus inquiétant, c’est que les systèmes de défense traditionnels n’y voient… rien. Pare-feu et antivirus scrutent les échanges réseau, mais ici, tout se joue à l’intérieur même du navigateur. Aucun trafic suspect, aucun signal d’alerte. Une démonstration brutale des limites de nos outils de sécurité face aux nouveaux usages de l’IA. Face à la révélation de cette faille, la réaction a été rapide. Microsoft et Perplexity ont déployé en urgence des correctifs. Une réactivité saluée, mais qui interroge : pourquoi faut-il systématiquement attendre l’attaque pour colmater ?Pour l’instant, certains assistants comme ChatGPT ou Claude ne semblent pas vulnérables à cette forme précise d’attaque. Mais les spécialistes restent prudents. La sécurité de l’IA ressemble de plus en plus à un jeu de chat et de la souris : une faille à peine corrigée, une autre apparaît. Du côté des entreprises, la société de cybersécurité Cato Networks recommande déjà de restreindre fortement l’usage de ces assistants ou de bloquer purement et simplement les fragments d’URL suspects. Moralité : les assistants intelligents progressent à pas de géant, mais leur sécurité avance encore au rythme de l’artisanat. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
L’intelligence artificielle, cette usine à images, à voix et à vidéos qui inonde nos écrans, commencerait-elle à fatiguer le public ? Sur TikTok, royaume du flux permanent et de l’instantané, les contenus générés par IA se multiplient au point de susciter une lassitude visible. Trop de visages artificiels, trop de musiques clonées, trop de récits formatés. Face à cette saturation, la plateforme tente une réponse : un nouvel « interrupteur » permettant de moduler la présence de l’IA dans les recommandations.Officiellement, l’objectif est simple : offrir aux utilisateurs un peu de contrôle sur l’invasion des contenus synthétiques. Dans les faits, l’outil se cache dans les paramètres et permet seulement de réduire – ou non – l’exposition aux vidéos générées par des algorithmes. Car il n’est pas question pour la plateforme de se passer de intelligence artificielle, devenue un moteur central de production, d’optimisation et de viralité. Derrière cette nouveauté, une inquiétude bien réelle agite les équipes de TikTok : celle du « AI slop », ce déluge de contenus fades, interchangeables, qui finit par user l’attention. Trop d’automatisation tue l’émotion, trop de perfection artificielle érode l’authenticité. En donnant l’illusion d’un choix, la plateforme cherche surtout à préserver l’engagement et éviter la fuite des utilisateurs lassés par ce bruit numérique permanent.L’étiquetage automatique des contenus générés par IA est présenté comme un gage de transparence. Mais suffira-t-il à ralentir le flot ? L’expérience montre que d’autres plateformes ont déjà dû réagir. Pinterest, par exemple, a récemment serré la vis pour éviter que ses tableaux ne deviennent des galeries d’images entièrement artificielles. TikTok, de son côté, met aussi en avant un fonds destiné à l’éducation à l’IA, histoire de montrer sa bonne volonté. Reste une réalité que l’interrupteur ne change pas : le modèle de la plateforme repose sur une chose essentielle, notre attention. Qu’un contenu soit produit par un humain ou par une machine, ce qui compte avant tout, c’est sa capacité à retenir l’utilisateur. Tant que l’IA reste un outil redoutablement efficace pour capter les regards, elle continuera d’inonder les flux. Derrière l’affichage du choix, le doute persiste. Cet interrupteur est-il un véritable levier de contrôle pour les utilisateurs… ou simplement un gadget de plus, destiné à nous donner l’illusion que nous restons aux commandes ? Une certitude demeure : dans la bataille entre attention humaine et algorithmes, la machine garde, pour l’instant, une longueur d’avance. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
On ne sait toujours pas qui se cache derrière le nom de Satoshi Nakamoto, le créateur mythique du Bitcoin. Mais une chose est certaine : son héritage, lui, est colossal. En ayant miné les tout premiers blocs de la blockchain, il est aujourd’hui crédité d’environ 1,1 million de bitcoins, disséminés sur plusieurs portefeuilles numériques. Une fortune fantôme, jamais touchée, devenue une véritable légende des marchés.Mais derrière ce mythe absolu, un autre nom s’est longtemps imposé comme la première grande figure connue du Bitcoin milliardaire : Owen Gunden. Un pionnier discret, entré dans la danse dès 2011, à une époque où le Bitcoin ne valait encore que quelques dollars. Cette année-là, il met la main sur 11 000 bitcoins. Il les garde, patiemment, pendant quatorze ans. Jusqu’à aujourd’hui.Car Owen Gunden vient de tourner définitivement la page. Depuis octobre dernier, il a commencé à vendre, morceau par morceau, l’intégralité de ses avoirs. La liquidation est désormais achevée : ses 11 000 bitcoins se sont transformés en environ 1,3 milliard de dollars. Avec cette opération, il abandonne son statut de plus ancien milliardaire connu du Bitcoin encore actif. La symbolique est forte. Gunden faisait partie de cette toute première génération d’investisseurs apparue au moment même où Satoshi Nakamoto disparaissait de la scène. Un passage de relais historique, presque générationnel. D’autant que le calendrier interroge. Cette sortie intervient alors que le marché du Bitcoin traverse une phase de forte correction.Après avoir inscrit un sommet spectaculaire au début du mois d’octobre, au-dessus des 125 000 dollars, la cryptomonnaie a brutalement décroché. Elle est repassée sous la barre des 100 000 dollars, puis sous celle des 90 000, flirtant même avec les 80 000 dollars ces derniers jours. Une chute qui alimente toutes les spéculations. Dans l’écosystème, une question obsède désormais les investisseurs : les grandes “baleines”, ces acteurs détenant d’immenses volumes de bitcoins, anticipent-elles un retournement durable du marché ? Sommes-nous à l’aube d’un véritable bear market ? Avec la sortie d’Owen Gunden, ce n’est pas seulement une fortune qui change de mains. C’est un chapitre entier de l’histoire du Bitcoin qui se referme — celui des pionniers, des aventuriers de la première heure, qui avaient cru à l’or numérique bien avant le reste du monde. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
En Allemagne, la protection des mineurs en ligne entre dans une nouvelle ère. Fini les cases à cocher “J’ai plus de 18 ans” et les contrôles symboliques. À partir de décembre 2025, la vérification de l’âge ne reposera plus sur les sites internet, mais directement sur les smartphones, tablettes et ordinateurs. Une décision radicale, portée par le nouveau traité interétatique sur la protection des mineurs, adoptée sous l’impulsion de Berlin.Concrètement, les fabricants d’appareils devront intégrer un système de contrôle d’âge activable instantanément par les parents. Une fois enclenché, l’appareil se verrouille selon une tranche d’âge précise. Toute application jugée inadaptée devient inaccessible sans intervention d’un adulte. Les boutiques d’applications, elles aussi, sont mises à contribution : chaque logiciel devra afficher une classification claire, sous peine de lourdes sanctions financières pouvant atteindre deux millions d’euros. Ce choix marque une rupture nette avec l’approche adoptée jusque-là en France, où le débat sur le blocage des sites pour adultes reste enlisé entre efficacité technique et protection de la vie privée. Là où Paris tâtonne, l’Allemagne choisit de frapper au cœur du système : l’appareil lui-même. Une logique simple, presque brutale : plutôt que de filtrer le réseau, on verrouille le terminal.Cette stratégie s’inscrit aussi en contrepoint des initiatives de l’Union européenne, parfois critiquées pour leur dépendance aux technologies de groupes comme Google. Ici, aucune base de données centrale, aucun stockage massif d’informations sensibles : tout se joue localement, directement sur l’appareil de l’utilisateur. Mais l’efficacité réelle du dispositif reste sujette à caution. Chaque nouveau verrou numérique devient rapidement un terrain de jeu pour des adolescents rompus aux VPN, navigateurs alternatifs et autres détours techniques. Autre point faible : les applications seront classées, mais le web, lui, demeure largement dans une zone grise. Sans étiquetage obligatoire page par page, le filtrage risque de montrer ses limites. En verrouillant la porte des appareils sans toujours contrôler les fenêtres du web, l’Allemagne fait un pari audacieux. Une avancée technologique claire, politiquement forte, mais dont la solidité sera très vite mise à l’épreuve par la réalité des usages… et l’ingéniosité de la jeunesse connectée. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
L’affaire tombe au plus mauvais moment pour Google. Alors que la firme dévoile fièrement son nouveau modèle Gemini 3, une accusation enflamme soudain la toile : Gmail servirait à entraîner l’intelligence artificielle de Google. De quoi faire frémir les utilisateurs… avant même d’avoir vérifié l’info. Rapidement, Google dément et parle d’allégations « trompeuses ». Mais comment en est-on arrivé là ?Tout part d’une confusion récurrente entre espionnage industriel et fonctionnalités intelligentes. Les fameuses « Smart Features », qui trient automatiquement vos spams ou vous proposent des réponses toutes faites, reposent sur un principe simple : l’algorithme analyse vos mails… pour vous rendre service. Une analyse locale et limitée, indispensable pour faire fonctionner ces options. Mais là où Google insiste, c’est sur la frontière à ne pas franchir : « Nous n'utilisons pas le contenu de Gmail pour entraîner notre modèle d'IA Gemini », affirme la firme. Autrement dit, l’IA peut lire pour vous, mais pas apprendre de vous. L’affaire ne sort pourtant pas de nulle part. Plusieurs utilisateurs ont constaté que certaines options intelligentes s’étaient réactivées automatiquement, malgré un choix initial de les désactiver. Une maladresse technique, ou un forçage un peu trop zélé ? Résultat : un recours collectif a été déposé en Californie le 11 novembre. Les plaignants accusent Google d’avoir manipulé, volontairement ou non, les paramètres de confidentialité de millions d’utilisateurs.La situation a de quoi faire sourire — jaune. Car elle survient au moment même où Gmail commence à proposer du vrai chiffrement de bout en bout, une fonctionnalité réclamée depuis des années pour renforcer la confidentialité des échanges. Une sorte de paradoxe numérique : Google verrouille enfin la porte d’entrée… alors qu’une fenêtre pourrait s’être entrouverte derrière. Pour les utilisateurs, la parade existe : un petit tour dans les paramètres et il est possible de désactiver chaque option intelligente. Mais le prix à payer, c’est le retour à un Gmail plus « brut », sans tri automatique ni rappels contextuels. Cette polémique révèle surtout un climat de méfiance généralisée : dès qu’un service se dit « intelligent », l’ombre du soupçon plane. Une tension qui ne risque pas de s’apaiser à l’ère des IA omniprésentes. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
C’est un partenariat aussi inattendu que stratégique que Bruxelles a officialisé ce lundi 24 novembre. L’OTAN s’allie à Google Cloud, un géant privé de la tech, pour moderniser la gestion de ses données parmi les plus sensibles de la planète. L’annonce a été faite lors de la troisième conférence annuelle sur le cloud organisée par l’Alliance en Belgique. Au cœur de l’accord : une technologie baptisée Google Distributed Cloud “air-gapped”. Un nom technique pour désigner un système totalement isolé du monde extérieur. Ici, pas de réseau, pas d’Internet, pas de connexion au cloud public. Les serveurs Google seront installés physiquement dans les infrastructures de l’OTAN, mais fonctionneront en vase clos, sous le contrôle exclusif de la NCIA, l’agence de communication et d’information de l’Alliance.Le dispositif servira notamment au JATEC, le centre d’analyse et de formation de l’OTAN. Toutes les opérations sensibles, les simulations militaires et les flux classifiés transiteront par cette bulle numérique fortifiée. L’objectif : bénéficier des capacités d’IA et d’analyse de Google, tout en garantissant que aucune donnée ne quitte jamais le périmètre militaire. Un compromis qui permet à l’organisation de parler ouvertement de « souveraineté », un terme habituellement réservé aux États. Pourquoi faire appel à Google, alors ? Parce que l’OTAN veut accélérer sa transformation technologique, tout en profitant d’outils d’IA impossibles à développer en interne dans les mêmes délais. Tara Brady, présidente de Google Cloud pour l’Europe, explique que l’accord permettra à l’Alliance « d’accélérer de manière décisive sa modernisation numérique tout en maintenant les niveaux les plus élevés de sécurité ». Une manière de dire que la puissance algorithmique de Google est devenue incontournable.Du côté de l’OTAN, le discours est assumé. Antonio Calderon, directeur technique de la NCIA, rappelle que « le partenariat avec l’industrie est essentiel » à la transformation de l’organisation. Et l’IA fait désormais partie des outils opérationnels que l’Alliance entend maîtriser. Le déploiement commencera dans les prochains mois. Et au-delà du symbole, ce contrat de plusieurs millions de dollars raconte une réalité : même les institutions les plus secrètes du monde n’échappent plus à la révolution de l’intelligence artificielle. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
C’est officiel : depuis ce 24 novembre 2025, chaque citoyen européen dispose d’un pouvoir inédit. Bruxelles vient de lancer une plateforme qui permet de signaler anonymement toute dérive liée à l’intelligence artificielle. Une première en Europe, portée par le Bureau européen de l’IA, le nouvel organisme chargé de faire respecter l’AI Act.L’objectif est clair : offrir un canal ultra-sécurisé, facile d’accès, pour dénoncer les manquements présumés à la législation sur l’IA — sans risquer de représailles. Que vous soyez salarié, partenaire, prestataire… ou simple témoin, il est désormais possible d’alerter l’Union européenne en quelques minutes. Et surtout, sans laisser la moindre trace. Techniquement, l’outil coche toutes les cases. Le signalement est chiffré de bout en bout, avec des protocoles certifiés qui garantissent un anonymat absolu. L’interface accepte toutes les langues officielles de l’Union, et permet de joindre des documents dans la majorité des formats existants. Mais la vraie nouveauté se trouve ailleurs : une boîte postale sécurisée intégrée au système permet un dialogue continu avec le Bureau européen de l’IA. Une fois le signalement déposé, les enquêteurs peuvent demander des précisions, accuser réception ou tenir le lanceur d’alerte informé de l’avancée du dossier — sans jamais pouvoir l’identifier.Cette approche transforme l’alerte anonyme en processus collaboratif, un peu à la manière des cellules de lanceurs d’alerte anticorruption, mais à l’échelle du continent. Pour rappel, l’AI Act, entré en vigueur cet été, vise à encadrer les systèmes d’intelligence artificielle tout en encourageant l’innovation. Le texte protège la santé, la sécurité, les droits fondamentaux et même la démocratie. Mais une loi sans contrôle reste une coquille vide. Grâce aux signalements citoyens, l’Europe espère détecter très tôt les dérives — qu’il s’agisse d’un modèle d’IA dangereux, d’un usage illicite de données ou d’un système “à haut risque” déployé sans autorisation. La Commission promet de traiter chaque alerte avec « soin, diligence et intégrité ». Au-delà de la formule, cette plateforme marque un tournant : pour la première fois, la surveillance des technologies d’IA devient aussi l’affaire des Européens eux-mêmes.https://ai-act-whistleblower.integrityline.app/ Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Nouvel épisode dans le bras de fer entre Bruxelles et Google. Début septembre, la Commission européenne infligeait une amende record de 2,95 milliards d’euros au géant américain pour abus de position dominante dans la publicité en ligne. Une sanction assortie d’une menace lourde : une scission de certaines activités si Google ne proposait pas rapidement des mesures pour rétablir la concurrence.Depuis, Google conteste farouchement la décision et prépare son appel. Mais en parallèle, le groupe devait impérativement soumettre cette semaine ses propositions concrètes pour éviter une séparation forcée. Il s’est finalement exécuté. Dans un communiqué, un porte-parole assure que « notre proposition répond pleinement à la décision de la Commission, sans recourir à une scission disruptive », qui nuirait, selon lui, aux milliers d’annonceurs et éditeurs utilisant aujourd’hui ses outils publicitaires.Bruxelles confirme avoir reçu le document et promet une analyse minutieuse : « Nous allons examiner les mesures proposées par Google pour vérifier si elles peuvent mettre fin aux atteintes à la concurrence », indique la Commission. Selon des informations du Monde, cette proposition comporte deux volets. D’abord, des mesures immédiates destinées à stopper les pratiques pointées par l’enquête européenne. Ensuite, des modifications structurelles plus profondes, destinées à éliminer ce que Bruxelles considère comme un conflit d’intérêts entre plusieurs briques du système publicitaire de Google — notamment entre sa plateforme d’achat d’espaces, son serveur publicitaire et son marché d’enchères.Cet été déjà, Google avait tenté de convaincre Bruxelles avec une première série d’engagements jugés insuffisants. Cette fois, l’enjeu est clair : convaincre la Commission qu’il est possible de restaurer la concurrence sans démanteler une partie de l’écosystème Google Ads. La balle est désormais dans le camp de l’Union européenne. Si les mesures sont jugées inefficaces, Bruxelles pourrait relancer la procédure de scission. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Mardi 18 novembre, un peu après midi, Internet a toussé… puis s’est effondré par intermittence. En quelques minutes, Cloudflare, l’un des piliers de l’infrastructure du Web mondial, a entraîné dans sa chute une avalanche de services : ChatGPT, X/Twitter, Canva, Clubic et des milliers d’autres plateformes. L’hypothèse d’une cyberattaque massive a d’abord dominé. En réalité, la vérité est plus banale — et beaucoup plus inquiétante.Tout commence à 12h05, lorsque Cloudflare déploie une mise à jour sur un cluster de bases de données ClickHouse. Une modification censée renforcer la sécurité en rendant explicites les permissions d’accès. Un ajustement mineur, en apparence. Sauf que ce changement provoque un bug imprévu : chaque colonne de données se duplique dans les métadonnées. Une anomalie invisible pour l’utilisateur… mais catastrophique pour un composant clé : le fichier utilisé par le système Bot Management, chargé d’analyser le trafic pour distinguer humains et robots.Habituellement, ce fichier contient une soixantaine d’empreintes. Avec les doublons, il en compte plus de 200. Le problème ? Le logiciel censé le traiter est conçu pour refuser tout fichier dépassant 200 entrées, afin d’éviter une surcharge mémoire. Résultat : lorsque ce fichier corrompu se propage aux milliers de serveurs mondiaux, les machines plantent en série et renvoient des erreurs 500 aux internautes du monde entier. Le cauchemar se complique encore. Le fichier est régénéré toutes les cinq minutes. Selon que le serveur tombe sur une version saine ou défectueuse, Cloudflare oscille entre fonctionnement normal et blackout. Diagnostiquer la panne devient un casse-tête. Matthew Prince, le PDG, parle même d’une possible “démonstration de force” d’un réseau de bots, après les gigantesques attaques DDoS de juin.Ce n’est qu’à 14h04 qu’une piste interne apparaît. À 14h37, les équipes identifient enfin le coupable : le fichier Bot Management. À 15h24, sa génération automatique est stoppée. À 15h30, Internet redémarre. Enfin… presque. Le tableau de bord tombe à son tour, écrasé par le flot de connexions en attente. Il faudra attendre 18h06 pour un retour complet. Dans un mea culpa inhabituellement frontal, Matthew Prince avoue : « Une panne comme celle-ci est inacceptable. » Cloudflare promet des coupe-circuits plus rapides, une validation plus stricte des fichiers internes, et des limites pour ses outils de débogage, eux-mêmes responsables d’un ralentissement massif. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Depuis l’irruption de ChatGPT dans le grand public, l’intelligence artificielle est devenue la nouvelle ruée vers l’or… et le grand gagnant de cette vague s’appelle Jensen Huang. Le patron de NVIDIA, fabricant des GPU indispensables à l’entraînement des modèles d’IA, dirige aujourd’hui une entreprise dont la capitalisation dépasse le PIB de l’Allemagne. Un succès vertigineux, qu’il explique pourtant avec une simplicité presque déconcertante.Invité par le Cambridge Union, le milliardaire est revenu sur son parcours. Né à Taïwan, arrivé aux États-Unis à l’âge de neuf ans, il fonde NVIDIA en 1993, à tout juste 30 ans. Mais selon lui, la base de sa réussite se trouve bien avant, dans une enfance marquée par un refus absolu de se fixer des barrières. Il raconte notamment une scène qui a forgé sa manière d’aborder la vie : sa mère, qui ne parlait pas un mot d’anglais, lui a pourtant enseigné la langue… armée uniquement d’un bout de papier et d’un dictionnaire.Un souvenir fondateur. « À bien des égards, cela définit NVIDIA. Cela me définit aussi », résume-t-il. Si sa mère, qui ne parlait que le hokkien taïwanais, a pu accomplir cette prouesse, alors rien ne lui semble vraiment impossible. C’est cette philosophie qu’il applique aujourd’hui à son entreprise, devenue incontournable dans la révolution de l’IA : « J’aborde presque tout en me demandant : est-ce vraiment si difficile ? » confie-t-il. Sa fortune personnelle, désormais estimée à plus de 165 milliards de dollars, n’a pas entamé cette vision très directe du travail et de la réussite. Et son discours fait écho à celui d’autres géants de la tech — comme Pavel Durov — qui disent avoir puisé leur inspiration dans le courage et la ténacité de leurs parents. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Les alertes autour des dérives possibles de l’intelligence artificielle se multiplient, et les dernières recherches ne sont pas rassurantes. Après les révélations sur Claude AI exploitée par des espions chinois et la découverte par OpenAI que ChatGPT pouvait mentir, une nouvelle étude montre à quel point il est facile de contourner les règles censées encadrer ces systèmes. Cette fois, ce sont les chercheurs de Cybernews qui tirent la sonnette d’alarme. Leur objectif : vérifier si les garde-fous intégrés aux principaux modèles du marché résistent à des tentatives de manipulation simples, rapides, et réalistes. Verdict : une minute suffit souvent à faire déraper une IA.L’équipe a testé six modèles : Gemini Flash 2.5, Gemini Pro 2.5, ChatGPT-5, ChatGPT-4o, Claude Opus 4.1 et Claude Sonnet 4. Les chercheurs ont soumis à ces systèmes toute une série de demandes liées à des thématiques sensibles : discours haineux, maltraitance animale, contenus sexuels, criminalité, piratage, drogues, contrebande ou encore harcèlement. Chaque réponse était notée selon son niveau de conformité ou de déviation.Et les conclusions sont sans appel :« Avec les bons mots, même des utilisateurs non techniques peuvent amener un modèle à produire des réponses nuisibles », résume l’étude. Certains modèles divulguent même des informations dangereuses dès que la demande est habilement formulée.Un constat surprenant émerge : être aimable fonctionne mieux que provoquer l’IA. Parler gentiment au modèle, présenter la question comme une enquête, un roman ou un travail universitaire permettait souvent de contourner ses protections. À l’inverse, les insultes ou les formulations agressives déclenchaient plus facilement un refus. Les réactions varient toutefois selon les modèles. Les IA d’Anthropic, plus strictes, se sont montrées particulièrement fermes sur les discours haineux et les stéréotypes, même si elles ont parfois cédé face aux « attaques académiques ». Gemini Pro 2.5 apparaît comme le plus problématique : il « fournissait souvent des réponses directes et potentiellement dangereuses ». Quant à ChatGPT, il se situe au milieu du peloton : souvent prudent, mais susceptible de céder lorsque la demande prend la forme d’un récit ou d'une analyse à la troisième personne — produisant alors des réponses symboliques ou psychologiques contenant malgré tout des éléments sensibles. Pour les chercheurs, même des “fuites partielles” représentent un risque majeur si elles tombent entre de mauvaises mains. Reste désormais aux développeurs à renforcer ces garde-fous, avant qu’un simple contournement ne devienne une porte d’entrée vers des usages autrement plus inquiétants. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Les ordinateurs quantiques n’existent pas encore à grande échelle, mais ils inquiètent déjà tout le monde. Leur puissance de calcul pourrait, à terme, briser les systèmes de chiffrement qui protègent aujourd’hui nos communications, nos données sensibles, nos transactions. En clair : le coffre-fort numérique mondial pourrait devenir transparent du jour au lendemain. Face à cette menace, Thales prend les devants. Le groupe français vient de dévoiler Mistral, un nouveau système de chiffrement conçu pour résister aux attaques quantiques. Une solution souveraine, destinée aux administrations publiques, aux opérateurs d’importance vitale et aux industriels de la défense. Objectif : sécuriser dès juin prochain toutes les communications classées « limitées ». Et le timing n’est pas un hasard.À Rennes, où se tient la Cyber Week, Thales frappe fort pour la deuxième fois en deux mois, après avoir présenté son dispositif DCM5 dédié aux secrets d’État. Avec Mistral — à ne pas confondre avec la start-up Mistral AI — le message est clair : la course au chiffrement post-quantique est lancée, et l’Europe entend bien ne pas rester spectatrice. Concrètement, Mistral repose sur des algorithmes spécialement conçus pour survivre à la puissance de calcul des futures machines quantiques. Le système vise la certification Common Criteria EAL4+, l’un des niveaux les plus élevés au monde, et se conforme aux recommandations de l’ANSSI, l’agence française cybersécurité.Thales assure également que la performance n’a pas été sacrifiée. Mistral affiche un débit impressionnant de 4 × 10 Gbit/s, avec une latence minimale, ce qui permet d’intégrer la solution dans des infrastructures existantes sans ralentissement. Grâce à une gestion centralisée, le déploiement se veut simple et rapide, un atout de taille pour les grandes organisations déjà sous tension. Selon Pierre Jeanne, vice-président cybersécurité souveraine, Thales sera prêt à fournir « une solution capable de résister aux attaques quantiques » à la France et à ses partenaires européens dès juin 2026. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
loading
Comments (3)

Zhina Filali

ça me dépite de ce genre de langage.... un podcast reste un podcast, une vidéo reste une vidéo.... 🤦‍♀️ mais un podcast vidéo... on se demande bien où va nous mener la langue française si ça continue de s'aggraver.

Oct 27th
Reply

Steph.

Pas grand chose sur Deepseek qui fait des vagues avec son prix, performance, fonctionnalités etc. et le reste de laa concurrence en Chine

Mar 1st
Reply

Larbi AIT ABDERRAHIM

énorme erreur ! c'est la première fois où les différences entre le pro et pro max ne sont pas que la taille d'écran et la taille de la batterie, même le système des capteurs photos est différent. je suis déçu ! pour un podcast spécialisé, c'était la chose qu'il fallait retenir (et le fait qu'ils soient tous compatibles 5G)

Oct 26th
Reply