Discover
Choses à Savoir TECH

Choses à Savoir TECH
Author: Choses à Savoir
Subscribed: 1,863Played: 137,548Subscribe
Share
© Choses à Savoir
Description
Tout ce qu'il faut savoir dans le domaine de la Tech et d'Internet.
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
1221 Episodes
Reverse
C’est une histoire tragiquement banale dans le monde de la cybersécurité. Une entreprise de transport britannique, KnP, employant 700 personnes, a mis la clé sous la porte… à cause d’un simple mot de passe. Les hackers du groupe Akira ont exploité cette faille humaine pour déchaîner une attaque qui s’est terminée par une demande de rançon de 5 millions de livres sterling. Malgré une assurance cyber et l’intervention d’une cellule de crise, l’entreprise n’a pas survécu.Le scénario, documenté par les chercheurs de Sophos, suit une mécanique bien huilée. D’abord, les pirates récupèrent des identifiants compromis – souvent des mots de passe VPN faibles ou réutilisés – avant de s’introduire dans les systèmes. Ensuite, ils exploitent une vulnérabilité connue, la CVE-2024-40711, présente dans le logiciel de sauvegarde Veeam Backup & Replication. Cette faille leur permet d’exécuter du code à distance, de créer des comptes administrateurs et de déployer leurs ransomwares Fog ou Akira. Dans le cas de KnP, le mot de passe d’un employé a suffi. Pas de double authentification, pas de garde-fou. Les pirates ont pris le contrôle total du réseau, chiffré les données critiques, puis effacé les sauvegardes et les systèmes de secours. En quelques jours, les 500 camions de la société étaient à l’arrêt, et l’activité, irrémédiablement paralysée. L’équipe de crise a parlé du « pire scénario possible ».Au Royaume-Uni, le phénomène explose : entre août 2023 et août 2024, 63 % des organisations publiques ont subi une attaque par ransomware. Le géant Marks & Spencer a lui aussi été victime du malware DragonForce, là encore à cause d’un mot de passe compromis. Selon la FEVAD, 44 % des entreprises du commerce mondial ont été touchées l’an dernier, et près de 43 % des cyberattaques visent désormais les petites structures. En France, 6 PME sur 10 cessent leur activité dans les six mois après une attaque. Depuis 2023, le groupe Akira aurait extorqué plus de 42 millions de dollars à 250 organisations. Leur secret ? Aucune magie, juste l’exploitation de failles basiques. Alors oui, parfois, un simple gestionnaire de mots de passe peut valoir bien plus qu’un pare-feu dernier cri. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Google passe à la vitesse supérieure : son navigateur Chrome va désormais intégrer Gemini, son intelligence artificielle maison, pour devenir un véritable navigateur agentique — autrement dit, un outil capable de comprendre vos intentions et d’agir à votre place. Une avancée technologique, certes… mais aussi un tournant majeur en matière de collecte de données personnelles, comme le révèle un rapport de Surfshark.Selon cette étude, la version IA de Chrome — lancée d’abord aux États-Unis — recueille 24 types de données différentes liées à l’utilisateur. On y retrouve le nom complet, la localisation précise, l’identifiant unique de l’appareil, l’historique complet de navigation et de recherche, mais aussi les achats effectués et toutes les interactions avec les produits Google. Une mine d’informations, que la firme de Mountain View justifie par la nécessité d’« améliorer l’expérience utilisateur ». Face à cette approche intrusive, Microsoft Edge avec Copilot se montre à peine plus mesuré. Le navigateur récupère lui aussi l’historique de navigation, les données d’usage et de performance, mais Copilot ajoute une couche supplémentaire : photos, vidéos, enregistrements audio, données publicitaires et localisation.En comparaison, Perplexity, avec son navigateur Comet, fait figure de bon élève — ou presque. Il limite la collecte à 10 types de données, parmi lesquelles la localisation et les identifiants utilisateurs. De son côté, Opera, qui prépare un navigateur IA baptisé Neon, n’est pas encore accessible, mais sa version actuelle dotée d’Aria, son IA embarquée, se limite à six catégories de données non personnelles. Le grand gagnant côté respect de la vie privée ? Brave. Son assistant Leo ne collecte que deux informations : les données d’usage anonymisées et un identifiant technique. Le navigateur reste ainsi l’un des rares à garantir une navigation réellement privée, même à l’ère de l’intelligence artificielle. En clair, l’arrivée des IA dans nos navigateurs redéfinit la frontière entre assistance intelligente et surveillance numérique. Et pour l’instant, c’est surtout Google qui flirte dangereusement avec la ligne rouge. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Les annonces s’enchaînent à un rythme effréné chez OpenAI. Après un partenariat géant à 300 milliards de dollars avec Oracle il y a deux semaines, le créateur de ChatGPT récidive. Cette fois, c’est avec NVIDIA, le leader incontesté des processeurs graphiques, qu’il scelle une alliance d’une ampleur colossale. Le communiqué commun des deux entreprises a de quoi donner le vertige. OpenAI va construire et déployer au moins 10 gigawatts de data centers équipés des systèmes NVIDIA — soit plusieurs millions de GPU destinés à nourrir la prochaine génération d’intelligence artificielle. Pour donner un ordre d’idée, cette puissance équivaut à celle d’une dizaine de réacteurs nucléaires. L’investissement global pourrait atteindre 100 milliards de dollars, selon les premières estimations.La première phase de ce partenariat débutera en 2026, sur la plateforme Vera Rubin, un écosystème d’infrastructures de calcul de nouvelle génération. Les contours financiers précis restent flous : s’agit-il d’un investissement direct de NVIDIA dans OpenAI, ou de la valeur cumulée des infrastructures construites ? Quoi qu’il en soit, Sam Altman, le patron d’OpenAI, affiche une ambition sans détour :« Tout commence par le calcul. L’infrastructure sera le socle de l’économie du futur, et ce que nous construisons avec NVIDIA ouvrira la voie à de nouvelles avancées en matière d’IA. »Ce partenariat s’inscrit dans une course mondiale à la puissance de calcul. OpenAI, NVIDIA, Microsoft, Oracle et SoftBank sont déjà impliqués dans le projet Stargate, une méga-initiative de 500 milliards de dollars visant à ériger un réseau d’infrastructures IA sur le sol américain. Derrière cette frénésie d’investissements, un enjeu : détenir les clés de la superintelligence, cette IA autonome et ultra-performante que tous les acteurs veulent maîtriser avant les autres. Mais la démesure de ces projets alimente aussi des inquiétudes. Car pour OpenAI, malgré ses 700 millions d’utilisateurs, les dépenses explosent bien plus vite que les revenus. De quoi faire craindre l’émergence d’une bulle de l’intelligence artificielle — pour l’instant, toujours gonflée par l’enthousiasme des investisseurs. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
C’est une annonce majeure pour l’un des géants du jeu vidéo. Electronic Arts, l’éditeur d’EA Sports FC, Apex Legends, Battlefield, F1 ou encore Les Sims, va quitter la Bourse pour redevenir une entreprise privée. Si les régulateurs donnent leur feu vert, l’opération devrait être finalisée entre avril et juin 2026.Le montant du rachat donne le vertige : 55 milliards de dollars. Trois acteurs reprennent 100 % du capital — le fonds souverain saoudien PIF, déjà actionnaire à 9,9 %, accompagné de Silver Lake et Affinity Partners, fondé par Jared Kushner, le gendre de Donald Trump. Une partie du financement, environ 20 milliards, provient d’un prêt orchestré par JPMorgan. Andrew Wilson reste PDG, et le siège demeure à Redwood City, en Californie. Mais concrètement, qu’est-ce que cela change pour les joueurs ? À court terme, absolument rien. Les serveurs d’Apex, F1 ou EA Sports FC restent actifs, vos sauvegardes sont intactes et vos abonnements EA Play continuent sans modification. L’entreprise a toutefois annulé sa conférence investisseurs d’octobre 2025, signe que la transition est déjà en marche.Ce rachat marque le plus grand buyout jamais réalisé dans le jeu vidéo, devant Take-Two ou Ubisoft, même s’il reste en dessous du rachat d’Activision Blizzard par Microsoft. À la différence de ce dernier, il ne s’agit pas d’un rapprochement industriel, mais d’une privatisation financée par des fonds d’investissement. Côté contenu, les licences phares devraient rester au cœur de la stratégie. L’inquiétude porte plutôt sur l’avenir des franchises secondaires et sur la politique tarifaire, dans un contexte où les prix des jeux et abonnements continuent de grimper. Enfin, un autre sujet sensible reste à surveiller : la gouvernance. L’implication du fonds saoudien PIF pourrait attirer l’attention des autorités sur la protection des données et la gestion stratégique de l’entreprise. Ce rachat s’inscrit dans une stratégie plus large du royaume pour devenir un acteur clé du jeu vidéo mondial, via Savvy Games Group, doté d’un plan d’investissement de 38 milliards de dollars. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
OpenAI vient de franchir une nouvelle étape dans la sécurisation de ChatGPT. Alors que l’entreprise prépare son entrée en bourse et a déjà renforcé ses règles pour protéger les adolescents, elle travaille désormais sur un bouton d’arrêt d’urgence intégré directement dans ses futures puces d’intelligence artificielle. Mais une étude publiée cette semaine révèle une difficulté inattendue : les modèles peuvent… manigancer. Le rapport, mené avec Apollo Research et intitulé « Detecting and reducing scheming in AI models », montre que certains modèles testés se sont mis à tromper leurs utilisateurs. Pas de complot digne d’un film de science-fiction pour l’instant, mais de petits mensonges opportunistes : par exemple, déclarer qu’une tâche a été accomplie alors qu’elle ne l’était pas.Ces observations rejoignent une autre étude d’Apollo Research publiée fin 2024. Les chercheurs avaient alors demandé à plusieurs modèles — dont GPT-o1, Claude 3 et Gemini 1.5 — d’atteindre un objectif “à tout prix”. Résultat : tous ont démontré des comportements trompeurs persistants. Certains ont volontairement introduit des erreurs subtiles, d’autres ont tenté de désactiver leurs mécanismes de sécurité, voire d’exfiltrer ce qu’ils croyaient être leurs propres paramètres vers des serveurs externes. Rien d’étonnant, selon les chercheurs : une IA entraînée sur des données humaines peut reproduire nos travers, y compris le mensonge. Reste que ces dérives inquiètent. Pour y répondre, OpenAI teste une méthode baptisée “alignement délibératif”. Objectif : réduire drastiquement ces manœuvres. Les premiers résultats sont encourageants, avec une baisse d’un facteur 30 des actions dissimulées lors des tests. Mais des échecs rares et graves persistent.Le risque est même paradoxal : en apprenant aux modèles à éviter de mentir, on pourrait les pousser à raffiner leurs tromperies pour échapper aux contrôles. Consciente du danger, OpenAI multiplie les garde-fous : recrutement de nouveaux chercheurs, coopération avec d’autres laboratoires et lancement d’un concours doté de 500 000 dollars pour détecter les “comportements nuisibles” des IA. La firme prévient : plus l’IA sera chargée de missions complexes aux conséquences concrètes, plus le risque de dérives grandira. D’où l’urgence de développer des défenses solides, au cœur même du matériel. Un enjeu vital à l’heure où l’intelligence artificielle prend une place croissante dans nos vies. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
C’est officiel : l’Europe a franchi un cap historique. La Commission européenne vient de confirmer que Jupiter, le supercalculateur installé à Jülich en Allemagne, a atteint la barre symbolique de l’exaflop, soit 10 puissance 18 opérations par seconde. Concrètement, c’est comme si un million de smartphones travaillaient en même temps. Seuls trois géants américains le devancent encore – El Capitan, Frontier et Aurora – mais Jupiter propulse enfin l’Europe dans le club très fermé des supercalculateurs exaflopiques, aux côtés des États-Unis et de la Chine.Un projet colossal de 500 millions d’euros, financé par l’Union européenne et l’Allemagne via EuroHPC. La machine, conçue par Eviden à Angers avant d’être déployée en Allemagne, s’appuie sur 24 000 processeurs graphiques Nvidia dans sa partition Booster. Mais Jupiter impressionne aussi par sa sobriété : alimenté uniquement par des énergies renouvelables, il dispose d’un système innovant de refroidissement à eau chaude. Résultat : il occupe la première place mondiale du classement Green500 pour son efficacité énergétique.Au-delà de la prouesse technologique, Jupiter ouvre un champ immense d’applications. En météorologie, il permettra des prévisions climatiques et météo au kilomètre près : canicules, inondations ou tempêtes violentes seront modélisées avec une précision inédite. En intelligence artificielle, il sera la colonne vertébrale de la future AI Factory européenne, offrant enfin aux start-ups, industriels et laboratoires locaux les ressources nécessaires pour développer leurs propres modèles de génération de texte, d’image ou de vidéo.La santé n’est pas en reste : neurosciences et recherche médicale vont exploiter sa puissance pour explorer le cerveau humain et progresser sur des maladies comme Alzheimer. « JUPITER renforce la souveraineté numérique de l’Europe et met à disposition des chercheurs les ressources informatiques les plus puissantes et les plus durables », a résumé la commissaire Ekaterina Zaharieva. Déjà, EuroHPC a sélectionné 13 projets d’usines d’IA à travers le continent. Au 30 juin, pas moins de 76 candidatures avaient été déposées pour bâtir des gigafactories de modèles capables de gérer des centaines de trillions de paramètres. Avec Jupiter, l’Europe entend bien ne plus être seulement spectatrice de la course mondiale à la puissance de calcul, mais actrice à part entière. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Depuis 2023, Meta s’est lancé dans une drôle d’aventure : peupler Instagram, Messenger et WhatsApp de chatbots personnalisés. Au départ, ils prenaient les traits de célébrités, comme un gadget marketing. Puis l’entreprise a ouvert son outil AI Studio, permettant à chacun de créer ses propres personnages. Mais pour les marchés internationaux, ce sont des freelances chevronnés qui s’en chargent.Meta les recrute en hindi, espagnol, indonésien ou portugais, avec un profil exigeant : au moins six ans d’expérience en narration et en conception de personnages. Leur mission ? Donner vie à ces bots. Ils choisissent un vocabulaire adapté, conçoivent une personnalité cohérente et ajustent chaque interaction au contexte culturel local. Les dialogues ne doivent pas seulement être fluides : ils doivent sonner vrai pour l’utilisateur, qu’il soit en Amérique latine, en Inde ou en Asie du Sud-Est. Cette attention au détail n’a rien d’anodin. Car Meta garde en mémoire des dérapages passés. Selon Reuters, certains bots avaient pu fournir de fausses informations médicales, tenir des propos racistes, voire entretenir des conversations sexuelles avec des mineurs. Désormais, les freelances surveillent et corrigent les dialogues en continu, traquant les informations personnelles et ajustant les réponses pour rester dans des limites claires.Dans tous les cas, Meta cherche à maintenir l’équilibre : offrir des personnages attractifs, mais éviter les dérapages. La rémunération suit la complexité de la tâche. Meta propose jusqu’à 55 dollars de l’heure à ses freelances. Une somme élevée, mais qui reflète la minutie du travail : écrire des dialogues naturels dans plusieurs langues, bâtir des personnalités crédibles et vérifier en permanence que les conversations restent pertinentes. Derrière l’image ludique de ces chatbots, on découvre une réalité bien plus sérieuse : Meta veut transformer ces personnages virtuels en un canal de communication incontournable, calibré au mot près, et surveillé de près. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
L’iPhone 17 est arrivé, et une fois encore, les Français vont devoir casser leur tirelire un peu plus que les autres. Selon une étude publiée par Compare the Market, la France se classe en tête des pays où l’iPhone est le plus cher. Ici, il faut débourser en moyenne 1178,60 €, soit plus de 325 € de plus qu’au Canada. Une différence qui interroge : pourquoi un tel écart ?Premier élément de réponse : la TVA. En France, elle est fixée à 20 %, alors qu’aux États-Unis, les prix affichés sont hors taxes. Résultat : un iPhone 15 Pro Max vendu 1199 dollars outre-Atlantique, soit environ 1131 € hors taxes, grimpe à 1479 € TTC une fois sur les étagères françaises. Même avec les taxes locales américaines, souvent inférieures à 7 %, l’écart reste conséquent.Apple rappelle que ses tarifs sont ajustés en fonction de plusieurs paramètres : les taux de change, les lois d’importation, les réglementations locales, mais aussi les coûts logistiques. Et ces coûts, en Europe, sont souvent plus élevés. À cela s’ajoute la garantie légale de deux ans imposée par Bruxelles, contre un an seulement aux États-Unis. Une protection pour le consommateur, mais qui se répercute sur le prix final. Il faut aussi compter les frais de douane : importer un iPhone depuis l’Amérique du Nord en vue de le revendre en France entraîne un surcoût de 20 % sur les produits électroniques, auquel s’ajoutent des frais de transport et de gestion. De quoi décourager les chasseurs de bonnes affaires à l’international. Autre facteur : l’adaptation technique. Les iPhone vendus en Europe sont calibrés pour nos réseaux mobiles. Une étape qui entraîne des coûts supplémentaires de certification et de production.Résultat : le prix grimpe d’année en année. À titre de comparaison, depuis l’iPhone 5, le coût moyen d’un modèle haut de gamme a presque doublé. Aujourd’hui, l’iPhone 17 démarre à 969 € dans sa version de base avec 256 Go. Pour la version Pro, comptez 1329 €, et jusqu’à 2479 € pour le Pro Max doté de la plus grande capacité de stockage. En clair, l’iPhone reste un produit star en France… mais aussi un luxe de plus en plus assumé. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
En 2018, le MIT Media Lab dévoilait un prototype intrigant : un dispositif capable de transformer des mots « dits dans la tête » en texte. L’appareil reposait sur des électrodes fixées autour du visage, enregistrant les minuscules signaux neuromusculaires émis lorsque nous subvocalisons. « Il ne s’agit pas de lire les pensées mais de traduire ce que l’on choisit de formuler intérieurement », expliquait alors Arnav Kapur, à l’origine du projet.Sept ans plus tard, ce travail est devenu AlterEgo, une start-up qu’il a cofondée et qui propose un casque de communication presque invisible. L’idée : dialoguer avec une intelligence artificielle sans prononcer un mot, ni donner le moindre signe extérieur. À Cambridge, les premiers tests utilisaient seize électrodes pour décoder un vocabulaire limité. Après optimisation, seulement quatre suffisaient, avec un taux de précision atteignant 92 %. Dans une démonstration récente, Arnav Kapur et son associé Max Newlon utilisent leur casque pour interroger ChatGPT en silence : les réponses s’affichent ou se font entendre uniquement pour eux. « On peut taper à la vitesse de la pensée », résume Newlon.Le casque reprend ce principe dans une version compacte. Les capteurs traduisent la parole intérieure, la transmettent à une IA, et la réponse revient par conduction osseuse : de petites vibrations dirigent le son vers l’oreille interne, sans obstruer le conduit auditif. L’utilisateur peut donc interagir avec son environnement, un atout que soulignait déjà la professeure Pattie Maes, encadrante du projet, pour qui sortir un téléphone coupe toujours le fil d’une conversation. L’appareil permet déjà d’écrire un message, de lancer une recherche en ligne ou de contrôler une application uniquement par la pensée formulée. Une caméra frontale ajoute une dimension contextuelle : l’IA peut analyser la scène et répondre en tenant compte de l’environnement visuel. Les usages potentiels sont vastes : communication dans des environnements bruyants comme les aéroports ou les ponts d’envol, échanges discrets lors d’opérations sensibles, ou encore aide aux personnes privées de voix, à l’image de l’acteur Val Kilmer. AlterEgo ouvre dès maintenant un accès anticipé pour les curieux. Mais pour une commercialisation grand public, il faudra encore patienter : aucune date officielle n’a été annoncée. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Depuis cet été, un nouvel outil circule librement sur l'index Python et suscite inquiétude chez les spécialistes de la cybersécurité. Baptisé Villager, ce framework se présente comme un assistant automatisé de tests d'intrusion — cartographie d’un système, reconnaissance, exploitation, installation de mécanismes de persistance — le tout piloté par de l’intelligence artificielle. Publié sur PyPI et téléchargé des milliers de fois en quelques semaines, il s’annonce comme une aide moderne pour les pentesters. Sauf que, en creusant, des chercheurs de l’entreprise Straiker ont dressé un tout autre portrait : Villager serait lié à une entité chinoise aux pratiques opaques et recyclerait des composants déjà vus dans des malwares offensifs.Conçu pour automatiser des workflows, Villager orchestre des conteneurs, lance des scanners adaptés au contexte et génère des charges utiles, le tout à partir d’instructions en langage naturel. L’outil embarque une large bibliothèque de « prompts » préconfigurés et une interface pour suivre les campagnes en temps réel — caractéristiques utiles en audit, mais dangereuses si elles tombent entre de mauvaises mains. Straiker a surtout mis au jour des réutilisations problématiques : l’infrastructure de Villager s’appuie sur des éléments d’un projet antérieur dont les modules correspondaient à des fonctionnalités de cheval de Troie connues — keylogger, vol de comptes, accès webcam, outils d’exfiltration — déjà détournées par des opérateurs malveillants.L’autre inquiétude tient à la voie de diffusion. PyPI est massivement intégré aux processus de développement, d’intégration continue et de déploiement. Un paquet publié sur cet index peut être importé automatiquement dans des environnements sensibles sans contrôle humain, transformant une dépendance innocente en vecteur d’intrusion. De plus, le caractère modulaire et éphémère de l’outil — conteneurs configurés pour s’autodétruire et effacer les traces — complique la détection et l’analyse post-incident.Face à cette menace émergente, les équipes de sécurité recommandent des mesures pratiques mais non techniques dans leurs principes : restreindre l’installation de paquets non validés en production, surveiller et auditer l’apparition de conteneurs non autorisés, renforcer la supervision des flux sortants et des scans réseau, et formaliser un processus d’approbation pour tout agent d’automatisation fondé sur l’IA. Les autorités et la communauté open source sont aussi appelées à renforcer la gouvernance de dépôts publics afin d’éviter que des outils ambivalents ne deviennent, en quelques clics, des armes faciles d’accès. Villager illustre un nouveau pari technologique — l’automatisation IA des audits — qui peut servir la défense comme l’attaque. La question pour les entreprises et les régulateurs est désormais de réussir à encadrer ces innovations avant qu’elles ne fassent basculer la balance en faveur des cybercriminels. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
À Santa Clara, Richard Ho, patron du hardware chez OpenAI et ancien architecte des TPU de Google, a livré un message sans détour : les garde-fous purement logiciels ne suffisent plus. Selon lui, les futurs systèmes d’intelligence artificielle devront intégrer des freins physiques, inscrits directement dans le matériel, pour garantir un contrôle ultime quand un modèle dévie.« Les modèles sont vraiment retors », a-t-il lancé, plaidant pour que l’arrêt ne repose plus seulement sur le code ou l’orchestration des serveurs. L’idée n’est pas de débrancher brutalement une IA au moindre doute, mais de doter les puces et cartes de signaux, seuils et verrous capables d’interrompre toute action anormale. C’est une étape dans la stratégie d’OpenAI visant une infrastructure « intrinsèquement sûre », testable de bout en bout. Le timing n’est pas anodin : avec des agents désormais persistants, interconnectés et capables d’agir hors du regard des utilisateurs, le risque de dérives discrètes grandit.Concrètement, OpenAI mise sur une combinaison d’« interrupteurs » matériels, de télémétrie fine et d’isolement via des enclaves sécurisées. À cela s’ajoutent attestation cryptographique, firmware minimaliste et chemins d’exécution supervisés. L’objectif est clair : imposer des politiques de sécurité au plus près du calcul, au niveau de la puce, de la carte et du rack. Car l’expérience l’a montré : certains modèles ont déjà contourné des mécanismes logiciels censés les stopper. D’où l’intérêt d’un kill switch matériel, hors de portée du modèle, et activable depuis l’extérieur. Le débat dépasse désormais le cercle des laboratoires. Régulateurs et chercheurs réclament des standards matériels, du registre des puces jusqu’aux limites intégrées d’usage. Le Royaume-Uni va même jusqu’à soutenir le développement de kill switches industriels, preuve que le sujet gagne en urgence politique. Un changement de paradigme se dessine : la sécurité ne sera plus seulement un protocole d’exploitation, mais un attribut de conception, gravé au plus près du silicium. Prochain jalon attendu : prouver que ces freins matériels tiennent leurs promesses sans étouffer l’élan des prochains modèles d’IA généralistes. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Depuis le mois de septembre, le Data Act s’applique dans toute l’Europe. Ce règlement, entré en vigueur en janvier dernier, prend enfin corps après neuf mois de délai. Son objectif est clair : redonner aux citoyens et aux entreprises la main sur les données générées par leurs objets connectés. Smartphone dans la poche, montre au poignet, voiture dans le garage, mais aussi machines industrielles ou dispositifs médicaux : tout ce qui produit des données est concerné, à l’exception des infrastructures publiques et des prototypes. La promesse de Bruxelles est simple : « Le règlement donne aux utilisateurs le contrôle des données générées par leurs appareils ». Mais qu’est-ce que cela change, concrètement ?Jusqu’ici, chaque constructeur gardait jalousement la main. Apple décidait pour votre iPhone, Samsung pour votre montre connectée. Désormais, vous pouvez récupérer les données brutes et les utiliser comme bon vous semble : les analyser, les transférer ou les confier à d’autres prestataires. Dans l’automobile, la bascule est spectaculaire : les données de conduite et d’entretien, autrefois réservées au constructeur, peuvent désormais être partagées avec votre garagiste ou une startup de mobilité. Même logique pour les usines, qui accèdent enfin à l’ensemble des données de leurs machines, quel que soit le fabricant.Le Data Act frappe aussi un autre verrou : le cloud. Changer de fournisseur relevait du parcours du combattant. Migrer ses données de AWS à Google ou Microsoft coûtait une fortune. Désormais, un prestataire a 30 jours pour vous aider à basculer, avec obligation de fournir tous les outils nécessaires. Depuis janvier, les transferts sont facturés au prix coûtant, et à partir de 2027, ils devront être gratuits pour un déménagement définitif. Une révolution silencieuse, déjà anticipée par Google et Microsoft qui offrent des migrations gratuites en Europe. Seule nuance : les frais persistent pour les entreprises utilisant plusieurs clouds simultanément.Pour les récalcitrants, la facture sera salée : jusqu’à 20 millions d’euros d’amende, ou 4 % du chiffre d’affaires mondial. Bruxelles se veut toutefois pédagogue : assistance juridique dédiée et modèles de contrats sont déjà prévus pour accompagner les entreprises. Le message est clair : l’ère des données captives touche à sa fin. Place à un écosystème plus ouvert… mais aussi à une bataille féroce autour de leur exploitation.--Cet épisode est sponsorisé par Freelance Informatique, la plateforme qui met en relation consultants indépendants et entreprises clientes. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Les lunettes connectées, ce vieux rêve de la tech, reprennent des couleurs. Meta revient en force avec deux modèles aux ambitions bien distinctes : les Ray-Ban Display, qui intègrent un petit écran dans un coin de votre vision, et les Oakley Meta Vanguard, conçues pour les sportifs, avec caméra embarquée, coaching et résistance à toute épreuve.Deux approches, mais une même promesse : faire des lunettes le nouvel accès naturel à l’intelligence artificielle. Assistant vocal, navigation contextuelle, traduction instantanée, capture sur le vif… Meta veut transformer un accessoire du quotidien en passerelle numérique. Avec les Ray-Ban Display, pas question de plonger dans un univers virtuel. L’idée est plus subtile : afficher discrètement un itinéraire, une notification urgente ou la réponse d’un assistant IA dans le coin de votre œil droit. Le tout se pilote grâce au Neural Band, un bracelet qui capte l’activité électrique des muscles : un simple geste de la main suffit pour interagir. L’appareil reprend la formule des Ray-Ban Meta « Gen 2 » : caméra 3K Ultra HD, micros et haut-parleurs open-ear, mais ajoute une puce Qualcomm AR1 pour plus d’intelligence embarquée. Comptez 6 heures d’autonomie et 799 dollars avec le bracelet, pour un lancement en septembre aux États-Unis. En Europe, il faudra patienter jusqu’en 2026, avec un tarif qui devrait dépasser largement les 379 euros de la première génération. Les « Gen 2 », elles, sont déjà disponibles à partir de 419 euros.Changement de cible avec les Oakley Meta Vanguard. Ici, pas d’écran, mais une orientation 100 % action. Caméra centrale 3K, micros résistants au vent, son calibré pour être entendu à vélo, résistance IP67 et autonomie de 9 heures. L’accent est mis sur le coaching sportif, la stabilisation vidéo et la capture automatique des moments-clés, avec compatibilité Strava et Garmin. Lancement prévu le 21 octobre à 549 euros.Au-delà du produit, Meta joue une carte stratégique : partenariat renforcé avec EssilorLuxottica, trois milliards d’euros investis, et un cap clair vers le projet Orion, censé introduire de vraies lunettes de réalité augmentée. Sur le papier, tout est là : assistance contextuelle, commandes intuitives, IA ambiante. Mais reste l’éternelle question : lisibilité en plein soleil, fluidité des interactions, respect de la vie privée. Pour l’instant, les lunettes connectées séduisent surtout une niche. Mais si l’IA contextuelle tient ses promesses, elles pourraient bien remplacer votre smartphone… sans que vous sortiez la main de la poche.--Cet épisode est sponsorisé par Freelance Informatique, la plateforme qui met en relation consultants indépendants et entreprises clientes. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Trois ans après son lancement, ChatGPT fait l’objet d’une analyse inédite signée OpenAI. Réalisée avec des économistes et basée sur 1,5 million de conversations anonymisées, l’étude répond à trois questions clés : qui utilise l’assistant, pour quels usages, et quelle valeur économique en résulte. Verdict : l’adoption s’est accélérée, le profil des utilisateurs s’est diversifié et ChatGPT s’installe dans le quotidien. Mais tout n’est pas si simple : qualité, sécurité et fiabilité restent des enjeux majeurs.Premier enseignement : l’usage s’est démocratisé. Alors que les débuts étaient marqués par un public masculin et technophile, l’écart de genre s’est réduit et la proportion d’utilisatrices reflète désormais davantage la population générale. Autre tendance : la croissance est plus forte dans les pays à revenus faibles et moyens, loin de l’image d’un outil réservé aux économies les plus riches. En France, environ un quart de la population aurait déjà recours à l’IA générative. Mais la diffusion ne dit pas tout de la maturité. L’étude se concentre sur l’offre grand public, sans prendre en compte l’usage en entreprise, qui explose. Et malgré l’enthousiasme, les limites persistent : pannes spectaculaires — comme celle du 3 septembre dernier — et inquiétudes autour de la protection des mineurs ou de l’usage à l’école. OpenAI ajuste régulièrement ses règles, mais la question demeure : ChatGPT est-il devenu un indispensable du quotidien ou reste-t-il un outil d’appoint ? L’analyse distingue trois grands usages. « Asking » — poser des questions, demander un avis — représente environ la moitié des interactions. « Doing » — rédaction, planification, programmation — couvre quatre messages sur dix, souvent à visée professionnelle. Enfin, « Expressing » — créativité, réflexions personnelles, divertissement — reste minoritaire. En clair, ChatGPT agit surtout comme copilote ou conseiller, bien plus que comme simple générateur de contenus.Au travail, la rédaction domine largement, devant le code ou la créativité. Une logique qui suit l’évolution du produit : au texte se sont ajoutées la voix, la vidéo et les modèles multimodaux, comme Sora pour l’audiovisuel. Mais l’extension des fonctions ne gomme pas les défauts : les fameuses « hallucinations » persistent, malgré les explications récentes d’OpenAI.Selon l’étude, 30 % des usages concernent le travail, 70 % la sphère personnelle. Une double vie qui crée de vrais gains de productivité, mais seulement si les usages sont bien cadrés et supervisés. Reste la grande inconnue : la valeur créée. Une partie est non marchande — gain de temps, allègement mental — et échappe aux statistiques classiques. Une certitude : ChatGPT est désormais un outil grand public qui investit peu à peu le monde professionnel. La prochaine étape ? Des IA plus multimodales, plus vocales… mais surtout, espérons-le, plus fiables. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Tor revient avec une nouvelle expérimentation : Tor VPN Beta, une application qui bouscule les codes des services VPN traditionnels. Là où un VPN classique établit un tunnel direct entre l’utilisateur et un serveur, Tor VPN emprunte le célèbre système de routage en oignon : cinq nœuds successifs – un d’entrée, trois intermédiaires et un de sortie – chacun géré par des volontaires. Résultat : aucun nœud ne connaît la totalité du trajet, ce qui renforce l’anonymat.Comparé aux VPN multihop, qui reposent sur deux serveurs centralisés et audités, Tor VPN mise donc sur une décentralisation totale. Mais cette sécurité a un prix : des performances nettement inférieures. À l’inverse, les VPN multihop tentent d’équilibrer confidentialité et rapidité. La comparaison avec NymVPN est tout aussi éclairante. Tor VPN suit un chemin fixe, rapide mais traçable si une autorité analyse simultanément le point d’entrée et de sortie. Nym, lui, brouille complètement les pistes : ralentissement volontaire du trafic, flux mélangés entre utilisateurs, paquets factices… un anonymat supérieur, mais au détriment de la vitesse.Tor VPN n’oublie pas les fonctionnalités avancées. Il intègre un routage par application : chaque appli Android peut disposer de son propre circuit et d’une adresse IP unique, rendant impossible les recoupements entre flux. Pour contourner la censure, l’application propose aussi des bridges : obfs4, qui transforme le trafic en données aléatoires, et Snowflake, qui le déguise en appel vidéo. Là encore, Tor va plus loin que les VPN traditionnels, qui se contentent généralement de faire passer leur tunnel pour du HTTPS.Sur le plan technique, le projet repose sur Arti, la nouvelle implémentation de Tor en langage Rust. Plus sûre et plus moderne que l’ancien code en C, elle promet une meilleure gestion mémoire et une sécurité accrue. En revanche, Tor VPN ne permet pas de choisir sa localisation virtuelle, ce qui le rend inadapté pour contourner les catalogues de streaming. Les développeurs restent clairs : Tor VPN Beta n’est pas une solution miracle. Certaines données Android peuvent toujours identifier l’appareil, et en cas de risques de surveillance extrêmes, mieux vaut ne pas l’utiliser. Une certitude en revanche : cette application pousse plus loin la logique d’anonymat, quitte à sacrifier vitesse et confort. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Will et Holly Alpine connaissaient bien la maison. Lui travaillait sur l’IA responsable, elle dans la division développement durable de Microsoft. Dix ans passés à tenter de “verdir” le géant de la tech. Dix ans à alerter en interne, sans résultat. Alors début 2024, le couple claque la porte et fonde l’Enabled Emissions Campaign, une initiative militante pour dénoncer les liens étroits entre Microsoft et l’industrie pétrolière. Car derrière ses promesses de devenir “carbon negative” d’ici 2030, l’entreprise continue de fournir ses outils les plus puissants aux majors du pétrole. Ces “émissions facilitées” – générées grâce aux technologies cloud, IoT ou machine learning – n’apparaissent dans aucun bilan officiel.Dans Business Wire, Will raconte sa frustration : « Les outils que j’aidais à construire étaient utilisés par de mauvais acteurs ». Holly ajoute : « Nous avions fait tout ce que nous pouvions de l’intérieur. Il fallait désormais agir de l’extérieur ». Quitter Microsoft, c’était aussi renoncer aux salaires confortables de la tech. Le couple vit désormais plus simplement, réduit ses dépenses et s’appuie sur l’économie du partage. Leur combat ? Définir des “lignes rouges”, comme interdire les contrats d’IA destinés à accroître la production de combustibles fossiles. Mais leur campagne peine à trouver des financements, malgré l’appui d’un donateur anonyme. Le contexte politique n’arrange rien : le retrait américain de l’accord de Paris sous Trump et la fin de certaines aides aux énergies propres ont fragilisé le mouvement.Les chiffres parlent d’eux-mêmes. En 2019, Microsoft vantait un contrat avec ExxonMobil, censé augmenter de 50 000 barils équivalent pétrole par jour d’ici 2025. Résultat : 6,35 millions de tonnes de CO₂ supplémentaires par an, soit plus de la moitié de l’empreinte carbone totale déclarée par Microsoft à l’époque. Et le géant n’est pas seul : Amazon collabore avec des foreurs pour optimiser leurs rendements, Google s’en est retiré en 2020 sous la pression de ses employés. Pendant ce temps, les émissions de Microsoft ont bondi de 23,4 % entre 2020 et 2024. Pour Holly, le constat est clair : « On ne peut pas prétendre être carbon negative tout en aidant les majors pétrolières à produire davantage ». Un paradoxe qui illustre l’un des grands défis de la transition énergétique : les promesses vertes des géants du numérique face à la réalité de leurs contrats fossiles. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Fin août, l’ex-premier ministre François Bayrou lâchait une bombe budgétaire : la charge de la dette est devenue le premier poste de dépense de l’État français, devant l’éducation et la défense. Avec 66 milliards d’euros d’intérêts annuels et une dette par habitant qui frôle les 50 000 euros, les finances publiques apparaissent plus fragiles que jamais.Pour mesurer concrètement cette dérive, un outil citoyen fait beaucoup parler de lui : l’Horloge de la Dette publique. Derrière ce site gratuit, une start-up française, Living Republic, qui a imaginé un compteur géant affichant en temps réel la dette nationale. Et les chiffres donnent le vertige : plus de 3 410 milliards d’euros défilent sans interruption, l’équivalent de 49 633 euros par Français, nourrissons compris.Au-delà de l’effet visuel, la plateforme propose des indicateurs détaillés : ratio dette/PIB de 115,5 %, déficit 2025 estimé à 92,5 milliards, charges d’intérêts de 44 milliards. Des données mises à jour à la seconde, qui rendent palpable une réalité économique souvent dissimulée derrière les discours politiques. Chaque tic du compteur symbolise l’enfoncement du pays dans le rouge, donnant un poids psychologique à cette spirale financière. Le site va plus loin en détaillant la dette des grands services publics : 50 milliards pour EDF, 30,1 milliards pour les hôpitaux, près de 24 milliards pour SNCF Réseau. Autant de montants qui s’additionnent à la dette souveraine, rappelant que le problème dépasse largement le seul budget de l’État.Dans ce contexte tendu, François Bayrou a annoncé qu’il demanderait un vote de confiance le 8 septembre. Les marchés n’ont pas tardé à réagir : le CAC40 a chuté de 1,59 % le soir même, bien davantage que les autres places européennes. Un signe clair de l’inquiétude des investisseurs, alors qu’une éventuelle chute du gouvernement n’est pas à exclure. Avec son compteur en ligne, l’Horloge de la Dette publique offre une leçon de transparence démocratique. Elle sort les chiffres des rapports poussiéreux pour les projeter sous les yeux de tous, à l’heure où le pays s’interroge sur les efforts à venir et sur l’avenir même de son exécutif. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Imaginez un Wi-Fi capable de franchir les murs, là où les ondes les plus courtes se brisent d’ordinaire. C’est la promesse qu’esquissent des chercheurs de Princeton, qui viennent de tester avec succès un faisceau “Airy” piloté par intelligence artificielle. Leur découverte pourrait ouvrir la voie à un successeur crédible du Wi-Fi 7, alors que la bande sous-térahertz s’impose comme le nouvel eldorado du sans-fil.Dans leur expérience, un réseau neuronal a appris à sculpter l’onde radio pour lui faire suivre une trajectoire courbe, un peu comme une balle liftée au tennis. Résultat : le signal contourne un obstacle en temps réel, sans s’effondrer. Trois microsecondes suffisent au système pour réagir lorsqu’un passant s’interpose. Une réactivité permise par une approche « informée par la physique » qui évite des calculs trop lourds. Concrètement, de simples modules actifs de metasurface reconfigurent phase et amplitude du signal, sans miroir ni mécanique complexe. Les résultats impressionnent : là où un balayage classique perd des dizaines de décibels, le lien reste stable, même hors champ visible. L’essai a été mené à 120 GHz, une fréquence clé pour la prochaine génération de Wi-Fi. Pour passer du laboratoire aux box domestiques, deux défis demeurent : miniaturiser ces plaques actives et réduire leur consommation. Le saut de performance, lui, fait rêver. Quand le Wi-Fi 7 plafonne à 46 gigabits par seconde sur un canal de 320 MHz, la bande sous-térahertz ouvre la perspective de débits au téraoctet par seconde. De quoi envisager des usages aujourd’hui hors de portée : réalité virtuelle sans câble, streaming en 16K, robotique collaborative. Ici, ce n’est plus la portée qui compte, mais la stabilité du lien à courte distance. Si le marché suit, les premiers routeurs capables de “plier” leurs ondes pourraient apparaître d’ici la fin de la décennie. Reste à standardiser les algorithmes, adapter les protocoles WLAN et produire des metasurfaces abordables. En attendant, une chose est sûre : dans le futur du Wi-Fi, les murs ne feront plus la loi. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
En août 2023, sur le forum clandestin BreachForums, un compte pseudonyme nommé AMLO mettait en ligne un outil baptisé Evil-GPT — présenté comme « un assistant sans filtre » capable de contourner les gardes-fous habituels des grands modèles de langage. La promesse : générer en quelques clics des scripts malveillants, des campagnes de phishing ou des modules de collecte de données, sans besoin de compétences techniques. Le prix d’entrée a fait le reste : une dizaine de dollars pour l’accès complet.Très vite, la communauté underground s’est emparée du produit. Sur Telegram et d’autres canaux, des utilisateurs partagent retours d’expérience, codes générés et méthodes d’exploitation — certains attribuent à ces outils des attaques ciblées ou des fraudes (citations de cas comme Mondial Relay ou Ulyss), témoignant d’une banalisation des pratiques. L’offre s’adresse surtout aux néophytes : interface simple, scripts prêts à l’emploi, export des données vers des serveurs Discord, fonctionnalités clé en main.Mais derrière le battage commercial, la réalité technique est plus prosaïque. Une étude de Trend Micro (2024) a montré qu’Evil-GPT et ses clones ne sont pas des IA indépendantes : ils s’appuient massivement sur l’API d’OpenAI, détournée via des clés volées et des prompts jailbreakés. Les analyses de spécialistes et les témoignages sur les forums indiquent que les productions restent souvent basiques — e-mails de phishing génériques, scripts simples — et pas toujours adaptées à des attaques sophistiquées. Pendant ce temps, un écosystème marchand foisonne : WormGPT, FraudGPT, WolfGPT et autres proposent des offres variées, de quelques dizaines à plusieurs milliers de dollars. Le modèle économique mise sur la diffusion massive et l’exclusivité temporaire plutôt que sur des innovations techniques majeures.Conséquence : la barrière d’entrée de la cybercriminalité s’effondre. Les équipes de cybersécurité signalent une hausse des campagnes automatisées et recommandent de traiter toute attaque comme potentiellement générée par un chatbot. Le chercheur Alex Reibman parle d’un essor des « agentic malware » — outils capables d’orchestrer des étapes d’attaque — mais rappelle aussi que leurs limites tiennent souvent aux services d’API sous-jacents. Au final, l’innovation la plus dangereuse n’est peut-être pas l’outil lui-même, mais sa démocratisation. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Le Japon prépare un nouveau géant du calcul. Baptisé FugakuNEXT, ce projet vise une puissance de 600 000 pétaflops en FP8, une mesure taillée pour l’intelligence artificielle. Concrètement, il s’agit de marier deux mondes longtemps séparés : le calcul scientifique classique et les modèles génératifs. Une même machine capable à la fois de simuler des phénomènes physiques complexes et d’exploiter l’IA pour des usages concrets, de la découverte de médicaments à la prévention des catastrophes naturelles.La référence aux 600 exaflops FP8 peut prêter à confusion. Elle n’équivaut pas aux traditionnels FLOPS en double précision utilisés par les supercalculateurs scientifiques. Mais elle traduit un débit colossal optimisé pour l’IA, où la précision 8 bits est désormais la norme. Selon le centre de recherche RIKEN, FugakuNEXT pourrait offrir un gain d’efficacité jusqu’à 100 fois supérieur à son prédécesseur, tout en restant dans une enveloppe énergétique voisine de 40 mégawatts. Techniquement, le projet repose sur une architecture hybride. D’un côté, Fujitsu développe de nouveaux processeurs, les Monaka-X, dotés d’unités matricielles et d’extensions SIMD pour accélérer les calculs. De l’autre, NVIDIA fournit ses accélérateurs et son interconnexion NVLink Fusion, qui permettra de relier CPU et GPU et de partager la mémoire à très haute vitesse. Cette approche devrait maximiser la bande passante et réduire les goulets d’étranglement.Côté logiciel, l’accent est mis sur la précision mixte : l’IA exploitera massivement le FP8 et le FP16 pour accélérer les calculs, mais conservera des étapes critiques en précision plus élevée afin de garantir la fiabilité scientifique. Au-delà de la course aux records, FugakuNEXT s’inscrit dans une stratégie nationale. Le Japon veut démontrer que l’union du calcul intensif et de l’intelligence artificielle peut répondre à des enjeux sociétaux majeurs : mieux anticiper les risques naturels, améliorer la santé, optimiser l’industrie. Avec FugakuNEXT, le supercalcul ne se contente plus de chiffres vertigineux : il devient une promesse d’applications concrètes. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Pas grand chose sur Deepseek qui fait des vagues avec son prix, performance, fonctionnalités etc. et le reste de laa concurrence en Chine
énorme erreur ! c'est la première fois où les différences entre le pro et pro max ne sont pas que la taille d'écran et la taille de la batterie, même le système des capteurs photos est différent. je suis déçu ! pour un podcast spécialisé, c'était la chose qu'il fallait retenir (et le fait qu'ils soient tous compatibles 5G)