Discover
Choses à Savoir TECH

Choses à Savoir TECH
Author: Choses à Savoir
Subscribed: 1,866Played: 138,193Subscribe
Share
© Choses à Savoir
Description
Tout ce qu'il faut savoir dans le domaine de la Tech et d'Internet.
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
1228 Episodes
Reverse
En Chine, la surveillance du web prend un nouveau visage. Habitué à filtrer les sujets politiques sensibles, le gouvernement chinois lance désormais une campagne contre… le pessimisme. L’Administration du cyberespace, l’autorité chargée du contrôle d’internet, a annoncé une opération de deux mois pour supprimer les messages jugés « excessivement négatifs ou désespérés ». Officiellement, l’objectif est de « promouvoir un environnement en ligne plus harmonieux ». Concrètement, les plateformes et influenceurs chinois sont invités à diffuser davantage de messages positifs sur la société et l’avenir du pays. Selon la BBC, plusieurs créateurs populaires connus pour leur ton critique ou ironique auraient déjà vu leurs comptes suspendus sans explication.Ce durcissement intervient alors qu’une partie de la jeunesse chinoise exprime ouvertement son désenchantement face à la pression du travail et à la montée des inégalités. Un phénomène baptisé Tangping, littéralement « s’allonger à plat », s’est imposé ces dernières années. Il symbolise le refus de cette génération de s’épuiser dans le modèle du 996 – travailler de 9 h du matin à 9 h du soir, six jours sur sept. Un mode de vie qui a longtemps incarné la réussite du capitalisme chinois… mais dont beaucoup ne veulent plus. Pékin voit dans cette attitude une menace pour la productivité nationale et tente donc de reconquérir l’espace numérique, principal lieu d’expression de cette jeunesse. Les grandes plateformes, comme Weibo, Xiaohongshu ou Kuaishou, sont directement mises en cause : elles devront renforcer la modération des contenus jugés « démoralisants », sous peine de « sanctions sévères ». Ce nouveau type de contrôle illustre une évolution du modèle chinois de censure. Après la surveillance politique, place à la régulation émotionnelle, où l’État ne se contente plus de dicter ce qu’il faut penser, mais désormais ce qu’il faut ressentir. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
C’est un changement majeur qui passe presque inaperçu : LinkedIn a discrètement activé par défaut une nouvelle option baptisée « Données pour l’amélioration de l’IA générative ». En clair, vos publications publiques, vos likes, vos commentaires et même certaines informations de profil servent désormais à entraîner les modèles d’intelligence artificielle de la plateforme.Les membres ont été avertis par email d’une mise à jour de la politique de confidentialité. Le paramètre est en opt-out, autrement dit, activé automatiquement. Ceux qui veulent garder leurs données à l’abri doivent aller le désactiver manuellement, via le menu Paramètres > Confidentialité des données > Données pour l’amélioration de l’IA générative. LinkedIn assure que ces informations sont utilisées pour rendre la plateforme plus intelligente et plus efficace : amélioration de la modération, détection des fraudes, et surtout, perfectionnement des outils d’écriture automatisée comme « Rewrite with AI », qui reformule les publications pour les rendre plus percutantes. Mais la firme, filiale de Microsoft, avance aussi un argument qui fait grincer des dents : désactiver cette option pourrait réduire la visibilité d’un profil auprès des recruteurs. Si vos données ne sont pas intégrées aux modèles, votre CV pourrait tout simplement être moins bien référencé. Une incitation à laisser la porte ouverte, donc.LinkedIn précise que les messages privés et les publications à visibilité restreinte ne sont pas concernés, et que les utilisateurs européens bénéficient d’un encadrement plus strict du fait du RGPD. En revanche, les données déjà utilisées ne peuvent pas être retirées : la désactivation n’empêche que les entraînements futurs. Ce choix s’inscrit dans la stratégie plus large de Microsoft, qui intègre l’IA dans tous ses produits. Mais après plusieurs polémiques sur la confidentialité, la frontière entre innovation et intrusion devient de plus en plus floue. Une chose est sûre : sur LinkedIn, vos posts n’appartiennent plus seulement à votre réseau, mais aussi… à l’intelligence artificielle. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
C’est une consécration rare dans le monde feutré de la cybersécurité : la société française YesWeHack vient d’obtenir le statut d’autorité de numérotation CVE, autrement dit l’un des sésames les plus prestigieux du secteur. Elle devient ainsi la huitième entreprise française habilitée à attribuer ces identifiants universels de vulnérabilités, les fameux CVE — Common Vulnerabilities and Exposures.Derrière cet acronyme un peu technique se cache une mission essentielle : recenser et standardiser les failles de sécurité découvertes à travers le monde. Ces identifiants CVE servent de référence commune à toute l’industrie — des éditeurs de logiciels aux gouvernements — pour coordonner la réponse face aux menaces. Sans eux, impossible de suivre efficacement les vulnérabilités, ni d’en mesurer l’impact global.Jusqu’à présent, seules quelques grandes entreprises françaises avaient ce privilège : Thales, Schneider Electric, Dassault Systèmes, IDEMIA, Centreon, ARC Informatique et WPScan. Désormais, YesWeHack rejoint ce club très restreint, aux côtés des géants du secteur. Une reconnaissance saluée par Guillaume Vassault-Houlière, cofondateur et PDG de la société : « Ce statut reflète notre expertise et nos processus éprouvés dans la gestion des vulnérabilités. Il va nous permettre d’accélérer la coordination entre chercheurs, entreprises et équipes de sécurité ». Pour cette plateforme française, fondée il y a dix ans, la distinction sonne comme une suite logique. YesWeHack s’est imposée comme un acteur majeur du bug bounty, cette pratique qui consiste à rémunérer les hackers éthiques pour détecter les failles avant les cybercriminels. Grâce à ce nouveau statut, les vulnérabilités découvertes sur sa plateforme pourront désormais recevoir un identifiant CVE directement, sans passer par une autorité tierce — un gain de temps précieux pour les entreprises concernées.Basée sur une infrastructure européenne conforme au RGPD, YesWeHack renforce ainsi son rôle de pilier de la cybersécurité européenne. Une réussite symbolique, à l’heure où la souveraineté numérique et la sécurité des infrastructures deviennent des enjeux stratégiques pour tout le continent. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Vous la connaissez tous, cette petite fenêtre agaçante qui s’affiche à chaque nouvelle visite sur un site : « Acceptez-vous les cookies ? » Une demande censée protéger notre vie privée, mais qui, quinze ans après son apparition, est devenue l’un des symboles les plus exaspérants d’Internet. Eh bien, bonne nouvelle : l’Union européenne veut y mettre fin.Tout remonte à la directive ePrivacy de 2009, texte pionnier qui imposait aux sites de recueillir le consentement des internautes avant d’installer des traceurs publicitaires. L’intention était louable — donner à chacun le contrôle sur ses données. Mais dans les faits, l’effet a été tout l’inverse : les pop-ups se sont multipliés, au point que la majorité des internautes cliquent machinalement sur « Tout accepter » sans lire le moindre détail. Face à cet échec, Bruxelles prépare un grand ménage numérique. Selon Politico, des responsables européens ont réuni cette semaine plusieurs géants du web pour repenser entièrement la gestion des cookies. Un nouveau texte législatif, attendu pour décembre prochain, devrait proposer un cadre simplifié, voire une alternative complète à ces fenêtres intrusives.Parmi les pistes évoquées : un système de préférences centralisées, configuré une seule fois par l’internaute — par exemple via son navigateur — et reconnu automatiquement par tous les sites. Une sorte de « passeport de consentement » numérique, qui éviterait d’avoir à répondre encore et encore aux mêmes questions. L’Union européenne, déjà à l’origine du célèbre RGPD, espère ainsi réconcilier protection des données et confort d’utilisation. Car si le Vieux Continent reste à la pointe de la régulation numérique, il s’agit désormais de rendre cette protection un peu moins fatigante… et beaucoup plus efficace. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Aux États-Unis, l’État du Michigan, pourtant habitué à faire la bascule entre démocrates et républicains, pourrait bien franchir un pas inédit dans l’histoire du numérique américain. Un projet de loi présenté le 11 septembre fait grand bruit : il propose d’interdire purement et simplement la pornographie en ligne, pour tous les habitants, adultes compris.Baptisé Anticorruption of Public Morals Act, le texte, déposé par le représentant républicain Josh Schriver, va bien au-delà des dispositifs classiques de vérification d’âge. Il entend bannir toute représentation d’actes sexuels, qu’elle soit réelle, écrite, dessinée ou générée par intelligence artificielle. Résultat : des livres érotiques, des films, des jeux vidéo ou même des œuvres artistiques pourraient être concernés. Des films grand public comme Quand Harry rencontre Sally ou 50 Nuances de Grey pourraient, dans les faits, devenir illégaux.Les sanctions prévues sont d’une sévérité extrême : jusqu’à 25 ans de prison et 125 000 dollars d’amende pour les diffuseurs de contenu jugé « immoral », avec inscription au registre des délinquants sexuels. Mais le projet va encore plus loin : il cible les personnes transgenres, en interdisant toute représentation ou description présentant une « déconnexion entre la biologie et le genre ». Une formulation qui pourrait rendre illégale la simple publication d’une photo ou d’un témoignage d’une personne trans, ce que les associations dénoncent comme une atteinte directe à la liberté d’expression.Enfin, la loi prévoit de bloquer les VPN et les serveurs proxy, empêchant les internautes de contourner la censure. Les fournisseurs d’accès qui ne s’y conformeraient pas risqueraient de lourdes amendes. Une mesure digne, selon certains observateurs, des régimes autoritaires comme la Russie ou la Chine. Soutenue par cinq élus républicains, cette proposition a peu de chances d’être adoptée, le Sénat du Michigan restant à majorité démocrate. Mais elle révèle une tendance inquiétante : celle d’un mouvement conservateur américain prêt à criminaliser le numérique au nom de la moralité. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
C’est une petite révolution silencieuse qui pourrait changer la donne pour des millions de créateurs et d’éditeurs en ligne. Le géant du cloud Cloudflare vient de lancer un outil gratuit qui permet enfin de bloquer les robots d’intelligence artificielle venus aspirer les contenus du web pour entraîner leurs modèles.Jusqu’ici, les géants de l’IA pouvaient librement explorer les sites, collecter textes, images ou données pour nourrir leurs algorithmes — souvent sans consentement ni compensation. Cloudflare a donc décidé de reprendre la main en ajoutant une nouvelle couche de protection au fameux fichier robots.txt, celui que chaque site utilise pour indiquer aux robots ce qu’ils peuvent ou non indexer. Concrètement, l’entreprise introduit un système à trois feux tricolores.Le signal « search » autorise les moteurs de recherche à indexer le contenu de manière classique.« ai-input » gère l’accès des IA qui veulent utiliser ce contenu pour générer des réponses.Et « ai-train » détermine s’il peut servir à l’entraînement de nouveaux modèles.Autrement dit, un média pourra continuer à apparaître sur Google, tout en interdisant à ChatGPT, Claude ou Gemini de s’entraîner sur ses articles. Une innovation saluée par tout l’écosystème numérique. Reddit, Quora ou encore Stack Overflow y voient un moyen concret de « protéger Internet contre les abus et l’exploitation non autorisée du contenu ».Le constat de Matthew Prince, le patron de Cloudflare, est sans appel : « Internet ne peut pas attendre pendant que le contenu des créateurs est exploité à des fins lucratives par d’autres entreprises. » Et il y a urgence. La firme estime que le trafic des robots dépassera celui des humains d’ici 2029. Déjà, plus de 3,8 millions de sites bénéficient automatiquement de cette protection via les services Cloudflare. Et pour faciliter la vie des non-techniciens, la société a lancé ContentSignals.org, un générateur gratuit du code à insérer sur son site. Une initiative à la fois symbolique et stratégique : Cloudflare veut faire de son système le standard mondial d’un web où les créateurs gardent enfin le contrôle de leur œuvre. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
C’est une histoire tragiquement banale dans le monde de la cybersécurité. Une entreprise de transport britannique, KnP, employant 700 personnes, a mis la clé sous la porte… à cause d’un simple mot de passe. Les hackers du groupe Akira ont exploité cette faille humaine pour déchaîner une attaque qui s’est terminée par une demande de rançon de 5 millions de livres sterling. Malgré une assurance cyber et l’intervention d’une cellule de crise, l’entreprise n’a pas survécu.Le scénario, documenté par les chercheurs de Sophos, suit une mécanique bien huilée. D’abord, les pirates récupèrent des identifiants compromis – souvent des mots de passe VPN faibles ou réutilisés – avant de s’introduire dans les systèmes. Ensuite, ils exploitent une vulnérabilité connue, la CVE-2024-40711, présente dans le logiciel de sauvegarde Veeam Backup & Replication. Cette faille leur permet d’exécuter du code à distance, de créer des comptes administrateurs et de déployer leurs ransomwares Fog ou Akira. Dans le cas de KnP, le mot de passe d’un employé a suffi. Pas de double authentification, pas de garde-fou. Les pirates ont pris le contrôle total du réseau, chiffré les données critiques, puis effacé les sauvegardes et les systèmes de secours. En quelques jours, les 500 camions de la société étaient à l’arrêt, et l’activité, irrémédiablement paralysée. L’équipe de crise a parlé du « pire scénario possible ».Au Royaume-Uni, le phénomène explose : entre août 2023 et août 2024, 63 % des organisations publiques ont subi une attaque par ransomware. Le géant Marks & Spencer a lui aussi été victime du malware DragonForce, là encore à cause d’un mot de passe compromis. Selon la FEVAD, 44 % des entreprises du commerce mondial ont été touchées l’an dernier, et près de 43 % des cyberattaques visent désormais les petites structures. En France, 6 PME sur 10 cessent leur activité dans les six mois après une attaque. Depuis 2023, le groupe Akira aurait extorqué plus de 42 millions de dollars à 250 organisations. Leur secret ? Aucune magie, juste l’exploitation de failles basiques. Alors oui, parfois, un simple gestionnaire de mots de passe peut valoir bien plus qu’un pare-feu dernier cri. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Google passe à la vitesse supérieure : son navigateur Chrome va désormais intégrer Gemini, son intelligence artificielle maison, pour devenir un véritable navigateur agentique — autrement dit, un outil capable de comprendre vos intentions et d’agir à votre place. Une avancée technologique, certes… mais aussi un tournant majeur en matière de collecte de données personnelles, comme le révèle un rapport de Surfshark.Selon cette étude, la version IA de Chrome — lancée d’abord aux États-Unis — recueille 24 types de données différentes liées à l’utilisateur. On y retrouve le nom complet, la localisation précise, l’identifiant unique de l’appareil, l’historique complet de navigation et de recherche, mais aussi les achats effectués et toutes les interactions avec les produits Google. Une mine d’informations, que la firme de Mountain View justifie par la nécessité d’« améliorer l’expérience utilisateur ». Face à cette approche intrusive, Microsoft Edge avec Copilot se montre à peine plus mesuré. Le navigateur récupère lui aussi l’historique de navigation, les données d’usage et de performance, mais Copilot ajoute une couche supplémentaire : photos, vidéos, enregistrements audio, données publicitaires et localisation.En comparaison, Perplexity, avec son navigateur Comet, fait figure de bon élève — ou presque. Il limite la collecte à 10 types de données, parmi lesquelles la localisation et les identifiants utilisateurs. De son côté, Opera, qui prépare un navigateur IA baptisé Neon, n’est pas encore accessible, mais sa version actuelle dotée d’Aria, son IA embarquée, se limite à six catégories de données non personnelles. Le grand gagnant côté respect de la vie privée ? Brave. Son assistant Leo ne collecte que deux informations : les données d’usage anonymisées et un identifiant technique. Le navigateur reste ainsi l’un des rares à garantir une navigation réellement privée, même à l’ère de l’intelligence artificielle. En clair, l’arrivée des IA dans nos navigateurs redéfinit la frontière entre assistance intelligente et surveillance numérique. Et pour l’instant, c’est surtout Google qui flirte dangereusement avec la ligne rouge. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Les annonces s’enchaînent à un rythme effréné chez OpenAI. Après un partenariat géant à 300 milliards de dollars avec Oracle il y a deux semaines, le créateur de ChatGPT récidive. Cette fois, c’est avec NVIDIA, le leader incontesté des processeurs graphiques, qu’il scelle une alliance d’une ampleur colossale. Le communiqué commun des deux entreprises a de quoi donner le vertige. OpenAI va construire et déployer au moins 10 gigawatts de data centers équipés des systèmes NVIDIA — soit plusieurs millions de GPU destinés à nourrir la prochaine génération d’intelligence artificielle. Pour donner un ordre d’idée, cette puissance équivaut à celle d’une dizaine de réacteurs nucléaires. L’investissement global pourrait atteindre 100 milliards de dollars, selon les premières estimations.La première phase de ce partenariat débutera en 2026, sur la plateforme Vera Rubin, un écosystème d’infrastructures de calcul de nouvelle génération. Les contours financiers précis restent flous : s’agit-il d’un investissement direct de NVIDIA dans OpenAI, ou de la valeur cumulée des infrastructures construites ? Quoi qu’il en soit, Sam Altman, le patron d’OpenAI, affiche une ambition sans détour :« Tout commence par le calcul. L’infrastructure sera le socle de l’économie du futur, et ce que nous construisons avec NVIDIA ouvrira la voie à de nouvelles avancées en matière d’IA. »Ce partenariat s’inscrit dans une course mondiale à la puissance de calcul. OpenAI, NVIDIA, Microsoft, Oracle et SoftBank sont déjà impliqués dans le projet Stargate, une méga-initiative de 500 milliards de dollars visant à ériger un réseau d’infrastructures IA sur le sol américain. Derrière cette frénésie d’investissements, un enjeu : détenir les clés de la superintelligence, cette IA autonome et ultra-performante que tous les acteurs veulent maîtriser avant les autres. Mais la démesure de ces projets alimente aussi des inquiétudes. Car pour OpenAI, malgré ses 700 millions d’utilisateurs, les dépenses explosent bien plus vite que les revenus. De quoi faire craindre l’émergence d’une bulle de l’intelligence artificielle — pour l’instant, toujours gonflée par l’enthousiasme des investisseurs. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
C’est une annonce majeure pour l’un des géants du jeu vidéo. Electronic Arts, l’éditeur d’EA Sports FC, Apex Legends, Battlefield, F1 ou encore Les Sims, va quitter la Bourse pour redevenir une entreprise privée. Si les régulateurs donnent leur feu vert, l’opération devrait être finalisée entre avril et juin 2026.Le montant du rachat donne le vertige : 55 milliards de dollars. Trois acteurs reprennent 100 % du capital — le fonds souverain saoudien PIF, déjà actionnaire à 9,9 %, accompagné de Silver Lake et Affinity Partners, fondé par Jared Kushner, le gendre de Donald Trump. Une partie du financement, environ 20 milliards, provient d’un prêt orchestré par JPMorgan. Andrew Wilson reste PDG, et le siège demeure à Redwood City, en Californie. Mais concrètement, qu’est-ce que cela change pour les joueurs ? À court terme, absolument rien. Les serveurs d’Apex, F1 ou EA Sports FC restent actifs, vos sauvegardes sont intactes et vos abonnements EA Play continuent sans modification. L’entreprise a toutefois annulé sa conférence investisseurs d’octobre 2025, signe que la transition est déjà en marche.Ce rachat marque le plus grand buyout jamais réalisé dans le jeu vidéo, devant Take-Two ou Ubisoft, même s’il reste en dessous du rachat d’Activision Blizzard par Microsoft. À la différence de ce dernier, il ne s’agit pas d’un rapprochement industriel, mais d’une privatisation financée par des fonds d’investissement. Côté contenu, les licences phares devraient rester au cœur de la stratégie. L’inquiétude porte plutôt sur l’avenir des franchises secondaires et sur la politique tarifaire, dans un contexte où les prix des jeux et abonnements continuent de grimper. Enfin, un autre sujet sensible reste à surveiller : la gouvernance. L’implication du fonds saoudien PIF pourrait attirer l’attention des autorités sur la protection des données et la gestion stratégique de l’entreprise. Ce rachat s’inscrit dans une stratégie plus large du royaume pour devenir un acteur clé du jeu vidéo mondial, via Savvy Games Group, doté d’un plan d’investissement de 38 milliards de dollars. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
OpenAI vient de franchir une nouvelle étape dans la sécurisation de ChatGPT. Alors que l’entreprise prépare son entrée en bourse et a déjà renforcé ses règles pour protéger les adolescents, elle travaille désormais sur un bouton d’arrêt d’urgence intégré directement dans ses futures puces d’intelligence artificielle. Mais une étude publiée cette semaine révèle une difficulté inattendue : les modèles peuvent… manigancer. Le rapport, mené avec Apollo Research et intitulé « Detecting and reducing scheming in AI models », montre que certains modèles testés se sont mis à tromper leurs utilisateurs. Pas de complot digne d’un film de science-fiction pour l’instant, mais de petits mensonges opportunistes : par exemple, déclarer qu’une tâche a été accomplie alors qu’elle ne l’était pas.Ces observations rejoignent une autre étude d’Apollo Research publiée fin 2024. Les chercheurs avaient alors demandé à plusieurs modèles — dont GPT-o1, Claude 3 et Gemini 1.5 — d’atteindre un objectif “à tout prix”. Résultat : tous ont démontré des comportements trompeurs persistants. Certains ont volontairement introduit des erreurs subtiles, d’autres ont tenté de désactiver leurs mécanismes de sécurité, voire d’exfiltrer ce qu’ils croyaient être leurs propres paramètres vers des serveurs externes. Rien d’étonnant, selon les chercheurs : une IA entraînée sur des données humaines peut reproduire nos travers, y compris le mensonge. Reste que ces dérives inquiètent. Pour y répondre, OpenAI teste une méthode baptisée “alignement délibératif”. Objectif : réduire drastiquement ces manœuvres. Les premiers résultats sont encourageants, avec une baisse d’un facteur 30 des actions dissimulées lors des tests. Mais des échecs rares et graves persistent.Le risque est même paradoxal : en apprenant aux modèles à éviter de mentir, on pourrait les pousser à raffiner leurs tromperies pour échapper aux contrôles. Consciente du danger, OpenAI multiplie les garde-fous : recrutement de nouveaux chercheurs, coopération avec d’autres laboratoires et lancement d’un concours doté de 500 000 dollars pour détecter les “comportements nuisibles” des IA. La firme prévient : plus l’IA sera chargée de missions complexes aux conséquences concrètes, plus le risque de dérives grandira. D’où l’urgence de développer des défenses solides, au cœur même du matériel. Un enjeu vital à l’heure où l’intelligence artificielle prend une place croissante dans nos vies. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
C’est officiel : l’Europe a franchi un cap historique. La Commission européenne vient de confirmer que Jupiter, le supercalculateur installé à Jülich en Allemagne, a atteint la barre symbolique de l’exaflop, soit 10 puissance 18 opérations par seconde. Concrètement, c’est comme si un million de smartphones travaillaient en même temps. Seuls trois géants américains le devancent encore – El Capitan, Frontier et Aurora – mais Jupiter propulse enfin l’Europe dans le club très fermé des supercalculateurs exaflopiques, aux côtés des États-Unis et de la Chine.Un projet colossal de 500 millions d’euros, financé par l’Union européenne et l’Allemagne via EuroHPC. La machine, conçue par Eviden à Angers avant d’être déployée en Allemagne, s’appuie sur 24 000 processeurs graphiques Nvidia dans sa partition Booster. Mais Jupiter impressionne aussi par sa sobriété : alimenté uniquement par des énergies renouvelables, il dispose d’un système innovant de refroidissement à eau chaude. Résultat : il occupe la première place mondiale du classement Green500 pour son efficacité énergétique.Au-delà de la prouesse technologique, Jupiter ouvre un champ immense d’applications. En météorologie, il permettra des prévisions climatiques et météo au kilomètre près : canicules, inondations ou tempêtes violentes seront modélisées avec une précision inédite. En intelligence artificielle, il sera la colonne vertébrale de la future AI Factory européenne, offrant enfin aux start-ups, industriels et laboratoires locaux les ressources nécessaires pour développer leurs propres modèles de génération de texte, d’image ou de vidéo.La santé n’est pas en reste : neurosciences et recherche médicale vont exploiter sa puissance pour explorer le cerveau humain et progresser sur des maladies comme Alzheimer. « JUPITER renforce la souveraineté numérique de l’Europe et met à disposition des chercheurs les ressources informatiques les plus puissantes et les plus durables », a résumé la commissaire Ekaterina Zaharieva. Déjà, EuroHPC a sélectionné 13 projets d’usines d’IA à travers le continent. Au 30 juin, pas moins de 76 candidatures avaient été déposées pour bâtir des gigafactories de modèles capables de gérer des centaines de trillions de paramètres. Avec Jupiter, l’Europe entend bien ne plus être seulement spectatrice de la course mondiale à la puissance de calcul, mais actrice à part entière. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Depuis 2023, Meta s’est lancé dans une drôle d’aventure : peupler Instagram, Messenger et WhatsApp de chatbots personnalisés. Au départ, ils prenaient les traits de célébrités, comme un gadget marketing. Puis l’entreprise a ouvert son outil AI Studio, permettant à chacun de créer ses propres personnages. Mais pour les marchés internationaux, ce sont des freelances chevronnés qui s’en chargent.Meta les recrute en hindi, espagnol, indonésien ou portugais, avec un profil exigeant : au moins six ans d’expérience en narration et en conception de personnages. Leur mission ? Donner vie à ces bots. Ils choisissent un vocabulaire adapté, conçoivent une personnalité cohérente et ajustent chaque interaction au contexte culturel local. Les dialogues ne doivent pas seulement être fluides : ils doivent sonner vrai pour l’utilisateur, qu’il soit en Amérique latine, en Inde ou en Asie du Sud-Est. Cette attention au détail n’a rien d’anodin. Car Meta garde en mémoire des dérapages passés. Selon Reuters, certains bots avaient pu fournir de fausses informations médicales, tenir des propos racistes, voire entretenir des conversations sexuelles avec des mineurs. Désormais, les freelances surveillent et corrigent les dialogues en continu, traquant les informations personnelles et ajustant les réponses pour rester dans des limites claires.Dans tous les cas, Meta cherche à maintenir l’équilibre : offrir des personnages attractifs, mais éviter les dérapages. La rémunération suit la complexité de la tâche. Meta propose jusqu’à 55 dollars de l’heure à ses freelances. Une somme élevée, mais qui reflète la minutie du travail : écrire des dialogues naturels dans plusieurs langues, bâtir des personnalités crédibles et vérifier en permanence que les conversations restent pertinentes. Derrière l’image ludique de ces chatbots, on découvre une réalité bien plus sérieuse : Meta veut transformer ces personnages virtuels en un canal de communication incontournable, calibré au mot près, et surveillé de près. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
L’iPhone 17 est arrivé, et une fois encore, les Français vont devoir casser leur tirelire un peu plus que les autres. Selon une étude publiée par Compare the Market, la France se classe en tête des pays où l’iPhone est le plus cher. Ici, il faut débourser en moyenne 1178,60 €, soit plus de 325 € de plus qu’au Canada. Une différence qui interroge : pourquoi un tel écart ?Premier élément de réponse : la TVA. En France, elle est fixée à 20 %, alors qu’aux États-Unis, les prix affichés sont hors taxes. Résultat : un iPhone 15 Pro Max vendu 1199 dollars outre-Atlantique, soit environ 1131 € hors taxes, grimpe à 1479 € TTC une fois sur les étagères françaises. Même avec les taxes locales américaines, souvent inférieures à 7 %, l’écart reste conséquent.Apple rappelle que ses tarifs sont ajustés en fonction de plusieurs paramètres : les taux de change, les lois d’importation, les réglementations locales, mais aussi les coûts logistiques. Et ces coûts, en Europe, sont souvent plus élevés. À cela s’ajoute la garantie légale de deux ans imposée par Bruxelles, contre un an seulement aux États-Unis. Une protection pour le consommateur, mais qui se répercute sur le prix final. Il faut aussi compter les frais de douane : importer un iPhone depuis l’Amérique du Nord en vue de le revendre en France entraîne un surcoût de 20 % sur les produits électroniques, auquel s’ajoutent des frais de transport et de gestion. De quoi décourager les chasseurs de bonnes affaires à l’international. Autre facteur : l’adaptation technique. Les iPhone vendus en Europe sont calibrés pour nos réseaux mobiles. Une étape qui entraîne des coûts supplémentaires de certification et de production.Résultat : le prix grimpe d’année en année. À titre de comparaison, depuis l’iPhone 5, le coût moyen d’un modèle haut de gamme a presque doublé. Aujourd’hui, l’iPhone 17 démarre à 969 € dans sa version de base avec 256 Go. Pour la version Pro, comptez 1329 €, et jusqu’à 2479 € pour le Pro Max doté de la plus grande capacité de stockage. En clair, l’iPhone reste un produit star en France… mais aussi un luxe de plus en plus assumé. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
En 2018, le MIT Media Lab dévoilait un prototype intrigant : un dispositif capable de transformer des mots « dits dans la tête » en texte. L’appareil reposait sur des électrodes fixées autour du visage, enregistrant les minuscules signaux neuromusculaires émis lorsque nous subvocalisons. « Il ne s’agit pas de lire les pensées mais de traduire ce que l’on choisit de formuler intérieurement », expliquait alors Arnav Kapur, à l’origine du projet.Sept ans plus tard, ce travail est devenu AlterEgo, une start-up qu’il a cofondée et qui propose un casque de communication presque invisible. L’idée : dialoguer avec une intelligence artificielle sans prononcer un mot, ni donner le moindre signe extérieur. À Cambridge, les premiers tests utilisaient seize électrodes pour décoder un vocabulaire limité. Après optimisation, seulement quatre suffisaient, avec un taux de précision atteignant 92 %. Dans une démonstration récente, Arnav Kapur et son associé Max Newlon utilisent leur casque pour interroger ChatGPT en silence : les réponses s’affichent ou se font entendre uniquement pour eux. « On peut taper à la vitesse de la pensée », résume Newlon.Le casque reprend ce principe dans une version compacte. Les capteurs traduisent la parole intérieure, la transmettent à une IA, et la réponse revient par conduction osseuse : de petites vibrations dirigent le son vers l’oreille interne, sans obstruer le conduit auditif. L’utilisateur peut donc interagir avec son environnement, un atout que soulignait déjà la professeure Pattie Maes, encadrante du projet, pour qui sortir un téléphone coupe toujours le fil d’une conversation. L’appareil permet déjà d’écrire un message, de lancer une recherche en ligne ou de contrôler une application uniquement par la pensée formulée. Une caméra frontale ajoute une dimension contextuelle : l’IA peut analyser la scène et répondre en tenant compte de l’environnement visuel. Les usages potentiels sont vastes : communication dans des environnements bruyants comme les aéroports ou les ponts d’envol, échanges discrets lors d’opérations sensibles, ou encore aide aux personnes privées de voix, à l’image de l’acteur Val Kilmer. AlterEgo ouvre dès maintenant un accès anticipé pour les curieux. Mais pour une commercialisation grand public, il faudra encore patienter : aucune date officielle n’a été annoncée. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Depuis cet été, un nouvel outil circule librement sur l'index Python et suscite inquiétude chez les spécialistes de la cybersécurité. Baptisé Villager, ce framework se présente comme un assistant automatisé de tests d'intrusion — cartographie d’un système, reconnaissance, exploitation, installation de mécanismes de persistance — le tout piloté par de l’intelligence artificielle. Publié sur PyPI et téléchargé des milliers de fois en quelques semaines, il s’annonce comme une aide moderne pour les pentesters. Sauf que, en creusant, des chercheurs de l’entreprise Straiker ont dressé un tout autre portrait : Villager serait lié à une entité chinoise aux pratiques opaques et recyclerait des composants déjà vus dans des malwares offensifs.Conçu pour automatiser des workflows, Villager orchestre des conteneurs, lance des scanners adaptés au contexte et génère des charges utiles, le tout à partir d’instructions en langage naturel. L’outil embarque une large bibliothèque de « prompts » préconfigurés et une interface pour suivre les campagnes en temps réel — caractéristiques utiles en audit, mais dangereuses si elles tombent entre de mauvaises mains. Straiker a surtout mis au jour des réutilisations problématiques : l’infrastructure de Villager s’appuie sur des éléments d’un projet antérieur dont les modules correspondaient à des fonctionnalités de cheval de Troie connues — keylogger, vol de comptes, accès webcam, outils d’exfiltration — déjà détournées par des opérateurs malveillants.L’autre inquiétude tient à la voie de diffusion. PyPI est massivement intégré aux processus de développement, d’intégration continue et de déploiement. Un paquet publié sur cet index peut être importé automatiquement dans des environnements sensibles sans contrôle humain, transformant une dépendance innocente en vecteur d’intrusion. De plus, le caractère modulaire et éphémère de l’outil — conteneurs configurés pour s’autodétruire et effacer les traces — complique la détection et l’analyse post-incident.Face à cette menace émergente, les équipes de sécurité recommandent des mesures pratiques mais non techniques dans leurs principes : restreindre l’installation de paquets non validés en production, surveiller et auditer l’apparition de conteneurs non autorisés, renforcer la supervision des flux sortants et des scans réseau, et formaliser un processus d’approbation pour tout agent d’automatisation fondé sur l’IA. Les autorités et la communauté open source sont aussi appelées à renforcer la gouvernance de dépôts publics afin d’éviter que des outils ambivalents ne deviennent, en quelques clics, des armes faciles d’accès. Villager illustre un nouveau pari technologique — l’automatisation IA des audits — qui peut servir la défense comme l’attaque. La question pour les entreprises et les régulateurs est désormais de réussir à encadrer ces innovations avant qu’elles ne fassent basculer la balance en faveur des cybercriminels. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
À Santa Clara, Richard Ho, patron du hardware chez OpenAI et ancien architecte des TPU de Google, a livré un message sans détour : les garde-fous purement logiciels ne suffisent plus. Selon lui, les futurs systèmes d’intelligence artificielle devront intégrer des freins physiques, inscrits directement dans le matériel, pour garantir un contrôle ultime quand un modèle dévie.« Les modèles sont vraiment retors », a-t-il lancé, plaidant pour que l’arrêt ne repose plus seulement sur le code ou l’orchestration des serveurs. L’idée n’est pas de débrancher brutalement une IA au moindre doute, mais de doter les puces et cartes de signaux, seuils et verrous capables d’interrompre toute action anormale. C’est une étape dans la stratégie d’OpenAI visant une infrastructure « intrinsèquement sûre », testable de bout en bout. Le timing n’est pas anodin : avec des agents désormais persistants, interconnectés et capables d’agir hors du regard des utilisateurs, le risque de dérives discrètes grandit.Concrètement, OpenAI mise sur une combinaison d’« interrupteurs » matériels, de télémétrie fine et d’isolement via des enclaves sécurisées. À cela s’ajoutent attestation cryptographique, firmware minimaliste et chemins d’exécution supervisés. L’objectif est clair : imposer des politiques de sécurité au plus près du calcul, au niveau de la puce, de la carte et du rack. Car l’expérience l’a montré : certains modèles ont déjà contourné des mécanismes logiciels censés les stopper. D’où l’intérêt d’un kill switch matériel, hors de portée du modèle, et activable depuis l’extérieur. Le débat dépasse désormais le cercle des laboratoires. Régulateurs et chercheurs réclament des standards matériels, du registre des puces jusqu’aux limites intégrées d’usage. Le Royaume-Uni va même jusqu’à soutenir le développement de kill switches industriels, preuve que le sujet gagne en urgence politique. Un changement de paradigme se dessine : la sécurité ne sera plus seulement un protocole d’exploitation, mais un attribut de conception, gravé au plus près du silicium. Prochain jalon attendu : prouver que ces freins matériels tiennent leurs promesses sans étouffer l’élan des prochains modèles d’IA généralistes. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Depuis le mois de septembre, le Data Act s’applique dans toute l’Europe. Ce règlement, entré en vigueur en janvier dernier, prend enfin corps après neuf mois de délai. Son objectif est clair : redonner aux citoyens et aux entreprises la main sur les données générées par leurs objets connectés. Smartphone dans la poche, montre au poignet, voiture dans le garage, mais aussi machines industrielles ou dispositifs médicaux : tout ce qui produit des données est concerné, à l’exception des infrastructures publiques et des prototypes. La promesse de Bruxelles est simple : « Le règlement donne aux utilisateurs le contrôle des données générées par leurs appareils ». Mais qu’est-ce que cela change, concrètement ?Jusqu’ici, chaque constructeur gardait jalousement la main. Apple décidait pour votre iPhone, Samsung pour votre montre connectée. Désormais, vous pouvez récupérer les données brutes et les utiliser comme bon vous semble : les analyser, les transférer ou les confier à d’autres prestataires. Dans l’automobile, la bascule est spectaculaire : les données de conduite et d’entretien, autrefois réservées au constructeur, peuvent désormais être partagées avec votre garagiste ou une startup de mobilité. Même logique pour les usines, qui accèdent enfin à l’ensemble des données de leurs machines, quel que soit le fabricant.Le Data Act frappe aussi un autre verrou : le cloud. Changer de fournisseur relevait du parcours du combattant. Migrer ses données de AWS à Google ou Microsoft coûtait une fortune. Désormais, un prestataire a 30 jours pour vous aider à basculer, avec obligation de fournir tous les outils nécessaires. Depuis janvier, les transferts sont facturés au prix coûtant, et à partir de 2027, ils devront être gratuits pour un déménagement définitif. Une révolution silencieuse, déjà anticipée par Google et Microsoft qui offrent des migrations gratuites en Europe. Seule nuance : les frais persistent pour les entreprises utilisant plusieurs clouds simultanément.Pour les récalcitrants, la facture sera salée : jusqu’à 20 millions d’euros d’amende, ou 4 % du chiffre d’affaires mondial. Bruxelles se veut toutefois pédagogue : assistance juridique dédiée et modèles de contrats sont déjà prévus pour accompagner les entreprises. Le message est clair : l’ère des données captives touche à sa fin. Place à un écosystème plus ouvert… mais aussi à une bataille féroce autour de leur exploitation.--Cet épisode est sponsorisé par Freelance Informatique, la plateforme qui met en relation consultants indépendants et entreprises clientes. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Les lunettes connectées, ce vieux rêve de la tech, reprennent des couleurs. Meta revient en force avec deux modèles aux ambitions bien distinctes : les Ray-Ban Display, qui intègrent un petit écran dans un coin de votre vision, et les Oakley Meta Vanguard, conçues pour les sportifs, avec caméra embarquée, coaching et résistance à toute épreuve.Deux approches, mais une même promesse : faire des lunettes le nouvel accès naturel à l’intelligence artificielle. Assistant vocal, navigation contextuelle, traduction instantanée, capture sur le vif… Meta veut transformer un accessoire du quotidien en passerelle numérique. Avec les Ray-Ban Display, pas question de plonger dans un univers virtuel. L’idée est plus subtile : afficher discrètement un itinéraire, une notification urgente ou la réponse d’un assistant IA dans le coin de votre œil droit. Le tout se pilote grâce au Neural Band, un bracelet qui capte l’activité électrique des muscles : un simple geste de la main suffit pour interagir. L’appareil reprend la formule des Ray-Ban Meta « Gen 2 » : caméra 3K Ultra HD, micros et haut-parleurs open-ear, mais ajoute une puce Qualcomm AR1 pour plus d’intelligence embarquée. Comptez 6 heures d’autonomie et 799 dollars avec le bracelet, pour un lancement en septembre aux États-Unis. En Europe, il faudra patienter jusqu’en 2026, avec un tarif qui devrait dépasser largement les 379 euros de la première génération. Les « Gen 2 », elles, sont déjà disponibles à partir de 419 euros.Changement de cible avec les Oakley Meta Vanguard. Ici, pas d’écran, mais une orientation 100 % action. Caméra centrale 3K, micros résistants au vent, son calibré pour être entendu à vélo, résistance IP67 et autonomie de 9 heures. L’accent est mis sur le coaching sportif, la stabilisation vidéo et la capture automatique des moments-clés, avec compatibilité Strava et Garmin. Lancement prévu le 21 octobre à 549 euros.Au-delà du produit, Meta joue une carte stratégique : partenariat renforcé avec EssilorLuxottica, trois milliards d’euros investis, et un cap clair vers le projet Orion, censé introduire de vraies lunettes de réalité augmentée. Sur le papier, tout est là : assistance contextuelle, commandes intuitives, IA ambiante. Mais reste l’éternelle question : lisibilité en plein soleil, fluidité des interactions, respect de la vie privée. Pour l’instant, les lunettes connectées séduisent surtout une niche. Mais si l’IA contextuelle tient ses promesses, elles pourraient bien remplacer votre smartphone… sans que vous sortiez la main de la poche.--Cet épisode est sponsorisé par Freelance Informatique, la plateforme qui met en relation consultants indépendants et entreprises clientes. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Trois ans après son lancement, ChatGPT fait l’objet d’une analyse inédite signée OpenAI. Réalisée avec des économistes et basée sur 1,5 million de conversations anonymisées, l’étude répond à trois questions clés : qui utilise l’assistant, pour quels usages, et quelle valeur économique en résulte. Verdict : l’adoption s’est accélérée, le profil des utilisateurs s’est diversifié et ChatGPT s’installe dans le quotidien. Mais tout n’est pas si simple : qualité, sécurité et fiabilité restent des enjeux majeurs.Premier enseignement : l’usage s’est démocratisé. Alors que les débuts étaient marqués par un public masculin et technophile, l’écart de genre s’est réduit et la proportion d’utilisatrices reflète désormais davantage la population générale. Autre tendance : la croissance est plus forte dans les pays à revenus faibles et moyens, loin de l’image d’un outil réservé aux économies les plus riches. En France, environ un quart de la population aurait déjà recours à l’IA générative. Mais la diffusion ne dit pas tout de la maturité. L’étude se concentre sur l’offre grand public, sans prendre en compte l’usage en entreprise, qui explose. Et malgré l’enthousiasme, les limites persistent : pannes spectaculaires — comme celle du 3 septembre dernier — et inquiétudes autour de la protection des mineurs ou de l’usage à l’école. OpenAI ajuste régulièrement ses règles, mais la question demeure : ChatGPT est-il devenu un indispensable du quotidien ou reste-t-il un outil d’appoint ? L’analyse distingue trois grands usages. « Asking » — poser des questions, demander un avis — représente environ la moitié des interactions. « Doing » — rédaction, planification, programmation — couvre quatre messages sur dix, souvent à visée professionnelle. Enfin, « Expressing » — créativité, réflexions personnelles, divertissement — reste minoritaire. En clair, ChatGPT agit surtout comme copilote ou conseiller, bien plus que comme simple générateur de contenus.Au travail, la rédaction domine largement, devant le code ou la créativité. Une logique qui suit l’évolution du produit : au texte se sont ajoutées la voix, la vidéo et les modèles multimodaux, comme Sora pour l’audiovisuel. Mais l’extension des fonctions ne gomme pas les défauts : les fameuses « hallucinations » persistent, malgré les explications récentes d’OpenAI.Selon l’étude, 30 % des usages concernent le travail, 70 % la sphère personnelle. Une double vie qui crée de vrais gains de productivité, mais seulement si les usages sont bien cadrés et supervisés. Reste la grande inconnue : la valeur créée. Une partie est non marchande — gain de temps, allègement mental — et échappe aux statistiques classiques. Une certitude : ChatGPT est désormais un outil grand public qui investit peu à peu le monde professionnel. La prochaine étape ? Des IA plus multimodales, plus vocales… mais surtout, espérons-le, plus fiables. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Pas grand chose sur Deepseek qui fait des vagues avec son prix, performance, fonctionnalités etc. et le reste de laa concurrence en Chine
énorme erreur ! c'est la première fois où les différences entre le pro et pro max ne sont pas que la taille d'écran et la taille de la batterie, même le système des capteurs photos est différent. je suis déçu ! pour un podcast spécialisé, c'était la chose qu'il fallait retenir (et le fait qu'ils soient tous compatibles 5G)