Discover
Choses à Savoir TECH
Choses à Savoir TECH
Author: Choses à Savoir
Subscribed: 1,948Played: 149,044Subscribe
Share
© Choses à Savoir
Description
Tout ce qu'il faut savoir dans le domaine de la Tech et d'Internet.
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
1353 Episodes
Reverse
C’est une nouveauté discrète, mais révélatrice de l’évolution des assistants numériques. Quelques jours après la sortie d’iOS 26.4, OpenAI a déployé une version de ChatGPT compatible avec CarPlay, le système d’Apple qui permet d’afficher certaines applications sur l’écran de la voiture. Concrètement, une nouvelle icône apparaît sur l’interface CarPlay, à condition d’avoir un iPhone à jour et l’application installée. Un simple appui permet de lancer une conversation… mais uniquement à la voix. Aucun clavier, aucun texte affiché : ici, tout passe par l’audio.Ce choix n’est pas anodin. Apple impose des règles strictes pour les applications de cette catégorie. L’interface est standardisée : un indicateur d’écoute, un bouton pour couper le micro, un autre pour mettre fin à la session. Et surtout, aucune réponse écrite ne peut apparaître à l’écran. L’objectif est clair : limiter les distractions au volant. Pour être intégrée à CarPlay, une application doit obtenir une autorisation spécifique, ce qu’on appelle un « entitlement », délivrée par Apple. Elle doit ensuite respecter un cadre très précis. Par exemple, impossible pour ChatGPT de contrôler le véhicule ou même certaines fonctions de l’iPhone. Contrairement à Siri ou aux assistants intégrés par les constructeurs, comme « Hey Mercedes » ou les systèmes embarqués de Renault, ChatGPT reste cantonné à un rôle de réponse vocale.Autre limitation : pas de mot-clé d’activation. Contrairement à « Dis Siri », l’utilisateur doit ouvrir manuellement l’application pour commencer à parler. Apple ne permet pas aux assistants tiers d’écouter en permanence ou de remplacer son propre assistant vocal. OpenAI précise que cet usage est pensé pour des tâches simples et ponctuelles, plutôt que pour des conversations longues ou complexes. Une approche qui rejoint la prudence d’Apple. Dans sa documentation, la marque évoque l’« imprévisibilité » des chatbots, jugée peu compatible avec la conduite. D’autres acteurs, comme Google avec Gemini ou Anthropic avec Claude, pourraient suivre, mais aucune intégration n’a encore été annoncée. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
C’est une échéance très attendue par les défenseurs de la vie privée. Depuis ce vendredi 3 avril 2026, une dérogation européenne au règlement ePrivacy a officiellement pris fin. Elle permettait, depuis plusieurs années, à de grandes entreprises comme Meta, Google, Apple ou Microsoft d’analyser automatiquement les messages privés de leurs utilisateurs.Concrètement, pendant près de cinq ans, des services comme Gmail, Instagram, Snapchat ou encore iCloud ont scanné les échanges grâce à des algorithmes. L’objectif affiché : détecter des contenus illégaux, notamment liés à la pédocriminalité. Mais ce dispositif fonctionnait sans mandat judiciaire, sans suspicion préalable, et souvent sans que les utilisateurs en aient pleinement conscience. Il ne concernait pas les messageries dites « chiffrées de bout en bout », comme WhatsApp ou Signal. Dans ce type de système, seuls l’expéditeur et le destinataire peuvent lire les messages, ce qui empêche toute analyse par un tiers. Résultat : les personnes mal intentionnées pouvaient contourner relativement facilement ce mécanisme.Sur le plan de l’efficacité, les résultats ont été jugés décevants. Une immense majorité des signalements provenait d’un seul acteur, Meta, et concernait presque exclusivement des contenus déjà connus des autorités. Autrement dit, peu de nouvelles découvertes. Pire encore, une part importante des signalements n’était pas exploitable juridiquement, ou concernait des situations impliquant des mineurs eux-mêmes, dans des échanges consentis.La fin de cette dérogation ne signifie pas la fin de toute surveillance. Les contenus publics restent analysables, tout comme les fichiers stockés dans le cloud. Et les utilisateurs peuvent toujours signaler des contenus problématiques. Mais le débat est loin d’être clos. Un nouveau projet européen, baptisé CSAR, parfois surnommé « Chat Control 2.0 », est toujours en discussion. Certains États plaident pour aller plus loin, avec des mécanismes de surveillance élargis, voire des obligations d’identification pour accéder à certaines messageries. Face à cela, des alternatives émergent. L’ancien eurodéputé Patrick Breyer propose par exemple de cibler davantage les réseaux criminels, notamment sur le darknet, et de renforcer les enquêtes avec mandat judiciaire. Une approche illustrée récemment par une opération d’Europol, qui a permis de fermer des centaines de milliers de sites illégaux… sans analyser un seul message privé. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
C’est un tournant important dans la stratégie de Google en matière d’intelligence artificielle. Depuis 2024, les modèles Gemma, une déclinaison plus légère de la famille Gemini, ont été téléchargés plus de 400 millions de fois, avec plus de 100 000 variantes créées par la communauté. Mais jusqu’ici, ces modèles n’étaient pas vraiment open source.Avec Gemma 4, Google change clairement de cap. Le modèle est désormais distribué sous licence Apache 2.0, un standard du logiciel libre. Concrètement, cela signifie que n’importe qui peut télécharger, modifier, redistribuer ou même commercialiser ce modèle, sans payer de licence. La seule obligation : citer l’origine du logiciel. Une évolution majeure, surtout pour les entreprises, qui étaient jusque-là freinées par des conditions d’utilisation restrictives et révocables à tout moment. Autre point clé : Gemma 4 fonctionne entièrement en local. Les données restent sur l’appareil de l’utilisateur, sans être envoyées vers les serveurs de Google. Un avantage en matière de confidentialité et de sécurité.Le modèle se décline en plusieurs versions, adaptées à différents usages. Les plus petites, conçues pour des appareils comme les smartphones ou les micro-ordinateurs, sont optimisées pour consommer peu de mémoire et offrir des réponses rapides. Les versions plus lourdes, elles, sont destinées à des machines plus puissantes, comme des serveurs ou des stations de travail. Certaines architectures techniques permettent aussi de gagner en efficacité. Par exemple, le modèle dit « Mixture of Experts » n’active qu’une partie de ses paramètres à chaque requête, ce qui accélère le traitement tout en limitant la consommation de ressources.Malgré leur taille relativement modeste, ces modèles affichent des performances élevées dans certains classements spécialisés, notamment en traitement de texte. Côté fonctionnalités, Gemma 4 peut analyser du texte, des images, de la vidéo, et parfois même de l’audio. Il prend en charge plus de 140 langues et peut traiter de très grandes quantités d’informations en une seule requête. Avec cette ouverture, Google répond aussi à la concurrence de modèles ouverts venus notamment de Chine. Et surtout, il rend enfin ses modèles exploitables dans des environnements professionnels sensibles, où la maîtrise des données est essentielle. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Envoyer un fichier d’un appareil à un autre, en théorie, rien de plus simple. En pratique, dès qu’on sort d’un écosystème unique, cela devient vite compliqué. AirDrop fonctionne surtout entre appareils Apple, Nearby Share, désormais appelé Quick Share, reste limité à Android et Chrome OS. Résultat : pour passer d’un iPhone à un PC, ou d’un Mac à un smartphone Android, beaucoup d’utilisateurs finissent par utiliser des services cloud, comme des espaces de stockage en ligne, qui servent d’intermédiaire. Une nouvelle application, baptisée Blip, propose une approche différente. Son principe : permettre un transfert direct entre appareils, sans passer par Internet ni par un serveur distant. On parle ici de connexion « pair à pair », c’est-à-dire que les deux appareils communiquent directement entre eux.Concrètement, l’application est disponible sur Mac, Windows, iOS et Android. L’envoi se fait en une seule étape : on sélectionne un fichier, on choisit le destinataire dans la liste de contacts Blip, et le transfert démarre immédiatement. Pas de lien à générer, pas de téléchargement secondaire à effectuer. L’un des avantages majeurs, c’est la vitesse. En réseau local, par exemple via le Wi-Fi domestique, les débits peuvent être bien supérieurs à ceux d’une connexion Internet classique. Autre point notable : il n’y a pas de limite de taille. Des fichiers de plusieurs dizaines de gigaoctets peuvent être transférés sans difficulté.Blip intègre aussi des fonctions pratiques : le transfert reprend automatiquement en cas d’interruption, coupure réseau, déconnexion d’un disque ou manque temporaire d’espace. Les dossiers peuvent être envoyés tels quels, sans compression préalable, ce qui évite des manipulations supplémentaires. Et les données sont chiffrées pendant le transfert, c’est-à-dire protégées pour empêcher toute interception. Pour utiliser le service, il suffit de créer un compte avec une adresse e-mail. L’application est gratuite pour un usage personnel, sans publicité. Un modèle payant pourrait être proposé à terme pour les professionnels. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Taper un mot de passe avec des manettes de réalité virtuelle, ce n’est ni rapide, ni pratique. Quant au scan rétinien, souvent évoqué comme solution biométrique, il reste coûteux et complexe à intégrer. Des chercheurs de l’université Rutgers, aux États-Unis, proposent aujourd’hui une alternative inattendue : s’authentifier grâce… aux vibrations de son propre corps.Leur système, baptisé VitalID, repose sur un principe simple en apparence. À chaque battement de cœur et à chaque respiration, de minuscules vibrations se propagent dans le corps, remontent le long du cou et atteignent le crâne. Or, chaque individu possède une structure osseuse unique, forme, densité, épaisseur — qui modifie la manière dont ces vibrations circulent. À cela s’ajoutent les tissus du visage, eux aussi différents d’une personne à l’autre. Résultat : une signature biométrique propre à chacun, comparable à une empreinte digitale, mais invisible et continue.L’un des atouts majeurs de cette technologie, c’est qu’elle ne nécessite aucun matériel supplémentaire. Les casques de réalité virtuelle ou mixte sont déjà équipés de capteurs de mouvement très sensibles. Ces capteurs suffisent à détecter les micro-vibrations du corps. Le véritable défi est logiciel : il faut isoler ces signaux très faibles du bruit généré par les mouvements de tête. C’est précisément ce qu’a développé l’équipe dirigée par la professeure Yingying Chen. Les résultats sont prometteurs. Testé sur 52 utilisateurs pendant dix mois, avec des casques du commerce, le système a correctement identifié l’utilisateur dans plus de 95 % des cas. Et surtout, il a rejeté les imposteurs avec un taux supérieur à 98 %. L’étude, présentée lors d’une conférence internationale en cybersécurité, a d’ailleurs été distinguée.Autre avantage : l’authentification est continue. Le casque vérifie en permanence que la bonne personne est en train de l’utiliser, sans interrompre l’expérience. Contrairement à un mot de passe, qu’on entre une seule fois, ici la vérification se fait en arrière-plan. Imiter ce système semble particulièrement difficile. On peut reproduire un rythme respiratoire, mais pas la structure d’un crâne. Pour l’instant, VitalID reste au stade de prototype. Mais les chercheurs cherchent déjà des partenaires industriels pour transformer cette innovation en solution concrète. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Dans l’univers du streaming vidéo, un phénomène s’impose de plus en plus clairement : les abonnés ne restent plus. Selon une analyse portant sur cinq grandes plateformes, le taux moyen de résiliation volontaire, ce que l’on appelle le churn, atteint 8,87 % par mois. Autrement dit, près de 9 abonnés sur 100 quittent leur service chaque mois de leur propre initiative. Sur une année, cela représenterait plus de 39 millions de départs cumulés.Ce churn désigne précisément les utilisateurs qui choisissent de se désabonner, sans y être contraints par un problème technique ou une fin d’essai gratuit. Et aujourd’hui, ce comportement est devenu presque systématique. Il porte même un nom : le binge-and-churn. On s’abonne, on regarde une série ou un film en quelques jours, parfois en quelques heures, puis on se désinscrit.En France, cette tendance est confirmée par les données de la plateforme Spliiit, qui observe ces usages sur plusieurs mois. Et contrairement à une idée reçue, les grandes plateformes ne sont pas épargnées. Prime Video arrive en tête… mais pour de mauvaises raisons. Avec un taux de churn de 12,64 % par mois, c’est la plateforme la plus touchée. Sur environ 9,5 millions d’abonnés, cela représente 1,2 million de départs mensuels. Un paradoxe, car Amazon recrute massivement via son offre globale Prime. Mais ces utilisateurs ne restent pas forcément pour les contenus vidéo. Apple TV+ et HBO Max suivent avec des taux proches, autour de 9,4 %. Leur point commun : un catalogue jugé trop limité. Les abonnés viennent pour un programme précis, puis repartent aussitôt.À l’inverse, Netflix s’en sort mieux, avec un churn de 5,62 %. Malgré un nombre élevé de résiliations en valeur absolue, la plateforme bénéficie d’un catalogue riche et renouvelé, qui incite à rester. Disney+, de son côté, affiche 7,25 %, soutenu par des univers forts comme Marvel ou Star Wars, qui fidélisent davantage. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
La rivalité entre les États-Unis et la Chine se joue aujourd’hui sur un terrain bien précis : celui des technologies de pointe, et en particulier de l’intelligence artificielle. Un domaine devenu stratégique, à la fois pour l’économie, la défense et l’influence mondiale. Et sur ce terrain, Washington entend mobiliser ses meilleurs atouts.Les États-Unis disposent en effet d’un vivier exceptionnel d’entrepreneurs et de dirigeants technologiques. Des figures comme Jensen Huang, à la tête de NVIDIA, entreprise devenue incontournable dans la fabrication de puces utilisées pour l’IA, incarnent cette puissance industrielle. C’est dans ce réservoir de talents que l’administration Trump a décidé de puiser pour constituer un conseil technique de haut niveau. Ce conseil, baptisé PCAST, pour President’s Council of Advisors on Science and Technology, n’est pas nouveau. Créé en 2001 sous la présidence de George W. Bush, il a pour mission de conseiller la Maison-Blanche sur les grandes orientations scientifiques et technologiques. Dissous puis réactivé au fil des administrations, il connaît aujourd’hui une nouvelle incarnation.Le nouveau PCAST sera co-présidé par Michael Kratsios et David Sacks. Mais surtout, il rassemble treize personnalités majeures de la tech américaine. Parmi elles : Jensen Huang, mais aussi Mark Zuckerberg, patron de Meta, Larry Ellison, fondateur d’Oracle, ou encore Lisa Su, dirigeante d’AMD. Autant de profils directement impliqués dans les infrastructures et les usages de l’intelligence artificielle.Dans un communiqué, la Maison-Blanche précise que ce conseil devra se pencher sur les opportunités, mais aussi les défis posés par les technologies émergentes, notamment pour le marché du travail. L’objectif affiché : permettre aux Américains de prospérer dans ce qui est présenté comme un nouvel « âge d’or » de l’innovation. Mais derrière cette ambition, il y a aussi une inquiétude. Celle de voir la Chine prendre l’avantage dans la course à l’IA. Car cette technologie ne se limite pas aux applications civiles : elle est aussi au cœur des systèmes militaires, du renseignement et de la cybersécurité. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Huit jours après avoir promis de « traquer » les membres du groupe Handala avec toute la puissance des forces de l’ordre américaines, Kash Patel se retrouve lui-même au centre de l’affaire. Son nom figure désormais parmi les cibles revendiquées par ce collectif de hackers. Le FBI a confirmé fin mars qu’un accès non autorisé avait bien visé la messagerie personnelle de son directeur. L’agence assure toutefois avoir pris les mesures nécessaires pour limiter les risques. Selon son porte-parole, les données concernées sont anciennes et ne touchent à aucune information gouvernementale sensible.Dans le détail, les e-mails divulgués s’étendent de 2011 à 2022. Ils incluent des échanges personnels, professionnels ou liés à des déplacements, comme des réservations de voyage. Aucun élément ne semble concerner des opérations en cours du FBI. Le groupe a également diffusé des photos privées inédites de Kash Patel, ce qui renforce la dimension embarrassante de l’affaire. Car au-delà de la sécurité nationale, c’est bien l’image qui est en jeu. D’autant que, selon plusieurs informations, cette vulnérabilité était connue. Fin 2024, avant même sa nomination à la tête du FBI, Kash Patel avait été alerté qu’un piratage attribué à des acteurs iraniens avait compromis certaines de ses communications personnelles. Malgré cela, ce compte n’aurait pas été suffisamment sécurisé par la suite.Autre élément clé : les métadonnées ; ces informations techniques attachées aux fichiers, comme leur date de création ; indiquent que le piratage remonte à avant le conflit opposant les États-Unis, Israël et l’Iran. Le groupe Handala aurait donc conservé ces données pour les publier à un moment stratégique, en réaction notamment à la saisie récente de ses domaines internet par le FBI.Il faut aussi relativiser l’ampleur technique de l’attaque. Contrairement aux affirmations du groupe, il ne s’agit pas d’une intrusion dans les systèmes internes du FBI, mais d’un accès à un compte Gmail personnel, visiblement insuffisamment protégé, notamment sans authentification renforcée ; un dispositif qui ajoute une étape de vérification, comme un code envoyé sur un téléphone. Pour les experts en cybersécurité, cette opération s’inscrit dans une stratégie classique dite de « hack-and-leak » : pirater des données, puis les diffuser pour fragiliser une cible. Objectif : exposer, embarrasser et créer un sentiment de vulnérabilité. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
« Il y a eu beaucoup de lancements récemment… rassurez-vous, celui-ci n’est qu’une application. » Le ton est donné. Dans une vidéo mêlant images de missiles et humour grinçant, l’administration Trump a annoncé, sur le compte officiel de la Maison-Blanche sur X, la sortie de sa nouvelle application mobile, désormais disponible sur les principales plateformes.Sur le papier, la promesse est ambitieuse : offrir une information « en temps réel, sans filtre, directement à la source ». Dans les faits, l’application ressemble surtout à un hub de contenus officiels. On y trouve des communiqués, des vidéos en direct, une galerie d’images, ainsi qu’un regroupement des publications issues des réseaux sociaux de la Maison-Blanche, X, TikTok, Instagram ou encore Truth Social.Mais après quelques minutes d’utilisation, l’écart entre la promesse et la réalité apparaît clairement. Prenons l’onglet « Affordability », censé illustrer la baisse du coût de la vie. Les données, issues du Bureau of Labor Statistics, l’organisme américain chargé des statistiques économiques, montrent bien une diminution des prix… mais sur une sélection très restreinte de produits. Le lait, par exemple, correspond ici à des versions allégées, dont les prix ont davantage baissé que ceux du lait entier. En revanche, des produits en hausse, comme le café, le bœuf haché ou le jus d’orange, sont absents. Même constat pour les carburants. Côté fonctionnalités, certaines promesses peinent aussi à se concrétiser. Les retransmissions en direct ne sont pas systématiques : un discours présidentiel récent n’était pas disponible en temps réel. L’onglet « Social », qui centralise les réseaux, souffre quant à lui de problèmes techniques, avec des ralentissements fréquents.Autre point sensible : les données personnelles. L’application demande l’accès à la localisation précise, aux empreintes digitales et à certains fichiers du téléphone. Des autorisations jugées intrusives par plusieurs utilisateurs, d’autant que la politique de confidentialité reste très générale sur leur usage. Enfin, un bouton permettant de signaler des individus à l’agence fédérale ICE, chargée de l’immigration, suscite la controverse. Présenté comme un outil citoyen, il est perçu par certains comme un moyen de dénonciation simplifié. Reste une question en suspens : celle de la durée de vie de cette application. Contrairement aux comptes officiels, transmis d’une administration à l’autre, son avenir après le mandat actuel demeure incertain. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Six mois à peine après son lancement très médiatisé, Sora, l’outil de génération vidéo d’OpenAI, s’apprête déjà à disparaître. Selon plusieurs médias américains, l’entreprise a décidé de fermer à la fois l’application, son interface de programmation, ce que l’on appelle une API, utilisée par les développeurs pour intégrer un service, et le site dédié. L’annonce a été faite sobrement sur le réseau X, sans calendrier précis. OpenAI indique simplement qu’un plan sera communiqué pour permettre aux utilisateurs de récupérer leurs créations. Mais derrière cette communication minimaliste, le constat est clair : le projet n’a pas tenu ses promesses.Pourtant, les débuts semblaient prometteurs. En novembre 2025, l’application avait enregistré 3,3 millions de téléchargements, portée par l’intérêt autour de Sora 2 et de son volet social. Mais dès janvier, la dynamique s’est inversée, avec une chute de 45 % des téléchargements. Le revers le plus marquant concerne un partenariat stratégique avec Disney. Un accord prévoyait l’utilisation de plus de 200 personnages issus de franchises comme Marvel, Pixar ou Star Wars, pour un montant estimé à un milliard de dollars. Finalement, ce contrat ne sera jamais concrétisé. Aucun échange financier n’a eu lieu.En coulisses, plusieurs facteurs expliquent ce retrait. D’abord, le coût. La génération vidéo par intelligence artificielle est extrêmement gourmande en puissance de calcul, notamment en GPU, ces processeurs spécialisés indispensables à l’entraînement et à l’exécution des modèles. Dans un contexte où ces ressources sont rares et très sollicitées, maintenir un service aussi exigeant devient difficilement soutenable. Ensuite, la concurrence. Des acteurs comme Anthropic se concentrent sur des usages plus rentables, comme le texte ou le code, avec des outils mieux adaptés aux besoins des entreprises. À l’inverse, Sora séduisait surtout le grand public, sans modèle économique encore stabilisé.La décision s’inscrit donc dans une stratégie plus large : recentrer les efforts sur les produits jugés prioritaires, notamment en vue de futurs investissements. Pour autant, la technologie ne disparaît pas totalement. Les équipes de Sora vont se réorienter vers la simulation du monde physique, un domaine clé pour la robotique. Et certaines fonctions vidéo devraient subsister, de manière plus intégrée, dans ChatGPT. En abandonnant Sora comme produit autonome, OpenAI laisse désormais le champ libre à d’autres acteurs. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Le dark web fascine autant qu’il inquiète. Dans cet univers souvent entouré de fantasmes, un nom revient régulièrement : le Hidden Wiki, présenté comme une sorte de porte d’entrée vers les services cachés accessibles via le réseau Tor. En réalité, cette image est trompeuse.Contrairement à ce que laisse penser son nom, il n’existe pas un Hidden Wiki officiel, stable et reconnu. Il s’agit en fait d’une multitude de pages distinctes, qui circulent sous la même appellation. Ces pages fonctionnent comme des annuaires : elles listent des adresses en .onion, ces sites accessibles uniquement via Tor, un réseau conçu pour anonymiser la navigation. Le problème, c’est que ces listes sont souvent alimentées de manière anonyme, copiées, modifiées, puis répliquées ailleurs. Résultat : des liens obsolètes, des services disparus, et des copies qui continuent d’exister sans mise à jour fiable. Ce qui donne l’illusion d’un répertoire structuré… alors qu’il s’agit en réalité d’un assemblage hétérogène et peu contrôlé.Dans ce contexte, la question de la fiabilité devient centrale. Certains liens peuvent mener vers des services légitimes — des médias, par exemple, ou des outils axés sur la confidentialité qui proposent une version .onion de leur site. Mais beaucoup d’autres redirigent vers des pages inactives, des miroirs, ou des plateformes dont l’origine est difficile à vérifier. C’est là que les risques apparaissent. Comme sur le web classique, il est possible de tomber sur des sites frauduleux, conçus pour imiter des services connus et récupérer des identifiants ou diffuser des logiciels malveillants. La différence, c’est qu’ici, les repères sont moins nombreux pour distinguer le vrai du faux.Pour s’orienter, certains outils offrent des alternatives plus fiables. Des moteurs comme Ahmia indexent une partie des services .onion accessibles publiquement, avec un filtrage de contenu. D’autres sites, comme Dark.fail, permettent de vérifier l’adresse de plateformes connues. Mais la méthode la plus sûre reste souvent la plus simple : consulter directement les sites officiels sur le web classique, qui publient parfois leur adresse .onion. Enfin, une précision importante : utiliser Tor n’a rien d’illégal en soi. Ce réseau permet notamment de contourner la censure ou de protéger sa vie privée. En revanche, la prudence reste essentielle. Éviter les téléchargements douteux, vérifier les sources, et comprendre que ces annuaires ne sont pas des références fiables. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Douze ans après l’échec retentissant du Fire Phone, Amazon semble prêt à retenter sa chance sur le marché des smartphones. Selon plusieurs informations, le groupe travaillerait actuellement sur un nouveau projet baptisé en interne « Transformer », un appareil fortement orienté vers l’intelligence artificielle et son assistant vocal Alexa.Le souvenir du Fire Phone, lancé en 2014, reste encore vif. À l’époque, Amazon avait tenté de se démarquer avec des fonctionnalités originales, comme un affichage 3D sans lunettes ou encore Firefly, un outil capable d’identifier des objets via la caméra. Malgré un prix attractif, environ 200 dollars sans abonnement, le téléphone n’a jamais trouvé son public. En cause notamment : un écosystème applicatif limité, basé sur l’Amazon Appstore, loin derrière le Google Play Store en termes de choix et de diversité. Résultat, le produit a été retiré du marché à peine un an après sa sortie.Avec ce nouveau projet, Amazon change d’approche. Plutôt que de rivaliser frontalement avec les boutiques d’applications traditionnelles, l’entreprise mise sur une autre logique : l’intelligence artificielle comme interface principale. L’idée serait de permettre à l’utilisateur d’interagir directement avec son téléphone via Alexa, sans forcément passer par des applications classiques. Concrètement, cela signifie que certaines tâches, commander un repas, lancer un film, gérer son agenda, pourraient être exécutées à la voix ou via des requêtes intelligentes, sans ouvrir d’application dédiée. Une manière de contourner le problème qui avait plombé le Fire Phone : la dépendance à un catalogue d’apps insuffisant.Le futur smartphone serait également conçu pour s’intégrer étroitement à l’écosystème Amazon : Prime Video, Prime Music, services de livraison comme Grubhub, ou encore la plateforme de commerce en ligne. Alexa deviendrait ainsi le point d’entrée central pour accéder à l’ensemble de ces services. Attention toutefois : Alexa ne serait pas le système d’exploitation lui-même, mais plutôt une couche d’interaction avancée. Une différence notable avec le Fire Phone, dont le fonctionnement était trop dépendant de l’environnement Amazon.Reste que ce pari est loin d’être gagné. Le marché des smartphones est aujourd’hui dominé par quelques acteurs majeurs, et les habitudes des utilisateurs sont bien ancrées. Miser sur une interface centrée sur l’IA constitue une rupture… mais aussi un risque. D’autant que, pour l’instant, le projet reste au stade de développement. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Peut-on vraiment tout transformer en pari, y compris les événements les plus tragiques ? La question s’impose aujourd’hui à mesure que la plateforme américaine Polymarket repousse les limites du concept.Spécialisée dans les marchés prédictifs, des systèmes où l’on mise de l’argent sur la probabilité qu’un événement se produise, la société fait déjà l’objet de critiques, notamment autour de soupçons de délits d’initié. Mais loin de calmer le jeu, elle vient d’inaugurer un lieu inédit à Washington, à quelques pas de la Maison Blanche. Son nom : « Situation Room », en référence à la célèbre salle de crise où les dirigeants américains gèrent les situations les plus sensibles. Le concept, lui, se veut hybride. « Imaginez un bar sportif… mais dédié à la surveillance de l’actualité », résume Polymarket.Concrètement, les clients évoluent dans un espace saturé d’écrans diffusant en continu des flux d’informations : chaînes d’actualité, données financières, radars aériens ou encore publications en temps réel sur les réseaux sociaux. Un environnement pensé pour suivre l’actualité mondiale… et surtout pour réagir immédiatement. Car derrière l’expérience immersive, l’objectif est clair : permettre aux visiteurs de parier sur des événements géopolitiques en cours ou à venir. Conflits armés, tensions internationales, voire scénarios extrêmes comme des frappes militaires ou des crises majeures.Ce modèle repose sur une logique bien connue dans le monde des paris : plus l’information est rapide et abondante, plus les utilisateurs sont incités à miser. Le pari devient alors une forme d’anticipation, presque une lecture stratégique de l’actualité. Mais cette approche suscite déjà de vives réactions. Sur les réseaux sociaux, certains dénoncent une forme de « casino géopolitique », où l’émotion, l’urgence et même l’ambiance festive pourraient encourager des prises de décision impulsives.Derrière la polémique, une interrogation plus profonde émerge : que se passe-t-il lorsque l’information, la finance et le divertissement se confondent ? Et surtout, lorsque des événements dramatiques, guerres, crises humanitaires, deviennent des objets de spéculation en temps réel ? Polymarket, de son côté, parie sur l’intérêt du public pour ce type d’expérience. Mais en installant ce dispositif au cœur même de la capitale américaine, la plateforme ne se contente plus d’observer le monde : elle invite désormais à miser sur ses secousses. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Lors de sa conférence GTC 2026, Jensen Huang, patron de Nvidia, a affirmé que son entreprise était aujourd’hui « le plus grand contributeur à l’IA open source au monde ». Une déclaration ambitieuse… mais difficile à contester. Depuis plusieurs années, le géant américain met à disposition des développeurs une vaste panoplie d’outils : modèles d’intelligence artificielle, jeux de données, environnements de simulation ou encore frameworks, ces briques logicielles qui facilitent le développement d’applications.Dernier exemple en date : la création de la coalition Nemotron. Ce consortium réunit plusieurs acteurs majeurs de la recherche en IA, dont la startup française Mistral AI. Leur objectif : concevoir ensemble un modèle de pointe, ce que l’on appelle un frontier model, c’est-à-dire un système situé à la frontière des capacités actuelles de l’intelligence artificielle. Ce modèle sera entraîné sur l’infrastructure cloud de Nvidia, baptisée DGX Cloud, et servira de base à une nouvelle génération de modèles ouverts. « Ouverts », car leur code et leur fonctionnement seront accessibles, permettant à des entreprises ou des chercheurs de les adapter à leurs propres usages.Mais derrière cette stratégie se cache aussi une logique industrielle très claire. En favorisant l’open source, Nvidia s’assure que ses technologies deviennent des standards. Et comme ces modèles sont optimisés pour fonctionner sur ses propres puces, cela incite indirectement les utilisateurs à adopter son matériel.Autre annonce marquante : NemoClaw, un module conçu pour encadrer les agents d’intelligence artificielle. Ces agents, capables d’agir de manière autonome, écrire du code, manipuler des fichiers ou interagir avec Internet, posent encore des problèmes de fiabilité. NemoClaw introduit des garde-fous : restrictions d’accès, contrôle des actions, et même un système capable de décider si une tâche doit être traitée en local ou dans le cloud, notamment lorsqu’elle implique des données sensibles. Car ces agents consomment énormément de tokens, ces unités de texte utilisées par les modèles pour traiter l’information. Un détail technique… mais stratégique : plus il y a de tokens, plus la demande en puissance de calcul augmente, et donc en matériel Nvidia.Lors de la conférence, Arthur Mensch, dirigeant de Mistral AI, a toutefois rappelé une réalité plus nuancée. Si ces outils ouvrent des possibilités inédites, leur déploiement à grande échelle reste complexe pour les entreprises. Mais il a aussi défendu un point essentiel : les modèles ouverts permettent aux organisations de garder le contrôle sur leurs technologies. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Revenons quelques années en arrière. Janvier 2018. Un jeune analyste australien, Nathan Ruser, explore une carte un peu particulière : la heatmap de Strava, une application de suivi sportif. Cette carte agrège les parcours des utilisateurs pour visualiser les zones les plus fréquentées. Mais ce jour-là, elle révèle bien plus que des itinéraires de joggeurs : les contours lumineux de bases militaires américaines secrètes, en Afghanistan, en Somalie ou encore en Syrie. Le choc est immédiat. Le Pentagone interdit les objets connectés en zone opérationnelle, et plusieurs pays, dont la France, adoptent des consignes similaires. Huit ans plus tard, le problème n’a pourtant pas disparu.Le 13 mars 2026, un officier de la Marine nationale court sur le pont du porte-avions Charles-de-Gaulle, montre connectée au poignet. Sept kilomètres en boucle, en pleine Méditerranée orientale. Rien d’exceptionnel… sauf que son activité est publiée automatiquement sur Strava, en accès public. Des journalistes parviennent alors à localiser le navire presque en temps réel, puis confirment sa position grâce à des images satellites prises à peine 90 minutes plus tard. Résultat : le porte-avions est identifié avec une précision de quelques kilomètres. La réaction des autorités est classique : rappel des consignes, promesse de sanctions, et insistance sur ce que l’armée appelle « l’hygiène numérique du combattant ». Autrement dit, l’ensemble des bonnes pratiques visant à éviter les fuites d’informations via les outils numériques.Ce n’est pas un cas isolé. En 2025 déjà, des membres d’équipage de sous-marins nucléaires avaient involontairement partagé des éléments liés à leurs patrouilles. Même scénario en 2024 avec des agents de sécurité de chefs d’État. Le problème est en partie technique. Des applications comme Strava sont conçues pour partager par défaut les activités sportives. La synchronisation avec le cloud, c’est-à-dire l’envoi automatique des données vers des serveurs en ligne, est activée dès le départ. À l’utilisateur de désactiver ces options, s’il y pense.Des solutions existent pourtant. Certaines armées testent des systèmes capables de bloquer toute connexion vers ces applications depuis des zones sensibles. Mais en France, on privilégie encore la sensibilisation. Un choix qui interroge, dans un contexte tendu. Plusieurs installations françaises ont récemment été ciblées, et un soldat a été tué en Irak par un drone. Dans ce type de situation, une simple donnée de localisation peut suffire à réduire drastiquement la zone de recherche pour un adversaire. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Pour de nombreux développeurs web, intégrer un véritable éditeur de documents compatible avec Microsoft Word dans une application en ligne relève souvent du casse-tête. Les solutions existantes reposent généralement sur des systèmes lourds côté serveur ou sur des services propriétaires via des API payantes, ce qui peut rapidement devenir coûteux et complexe à déployer. Un nouveau projet open source pourrait toutefois simplifier les choses. Il s’appelle docx-js-editor, et il propose une approche différente : permettre d’ouvrir, modifier et enregistrer des fichiers .docx directement dans le navigateur, sans passer par un serveur distant.Le principe repose sur un éditeur dit WYSIWYG, acronyme de What You See Is What You Get — littéralement « ce que vous voyez est ce que vous obtenez ». Autrement dit, le document affiché à l’écran correspond exactement au résultat final, comme dans un traitement de texte classique. La particularité de cet outil est qu’il a été conçu spécifiquement pour l’environnement React, une bibliothèque très populaire utilisée pour construire des interfaces web modernes. Toute la phase d’édition se fait localement sur l’ordinateur de l’utilisateur, dans le navigateur lui-même. Résultat : les documents ne sont pas envoyés vers un serveur externe pour être traités, ce qui peut représenter un avantage en matière de confidentialité des données.Sur le plan technique, l’éditeur repose sur une architecture proche de ProseMirror, un moteur open source utilisé pour créer des éditeurs de texte complexes sur le web. Cela permet notamment d’ajouter facilement des plugins, c’est-à-dire des modules complémentaires qui étendent les fonctionnalités de l’outil. Contrairement à certains éditeurs web qui convertissent les documents Word de manière approximative, la gestion du format DOCX est ici intégrée directement dans le cœur du système. L’objectif est de maintenir une compatibilité maximale avec les fichiers créés dans Microsoft Word.Dans les fonctionnalités de base, on retrouve l’essentiel d’un traitement de texte : mise en forme du texte — gras, italique, polices et couleurs — insertion d’images, création de tableaux ou encore gestion des hyperliens. L’outil se veut également extensible. Par exemple, un plugin permet de surligner automatiquement les balises utilisées par Docxtemplater, un système souvent employé pour générer automatiquement des documents comme des factures, des contrats ou des rapports à partir de modèles. Distribué sous licence MIT, l’une des licences open source les plus permissives, docx-js-editor pourrait donc intéresser les développeurs qui cherchent une solution légère pour intégrer l’édition de documents Word dans leurs applications web, sans avoir recours à des infrastructures complexes ou à des services payants. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
En 2022, la start-up australienne Cortical Labs avait attiré l’attention du monde scientifique en dévoilant DishBrain, un prototype de bio-ordinateur capable de jouer à Pong, l’un des tout premiers jeux vidéo de l’histoire. La particularité de ce système : il ne fonctionne pas avec des transistors classiques, mais avec de véritables neurones humains cultivés en laboratoire. Trois ans plus tard, l’entreprise est passée à l’étape suivante. En 2025, elle a présenté CL1, la première version commerciale de cette technologie. Ce bio-ordinateur peut être acheté directement ou utilisé à distance via le cloud, grâce à une API, c’est-à-dire une interface logicielle qui permet aux développeurs d’interagir avec le système.Très vite, une question s’est imposée dans la communauté technologique : ce bio-ordinateur peut-il jouer à Doom ? Sorti en 1993, ce jeu de tir est devenu au fil des années une sorte de test emblématique pour les ingénieurs. On l’a déjà vu fonctionner sur des appareils improbables : des tracteurs, des calculatrices… et même un test de grossesse électronique. Cette fois, le défi était différent. Il ne s’agissait pas simplement de lancer le jeu, mais de permettre au bio-ordinateur d’y jouer lui-même. Pour y parvenir, Cortical Labs a collaboré avec le chercheur indépendant Sean Cole, qui a adapté le jeu afin que les neurones puissent l’interpréter.Le problème principal est que ces neurones ne voient pas les images. Les informations du jeu ont donc été traduites en stimulations électriques, envoyées directement aux cellules. Les réponses des neurones, elles aussi électriques, sont ensuite converties en actions dans le jeu : se déplacer, tirer ou changer de direction. Le résultat reste encore rudimentaire. Le système parvient à repérer des ennemis et à tirer, mais son niveau reste celui d’un joueur débutant. Comme l’explique Brett Kagan, scientifique chez Cortical Labs, « les cellules jouent pour l’instant comme quelqu’un qui n’a jamais touché un ordinateur ».Ce qui surprend les chercheurs, c’est la vitesse d’apprentissage. Alors qu’il avait fallu 18 mois pour apprendre à jouer à Pong, le bio-ordinateur a commencé à comprendre Doom en moins d’une semaine. Chaque puce du système contient environ 200 000 neurones, cultivés dans un milieu nutritif et posés sur une matrice multi-électrode. Ce dispositif permet à la fois de stimuler les cellules et d’enregistrer leurs réponses. Pour Cortical Labs, cette démonstration sert surtout à prouver que son interface logicielle fonctionne. L’entreprise espère désormais que chercheurs et développeurs utiliseront l’API pour inventer de nouvelles méthodes d’apprentissage et de communication avec les neurones. Une frontière encore très expérimentale entre biologie et informatique. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
L’Office européen des brevets, l’OEB, franchit une nouvelle étape dans la modernisation de ses outils numériques. Cette semaine à Munich, l’institution a annoncé un partenariat avec la start-up française Mistral AI. L’objectif : améliorer l’analyse des millions de documents techniques qui composent l’univers des brevets.Au cœur du projet, une technologie appelée reconnaissance optique de caractères, ou OCR. Ce système permet de transformer des documents numérisés, par exemple des scans ou des images, en texte exploitable par des machines. Autrement dit, ce qui était auparavant une simple image devient une information analysable automatiquement par des logiciels. Dans le domaine des brevets, ce défi est particulièrement complexe. Les dossiers ne contiennent pas seulement du texte. On y trouve aussi des formules scientifiques, des schémas, des structures chimiques, des tableaux, et souvent plusieurs langues dans un même document. Sans oublier des archives anciennes numérisées, parfois difficiles à lire pour les logiciels classiques. La solution développée avec Mistral AI a donc été spécialement conçue pour ce type de contenu hybride. Elle promet une extraction des informations plus précise que les outils OCR traditionnels.L’enjeu est considérable. Chaque année, l’Office européen des brevets examine environ 200 000 nouvelles demandes et délivre près de 120 000 brevets. Au total, l’organisation gère une base gigantesque de plus de 160 millions de documents techniques. Pour les examinateurs, disposer de données mieux structurées change tout. Cela permet d’effectuer des recherches d’antériorité plus rapides et plus fiables. Ces recherches consistent à vérifier si une invention est réellement nouvelle ou si une technologie similaire existe déjà quelque part dans la littérature scientifique ou industrielle. Le choix de Mistral AI n’est pas anodin. En travaillant avec une entreprise européenne, l’OEB s’assure que les données sensibles liées aux brevets restent traitées dans le cadre juridique et éthique de l’Union européenne.La start-up française n’en est d’ailleurs pas à son premier projet institutionnel : elle a récemment signé un accord avec le ministère français des Armées pour fournir des modèles d’intelligence artificielle. Avant l’annonce officielle, le partenariat a commencé par trois mois de tests, durant lesquels le modèle d’IA a été entraîné sur de véritables documents de brevets. Un déploiement plus large est désormais envisagé. Au-delà de ce projet précis, l’initiative illustre une tendance plus large : construire un écosystème européen d’intelligence artificielle capable de traiter des données stratégiques sans dépendre des plateformes américaines ou asiatiques. Reste à savoir si d’autres institutions auront les moyens techniques et financiers de suivre cette voie. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Meta s’apprête à modifier une fonction de sécurité importante sur Instagram. Après un peu plus de trois ans d’existence, le chiffrement de bout en bout des messages privés va disparaître de la plateforme. L’entreprise a annoncé que cette option ne serait plus disponible à partir du 8 mai 2026.Pour comprendre ce changement, il faut rappeler ce qu’est le chiffrement de bout en bout, souvent abrégé en E2EE, pour End-to-End Encryption. Ce système garantit que seuls l’expéditeur et le destinataire peuvent lire un message. Même l’entreprise qui gère le service, en l’occurrence Meta, n’a théoriquement aucun accès au contenu échangé. Cette technologie est déjà bien connue des utilisateurs de WhatsApp, autre application du groupe Meta, où elle est activée automatiquement. Sur Instagram, la situation était différente : le chiffrement existait bien, mais il fallait l’activer manuellement pour chaque conversation. Résultat, selon Meta, très peu d’utilisateurs ont réellement utilisé cette option.Dans un message publié sur ses pages d’assistance, la plateforme confirme donc que les conversations chiffrées ne seront plus prises en charge après le 8 mai 2026. Les utilisateurs seront invités à télécharger leurs messages ou leurs contenus multimédias s’ils souhaitent les conserver avant la disparition de cette fonctionnalité. Meta explique que ceux qui souhaitent continuer à bénéficier d’un chiffrement fort pourront se tourner vers WhatsApp, où cette protection reste active par défaut.Derrière cette décision se trouve aussi un autre enjeu : la modération des contenus. Sans chiffrement de bout en bout, les plateformes peuvent analyser les messages pour détecter certains contenus illégaux. Parmi les priorités évoquées figurent notamment les abus sexuels sur mineurs, un problème régulièrement signalé sur les réseaux sociaux. Depuis plusieurs années, les autorités publiques et les régulateurs demandent aux grandes entreprises technologiques d’intensifier leurs efforts dans ce domaine. Certains estiment en effet que le chiffrement total peut parfois créer des espaces de communication impossibles à surveiller, susceptibles d’être utilisés pour des activités criminelles. Cette décision illustre donc un débat plus large qui traverse le monde du numérique : comment concilier la protection de la vie privée des utilisateurs avec les exigences de sécurité et de lutte contre les contenus illégaux. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Au salon AWE 2026, organisé début mars à Shanghai, la marque chinoise Dreame a créé la surprise. Jusqu’ici connue surtout pour ses aspirateurs robots et ses appareils domestiques, l’entreprise a dévoilé pas moins de vingt-neuf smartphones d’un seul coup. Cette nouvelle gamme, baptisée Aurora, marque l’entrée officielle du groupe sur le marché très compétitif du smartphone haut de gamme. Pour soutenir cette ambition, Dreame affirme avoir investi plus d’un milliard d’euros en recherche et développement sur trois ans. L’objectif est clair : se positionner face aux grands noms du secteur, en misant à la fois sur l’innovation technologique et sur le design.Le modèle le plus spectaculaire de la présentation s’appelle NEX LS1. Sa particularité saute immédiatement aux yeux : le dos du téléphone est totalement lisse, sans le traditionnel bloc photo. La raison est simple : le module photo est amovible. Il se fixe au smartphone grâce à un système d’aimants et de contacts métalliques. À l’intérieur de ce module détachable, on trouve un capteur d’un pouce, un format généralement réservé aux smartphones les plus performants, comparable à celui utilisé sur certains modèles haut de gamme de Xiaomi. Il intègre aussi un téléobjectif périscopique de 115 millimètres, un système optique qui permet d’obtenir un zoom puissant en repliant la lentille à l’intérieur du téléphone. Particularité supplémentaire : le module photo possède sa propre batterie. L’idée derrière ce concept est double. D’abord, offrir un appareil photo plus performant qu’un module classique intégré au smartphone. Ensuite, permettre une évolution indépendante : si un nouveau module photo apparaît l’année suivante, l’utilisateur pourrait théoriquement le remplacer sans changer de téléphone.Cette approche soulève cependant des questions pratiques. L’utilisateur devra transporter ce module en permanence s’il souhaite bénéficier d’un appareil photo performant. Dreame évoque bien un petit capteur intégré pour les usages basiques, comme scanner un QR code, mais cela reste une solution limitée. Côté logiciel, Dreame prépare aussi Aurora AIOS 1.0, un système d’exploitation annoncé pour le second semestre 2026. Il intégrerait plusieurs fonctions d’intelligence artificielle, notamment pour la photographie, la sécurité réseau ou la personnalisation de l’interface. Mais l’architecture réelle du système reste floue : s’agit-il d’une version modifiée d’Android ou d’un OS totalement indépendant ?Enfin, la marque vise aussi le segment du luxe avec les modèles Aurora LUX, conçus avec des matériaux premium et développés en collaboration avec des studios de design internationaux. Avec cette stratégie, Dreame tente donc un pari ambitieux : s’attaquer simultanément à la technologie et au prestige, deux terrains où se joue aujourd’hui la bataille mondiale du smartphone. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.










ça me dépite de ce genre de langage.... un podcast reste un podcast, une vidéo reste une vidéo.... 🤦♀️ mais un podcast vidéo... on se demande bien où va nous mener la langue française si ça continue de s'aggraver.
Pas grand chose sur Deepseek qui fait des vagues avec son prix, performance, fonctionnalités etc. et le reste de laa concurrence en Chine
énorme erreur ! c'est la première fois où les différences entre le pro et pro max ne sont pas que la taille d'écran et la taille de la batterie, même le système des capteurs photos est différent. je suis déçu ! pour un podcast spécialisé, c'était la chose qu'il fallait retenir (et le fait qu'ils soient tous compatibles 5G)