Discover
ZD Tech : tout comprendre en moins de 3 minutes avec ZDNet
ZD Tech : tout comprendre en moins de 3 minutes avec ZDNet
Author: ZD Tech : tout comprendre en moins de 3 minutes
Subscribed: 28Played: 670Subscribe
Share
© Guillaume Serries
Description
Découvrir au quotidien les enjeux de la technologie. Le podcast de la rédaction de ZDNet, pour les professionnels à la recherche d'infos pratiques et concrètes pour mieux comprendre le marché IT et telco et son influence sur les métiers.
Hébergé par Ausha. Visitez ausha.co/fr/politique-de-confidentialite pour plus d'informations.
Hébergé par Ausha. Visitez ausha.co/fr/politique-de-confidentialite pour plus d'informations.
496 Episodes
Reverse
C'est peut-être une surprise, mais quand on ouvre les entrailles des usines et des centres logistiques modernes, une technologie de connexion sans-fil bien connue des amateurs de casque audio, le Bluetooth, devient le nouveau système nerveux de l'industrie mondiale, indique le Bluetooth Special Interest Group.Et voici un chiffre pour l'illustrer. Selon ABI Research, ce sont 600 millions d'équipements industriels Bluetooth qui seront livrés chaque année d'ici 2028.Et je vous explique l'impact de cette révolution pour vos infrastructures industrielles avec trois cas d'usage.Maintenance prédictiveD'abord, le Bluetooth industriel est utilisé pour faire de la maintenance prédictive.Concrètement, des capteurs Bluetooth basse consommation sont désormais greffés sur les moteurs et les convoyeurs pour surveiller en temps réel les vibrations, la température et le bruit. Le gain est surtout la fin des câblages complexes.Les données remontent vers des plateformes d'IA qui détectent les anomalies avec l'objectif de prévenir les pannes. Résultat, une réduction des pannes d'équipement de près de 70 % selon Deloitte.Localiser chaque objet en temps réelLe second cas d'usage, c'est une visibilité totale sur les machines et les outils présents dans les entreprises grâce au traçage Bluetooth.Et dans un entrepôt ou sur un chantier, le temps perdu à chercher un outil ou une pièce détachée est une perte nette de productivité.Les tags Bluetooth permettent ici de localiser chaque objet en temps réel. Et la nouveauté réside ici dans l'arrivée du "Bluetooth Channel Sounding".Derrière ce terme technique se cache une capacité de mesure de distance qui transforme votre inventaire en une carte interactive et dynamique.Sur ce point, ce sont 760 millions de balises de suivi qui devront être expédiées annuellement d'ici 2029.Le Bluetooth sécurise désormais les zones à risque via le "geofencing"Enfin le troisième point concerne la sécurité des professionnels sur les sites industriels.Le Bluetooth sécurise désormais les zones à risque via le "geofencing" ou périmètre virtuel.Pour ce faire, les équipements de protection individuelle, comme les casques ou les badges connectés, sont équipés de tags Bluetooth. Et ils communiquent avec les machines.Concrètement, si un opérateur pénètre dans une zone dangereuse, le système peut alerter ou stopper automatiquement l’équipement.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
Plongeons dans une faille de sécurité émergente aussi subtile que redoutable. Il s'agit de l'empoisonnement des recommandations des IA par manipulation de la mémoire.Concrètement, derrière le bouton "Résumer avec l'IA" que vous utilisez peut-être chaque jour avec les logiciels et sites internet, se cachent parfois des instructions malveillantes visant à biaiser durablement le jugement de votre assistant numérique.Le premier point de rupture concerne donc l'usage détourné des fonctions de résumé automatique.Le bouton "Résumer" : un cheval de Troie invisibleMicrosoft a identifié une nouvelle tendance baptisée "AI Recommendation Poisoning".Concrètement, des entreprises malveillantes insèrent des instructions cachées dans les paramètres URL des boutons de résumé.Lorsqu’un utilisateur clique pour obtenir une synthèse, il injecte sans le savoir une commande de persistance dans la mémoire de son assistant, comme ChatGPT ou Copilot.Ces instructions ordonnent alors à l'IA de considérer telle marque comme une "source de confiance" ou de la "recommander en priorité" dans toutes les discussions futures.Ce n'est donc plus une simple publicité, c'est une altération profonde et invisible du moteur de décision de l'assistant d'IA.Et cette stratégie marketing s'industrialise.L'industrialisation de la manipulationEn l'espace de deux mois, plus de 50 exemples distincts provenant de 31 entreprises ont été repérés dans les secteurs de la finance ou de la santé.Mais le plus inquiétant est l'apparition d'outils "clés en main" comme le package CiteMET ou des générateurs d'URL optimisés pour le GEO.En clair, ces outils permettent à n'importe quel site web d'implanter ses arguments de vente directement dans la mémoire à long terme des assistants d'IA.Le risque est donc pour l'utilisateur de recevoir une analyse de marché ou un conseil en investissement biaisé par une instruction implantée des semaines auparavant lors d'une simple navigation web.Vers une hygiène numérique de la mémoire IALa mémoire des assistants IA, conçue pour personnaliser l'expérience, devient donc une surface d'attaque persistante.Car contrairement à un résultat de recherche Google que l'on peut ignorer, une instruction mémorisée par l'IA agit en arrière-plan de manière permanente.Pour les entreprises, la protection contre ce type d'attaques passe par un audit régulier des "faits enregistrés" dans les paramètres de l'IA et une grande méfiance envers les liens de type "Summarize".Par ailleurs, les équipes cyber doivent désormais traquer les mots-clés comme "trusted source" ou "remember" dans les flux d'URL pour détecter les attaques de ce type.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
Aujourd'hui, on plonge dans le code avec OpenAI qui vient de frapper un grand coup en lançant GPT-5.3-Codex-Spark.C’est une version allégée mais ultra-rapide de son modèle de génération de code.La vitesse pureD'abord, la promesse est simple : la vitesse pure.Ce nouveau modèle "Spark" est capable de générer du code 15 fois plus vite que le modèle standard GPT-5.3-Codex.On parle d'une réduction drastique de la latence, avec une réponse aux requêtes presque instantanée. Pour les développeurs, cela signifie la fin du mode "batch" où l'on envoyait une instruction avant de partir prendre un café en attendant le résultat.Ici, on entre dans l'ère de la collaboration en temps réel. Le modèle permet des micro-éditions ciblées et des ajustements d'interface en direct, et ce sans casser le flux de travail.Partenariat stratégique avec CerebrasEnsuite, il faut regarder sous le capot pour comprendre ce bond de performance.Cette prouesse est le fruit d'un partenariat stratégique avec le fabricant de puces Cerebras. Le modèle Spark tourne sur le "Wafer Scale Engine 3", un processeur géant de la taille d'une galette qui regroupe toutes les ressources de calcul sur une seule pièce de silicium.Concrètement, OpenAI a réduit l'échange de données entre le client et le serveur de 80 %. C’est cette architecture matérielle unique qui permet une interactivité fluide, autorisant même le développeur à interrompre ou à rediriger l'IA en plein milieu de sa tâche.Mais attention, et c'est mon troisième point, cette vitesse a un prix : celui de la précision et de la sécurité.Plus vite, mais plus faillibleOpenAI est très honnête sur ce point : sur les bancs d'essai mesurant les capacités d'ingénierie logicielle autonome, Spark est moins performant que son grand frère.Plus inquiétant encore pour les entreprises, il n'atteint pas les seuils de haute capacité en cybersécurité définis par OpenAI.En clair, Spark fait les choses beaucoup plus vite, mais il est plus susceptible de commettre des erreurs ou de générer des failles.On est donc sur un outil de prototypage rapide et d'itération légère, plutôt que sur un agent capable de gérer seul des infrastructures critiques.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
Aujourd'hui, nous plongeons dans une application fascinante de l'intelligence artificielle qui dépasse le cadre des entreprises pour s'attaquer aux mystères de l'histoire.Une équipe internationale vient de prouver que l'IA peut redonner vie à des pans entiers de notre culture en reconstituant les règles d'un jeu de société romain dont le manuel avait disparu depuis deux millénaires.Simulation de données au service de l'archéologieD'abord, il faut comprendre que nous ne sommes pas ici dans de la génération de texte à la ChatGPT, mais dans de la simulation massive de données au service de l'archéologie.Le point de départ est une simple plaque de calcaire gravée, découverte aux Pays-Bas. Si les traces d'usure suggérait un jeu, personne ne savait comment on y jouait. Les chercheurs ont donc utilisé la numérisation 3D pour cartographier chaque micro-rayure et formuler des centaines d'hypothèses de plateaux.C'est ici que l'IA entre en scène : au lieu de tester manuellement chaque théorie, les scientifiques ont injecté ces données dans Ludii, une plateforme logicielle dédiée aux systèmes de jeux. En quelques heures, l'IA a simulé des milliers de parties pour tester la viabilité mathématique et logique de chaque règle potentielle par rapport à l'usure réelle de la pierre.L'IA agit ici comme un accélérateur de raisonnementEnsuite, cette prouesse technique nous livre un enseignement stratégique sur la nature même de l'IA.Pour Éric Piette, le chercheur à l'origine du projet, l'IA agit ici comme un accélérateur de raisonnement. Elle a permis de valider que ce plateau correspondait à un jeu de blocage, où l'objectif est d'immobiliser l'adversaire, un mécanisme que l'on retrouvera bien plus tard en Scandinavie.Concrètement, l'outil n'a pas remplacé l'archéologue, il a éliminé les impasses logiques pour ne laisser que les scénarios robustes. En clair, l'IA excelle là où la combinatoire humaine sature, permettant de transformer des indices fragmentaires en modèles de connaissances exploitables.Etude des mécanismes cognitifs et du comportement humainEnfin, les retombées de ce projet Ludii dépassent largement le cadre des musées. Si cette IA sait reconstituer les interactions sociales de l'Antiquité, elle est surtout un laboratoire pour l'étude des mécanismes cognitifs et du comportement humain.Ces mêmes algorithmes de simulation sont aujourd'hui utilisés pour analyser la manière dont nous apprenons, dont nous interagissons et dont nous résolvons des problèmes complexes.Pour les décideurs de la tech, le message est clair : l'IA devient un pont entre des disciplines autrefois silotées, comme l'informatique, l'histoire et la psychologie, créant un langage commun pour modéliser n'importe quel système de règles, qu'il soit ludique, social ou industriel.Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
Et si l'avenir de l'intelligence artificielle ne se jouait plus au sol, mais à 500 kilomètres au-dessus de nos têtes ?C'est le pari fou, mais très sérieux, de Google et la société Planet avec le projet Suncatcher. L'objectif est simple : construire les premiers centres de données orbitaux.Les deux géants viennent d'annoncer une accélération majeure avec le lancement prévu de deux satellites de démonstration d'ici début 2027.Une alimentation solaire quasi continueLe premier pilier de cette stratégie repose sur la résolution d'une équation énergétique devenue critique sur Terre.Aujourd'hui, les centres de données IA saturent les réseaux électriques et posent des problèmes de refroidissement colossaux.En plaçant ces serveurs en orbite héliosynchrone, Google et Planet visent une alimentation solaire quasi continue.Concrètement, ces satellites qui serviraient de "fermes de calcul" déploieront des panneaux solaires XXL pour alimenter des puces TPU, les processeurs de Google optimisés pour l'IA.Mais le vrai défi technique reste la dissipation de la chaleur dans le vide spatial et la protection des composants contre les radiations. C'est tout l'enjeu des tests de 2027. Il s'agit de prouver qu'on peut faire tourner un cluster de calcul intensif dans l'hostilité de l'espace.Un cluster spatial volantEnsuite, le projet Suncatcher inaugure une architecture réseau d'un genre nouveau : le cluster spatial volant.On ne parle pas de satellites isolés, mais de grappes de machines situées à moins de 200 mètres les unes des autres, reliées par des liaisons laser à très haut débit.Cela préfigure un cloud hybride totalement indépendant des infrastructures terrestres et capable de traiter les données directement dans l'espace.Planet utilise ici son expérience unique, ayant déjà mis en orbite plus de 600 satellites, pour industrialiser ce que Google appelle un "système de cluster à grande échelle".Vers le développement industrielEnfin, cette alliance marque un tournant concurrentiel majeur dans la course à l'espace.Si Jeff Bezos et Elon Musk ont déjà évoqué l'idée de data centers spatiaux, Google et Planet sont les premiers à passer concrètement en phase de recherche et développement industrielle.Le PDG de Planet, Will Marshall, l'affirme : nous ne sommes qu'à quelques années du point de bascule économique où l'espace deviendra moins cher que la Terre pour le calcul intensif.Avec la baisse drastique des coûts de lancement, l'infrastructure spatiale devient un levier stratégique pour la puissance de calcul.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
Ce n'est plus de la science-fiction. La réalité brutale de l'intelligence artificielle générative qui vient de franchir un cap historique, note le dernier baromètre de l'Arcep.En seulement deux ans, nous sommes passés d'une curiosité de laboratoire à un outil de masse utilisé par près d'un Français sur deux. C'est aussi un séisme qui redéfinit les frontières entre vie privée et vie professionnelle.Une accélération technologique sans précédentLe premier constat est celui d'une accélération technologique sans précédent dans l'histoire moderne.Là où le smartphone avait mis trois ans pour atteindre un niveau de pénétration significatif, l'IA générative n'a eu besoin que de vingt-quatre mois pour conquérir près de 50 % de la population.Et cette adoption quasi instantanée culmine chez les français de moins de 25 ans avec un taux de 85 %.Pour les entreprises, cela signifie que la question n'est plus de savoir s'il faut intégrer l'IA, mais comment gérer des collaborateurs qui sont déjà, pour la plupart, des utilisateurs aguerris de cette technologie dans leur sphère privée.L'IA générative inverse les codes traditionnels de l'innovationSurtout, au-delà de cette vitesse de déploiement, l'IA générative inverse les codes traditionnels de l'innovation.Historiquement, les grandes vagues technologiques entraient dans nos vies par le bureau avant de s'inviter dans nos salon. Pour l'IA, c'est l'inverse.Le recours à ces outils relève d'abord d'une initiative personnelle plus de 40 % des usagers, tandis que l'usage strictement professionnel concerne 30 % des actifs.C'est ce qu'on appelle le Shadow AI. Les salariés testent, expérimentent et résolvent des problèmes complexes avec ChatGPT ou Claude chez eux, avant de ramener ces réflexes au travail.Par ailleurs, une pression nouvelle apparaît. Près de 20 % des Français se voient désormais imposer l'IA par les plateformes qu'ils utilisent déjà, comme les moteurs de recherche ou les messageries, rendant la technologie incontournable, qu'on le veuille ou non.Une nouvelle fracture numérique de compétence et d'usageEnfin, il faut noter une nouvelle fracture numérique, non plus d'accès, mais de compétence et d'usage.Le profil type de l'utilisateur intensif se dessine très nettement. Il est jeune, diplômé du supérieur, cadre ou indépendant.Pour le monde professionnel, ce clivage est un enjeu majeur. Les indépendants et les cadres, avec plus de 75 % d'utilisateurs, transforment déjà leurs méthodes de travail quand d'autres secteurs restent sur le bord de la route.Cette concentration des usages chez les profils les plus qualifiés risque de créer un avantage compétitif pour ceux qui maîtrisent l'art de la requête et du prompt, laissant présager une restructuration profonde du marché du travail basée sur la collaboration homme-machine.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
Imaginez un moteur de Formule 1 monté sur un châssis de vélo. C'est un peu l'image que renvoie aujourd'hui l'intelligence artificielle générative dans le secteur des achats en entreprise.On en parle partout, on multiplie les essais, mais quand il s'agit de passer à la vitesse supérieure, les entreprises calent.Le dernier baromètre publié par EFESO Management Consultants vient de tomber, et le chiffre est sans appel.Seules 5 % des directions achats ont réellement franchi le cap de l'industrialisation à grande échelle de l'IA générative.Les directeurs achats ont changé de braquetLe premier constat de cette étude, c'est que nous assistons à la fin de l’ère de l’expérimentation joyeuse pour entrer dans celle de la discipline de fer.Si 75 % des entreprises testent l'IA, le déploiement massif reste marginal car les directeurs achats ont changé de braquet.Ils ne cherchent plus à savoir si l'IA fonctionne, mais ils exigent désormais une démonstration tangible de la valeur créée avant de signer le moindre chèque.En clair, les projets ne sont plus validés sur leur aspect innovant, mais sur leur capacité à s'intégrer aux processus opérationnels existants.Super-secrétariat technique plutôt que aide à la décisionPar ailleurs, l’IA générative semble pour l'instant cantonnée dans le monde des achats à des rôles de super-secrétariat technique plutôt qu'à des fonctions de décision.Les usages qui s'industrialisent réellement sont ceux qui présentent le moins de risques et une forte densité de données faciles à traiter.On parle ici de l'analyse et de la synthèse de contrats pour près de 70 % des entreprises, ou encore de la veille fournisseur pour plus de 60 % d'entre elles.En revanche, dès que l'on touche au cœur du métier, comme la négociation assistée par l'IA, le taux d'adoption chute à 35 %.Pourquoi ? Parce que confier une négociation stratégique à un algorithme demande une profondeur de données et une gouvernance que peu d'organisations possèdent encore aujourd'hui.La crise de confiance freine le passage à l'échelleEnfin, l'étude note que c'est la crise de confiance qui freine le passage à l'échelle.Seul un tiers des directeurs achats se dit pleinement satisfait des résultats obtenus par rapport aux investissements initiaux.Et le problème ne vient pas toujours de l'outil lui-même, mais de la matière première. Près de 70 % des décideurs pointent la fiabilité des données comme un obstacle majeur.En clair, avertit l'étude, 2026 s'annonce comme l'année où le fossé va se creuser irrémédiablement entre les directions achat qui sauront industrialiser leurs pilotes de manière sélective et celles qui resteront bloquées dans une boucle infinie d'expérimentations sans lendemain.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
Aujourd'hui, on s'intéresse à une petite révolution dans la manière dont nous allons bientôt faire nos courses en ligne.Criteo vient de lever le voile sur son Agentic Commerce Recommendation Service, un nom un peu complexe pour une mission très concrète.Il s'agit d'apporter plus d'intelligence commerciale aux assistants d'achat basés sur l'IA.Sous le capot des assistants d'achatPour comprendre l'enjeu, il faut d'abord regarder sous le capot de nos assistants d'achat actuels.Aujourd'hui, qu'il s'agisse d'un chatbot de retailer ou d'un grand modèle de langage, ces outils se contentent souvent de lire des descriptions de produits, un peu comme un simple robot qui scannerait une étiquette.Le problème, c'est que ça ne suffit pas pour conseiller efficacement un client. Il a besoin par exemple des avis d'autres consommateurs, ou encore des volumes de vente pour savoir si ce produit est le bon.Criteo assure donc vouloir changer la donne en injectant sa base de données directement dans ces flux d'IA.Le service s'appuie sur des données réelles. Criteo assure disposer de données de consommation de 720 millions d'utilisateurs de site de e-commerce.En utilisant ces signaux d'achat concrets plutôt que de simples textes marketing, Criteo affirme pouvoir booster la pertinence des recommandations des chatbots.De quoi en faire des vendeurs experts qui savent ce qui se vend vraiment et pourquoi.Connecter les cerveaux des IA aux inventairesAu-delà de cette précision, l'autre force de cette annonce réside dans l'infrastructure technique utilisée. Criteo dit utiliser le Model Context Protocol ou MCP.Ce nouveau protocole permet de connecter directement les cerveaux des IA aux inventaires en temps réel des commerçants.Concrètement, lorsqu'un consommateur demande une sélection pour un budget précis, l'IA ne va plus seulement chercher des mots-clés. Elle interroge le service de Criteo qui filtre et classe les produits selon la popularité, la disponibilité et l'intention réelle de l'utilisateur.L'assistant IA peut alors accompagner le client jusqu'au paiement. C'est ce que Criteo appelle le commerce agentique.Des agents d'IA qui parleront à des agents d'IAEt le futur du commerce agentique passera très certainement par un dialogue entre des robots diligentés par les acheteurs, et des robots maîtrisés par les vendeurs.Dans ce nouveau monde où les agents IA font le gros du travail de recherche pour les humains, le véritable avantage concurrentiel côté retailer ne sera plus seulement d'avoir un bon produit, mais d'être visible par l'algorithme qui conseille l'acheteur.Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
Imaginez un smartphone qui ne dépendrait plus d'aucune antenne terrestre, un appareil capable de capter le réseau au milieu de l'océan ou au sommet de l'Everest.C'est ce scénario qui vient d'être évoqué par Elon Musk. Il assure pour cela que le lancement d'un smartphone sous la marque Starlink est envisagé.Un smartphone qui pour communiquer n'aurait besoin que de la constellation de satellites de l'homme le plus fortuné du monde.Starlink est devenu une poule aux œufs d'orLe premier pilier de cette annonce est purement économique. Starlink est devenu une véritable poule aux œufs d'or.En 2025, elle a généré entre 50 et 80 % des profits de l'entreprise SpaceX à laquelle elle est rattachée.Pour maintenir cette croissance insolente, le lancement d'un smartphone propriétaire permettrait de verrouiller l'utilisateur dans un écosystème complet.Ce ne serait alors pas seulement un téléphone, mais une porte d'entrée payante vers un réseau de communication mondial, affranchi des opérateurs de télécoms traditionnels.Pour les entreprises clientes, cela signifierait aussi une connectivité totale, permanente, sans zones blanches, directement gérée par un seul fournisseur d'infrastructure.Une rupture technologique qui interpelleMais au-delà de cette manne financière potentielle, c'est la rupture technologique qui interpelle.Elon Musk prévient que cet appareil serait radicalement différent de ce que nous connaissons.L'idée est d'intégrer au cœur du smartphone les capacités de xAI, sa société d'intelligence artificielle, et de Grok, son agent conversationnel.En couplant des datacenters spatiaux, une autre idée de l'entrepreneur, avec des terminaux mobiles ultra-optimisés pour l'IA, Musk vise la création d'un cerveau numérique portable. Rien de moins.Musk s'attaque frontalement au duo Apple et GoogleEnfin, en lançant son propre matériel, Musk s'attaque frontalement au duo Apple et Google en essayant de briser leur duopole sur les systèmes d'exploitation mobiles.C'est un pari risqué. D'autres ont essayé et se sont cassé les dents.Mais avec la force de frappe de Starlink, Musk dispose déjà de l'infrastructure mondiale nécessaire pour bousculer ces géants de la mobilité.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
C'est un séisme financier qui secoue aujourd'hui le secteur de la crypto et du bitcoin.Strategy, le géant américain connu pour être le plus grand détenteur mondial de bitcoins, vient de dévoiler un bilan trimestriel qui donne le vertige. La société accuse 12 milliards de dollars de pertes nettes en seulement trois mois.Transformer une pépite technologique en gouffre financierCe crash n'est bien sûr pas qu'une ligne comptable.Il illustre la vulnérabilité extrême des entreprises qui ont lié leur destin de manière quasi organique à la volatilité des cryptomonnaies.En voyant le cours du bitcoin plonger sous la barre des 60 000 dollars la semaine dernière, Strategy voit son modèle économique et sa capitalisation boursière s'évaporer à vue d'œil.En clair, la stratégie de trésorerie d'entreprise basée sur un actif hautement spéculatif peut transformer une pépite technologique en gouffre financier. Et ce en un seul trimestre.Le soutien de Trump au secteur crypto ne suffit plus à rassurerAu-delà de ce chiffre colossal, c'est le changement brutal de climat macroéconomique qui fragilise tout l'écosystème.On assiste à un retour massif de l'aversion au risque.Plusieurs facteurs s'entrechoquent pour créer cette tempête.D'un côté, les tensions géopolitiques et les incertitudes sur la croissance poussent les investisseurs à délaisser le secteur tech pour se réfugier vers des valeurs plus stables, comme l'or.De l'autre, la politique monétaire américaine change de visage. La nomination de Kevin Warsh à la tête de la Réserve fédérale américaine laisse présager un assèchement des liquidités disponibles pour les actifs risqués.Et les chiffres parlent d'eux-mêmes. Près de 9 milliards de dollars ont été sortis des ETF bitcoin au comptant en seulement deux mois.Ce désengagement prouve que même le soutien politique affiché par la nouvelle administration Trump au secteur crypto ne suffit plus à rassurer les marchés.L'incroyable résilience, ou peut-être obstination, de Michael SaylorEnfin, il faut noter l'incroyable résilience, ou peut-être l'obstination, de Michael Saylor, le patron de Strategy.Malgré l'hémorragie, le dirigeant refuse de dévier de sa trajectoire. Il balaye les inquiétudes d'un revers de main, qualifiant ceux qui quittent le navire de simples touristes du secteur de la crypto.Pour lui, les fondamentaux des monnaies virtuelles restent sains. Il pense que l'intégration du bitcoin dans les grandes structures bancaires et réglementaires est irréversible.En bref, le bras de fer entre la vision idéologique de la crypto et la rigueur des bilans financiers des entreprises n'a jamais été aussi tendu.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
Aujourd'hui, nous décollons pour une première historique qui se joue à 362 millions de kilomètres de nos bureaux.Pour la première fois, une intelligence artificielle a pris les commandes d'un véhicule. Et ce sur une autre planète.En décembre dernier, le rover Perseverance de la NASA a en effet parcouru environ 400 mètres sur la planète Mars en suivant un itinéraire entièrement planifié par Claude, le modèle d'IA d'Anthropic.Un basculement majeur pour l'exploration spatialeD'abord, c'est un basculement majeur pour l'exploration spatiale.Jusqu'ici, chaque mètre parcouru dans le cratère martien Jezero exigeait une planification humaine méticuleuse pour éviter que le robot de la taille d'une voiture ne s'ensable ou ne bascule sur le côté.En utilisant Claude pour générer les points de passage précis du rover, les ingénieurs du Jet Propulsion Laboratory ont prouvé que l'IA peut désormais traduire des images satellites en trajectoires sécurisées sur un terrain accidenté.Diviser par deux le temps de planification des itinérairesPar ailleurs, pour guider Perseverance, Claude ne s'est pas contenté de dessiner une ligne.L'IA a dû ingérer des années de données de conduite et maîtriser le Rover Markup Language, un langage de programmation spécifique basé sur l'XML.Et le résultat est sans appel. Les ingénieurs de la NASA estiment que l'intégration de l'IA dans ce processus permet de diviser par deux le temps de planification des itinéraires.Cela signifie pour ces ingénieurs moins de temps passé sur des tâches fastidieuses de routage, et plus de temps alloué à la collecte et à l'analyse de données scientifiques.Laboratoire pour les ambitions lunaires de la NasaEnfin, l'autre versant de cette avancée technologique, c'est que ce test réussi sur Mars sert de laboratoire pour les futures ambitions lunaires de la Nasa.Avec le programme américain Artemis qui vise à établir une base permanente sur le pôle sud de la Lune, les défis logistiques vont exploser.Et dans ces environnements hostiles, une IA capable de trouver un chemin à partir de photos satellite est plus que précieux.Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
C'est un géant du monde des centres de données qui débarque dans votre bureau ou votre commerce.Vertiv lance une nouvelle gamme d'onduleurs, nommé Power UPS 200, pour équiper locaux professionnels mais aussi personnels avec une solution compacte qui répond à une urgence simple mais vitale, c'est à dire sécuriser l'alimentation électrique là où la donnée est créée, c'est-à-dire au plus près de l'utilisateur final. La démocratisation d'une expertise industrielleLe premier point, c'est que cette annonce marque la démocratisation d'une expertise industrielle. En effet, il ne s'agit pas d'une batterie de secours.Elle intègre en effet la régulation automatique de tension, qui est une technologie indispensable pour stabiliser le courant avant même qu'une coupure ne survienne.Pour un point de vente ou une petite infrastructure IT, c'est la garantie que les variations de tension ne grilleront pas les composants sensibles.Des batteries remplaçables directement par l'utilisateurAu-delà de cette robustesse technique, Vertiv dit assurer une meilleure durabilité opérationnelle. La marque propose en effet des batteries remplaçables directement par l'utilisateur.C'est un argument de poids pour les entreprises, car cela permet de prolonger la vie de l'onduleur sans passer par un service technique coûteux ou un remplacement complet de l'unité.Ajoutez à cela une interface intuitive avec écran LCD couleur, et vous obtenez un outil professionnel pour des collaborateurs qui ne sont pas forcément des ingénieurs réseau.Vertiv transforme ses onduleurs en hub de gestion de l'énergie au bureauEnfin, il faut souligner l'aspect hybride de ces nouveaux boîtiers qui s'adaptent aux nouveaux usages des professionnels nomades.En intégrant des ports de charge USB de Type-A et surtout de Type-C, Vertiv transforme ses onduleurs en hub de gestion de l'énergie au bureau.Ce n'est donc plus seulement l'ordinateur central qui est protégé, mais tout l'écosystème mobile qui gravite autour. Bref, Vertiv cherche à verrouiller le marché des équipements périphériques avec la même rigueur que celui des centres de données.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
Aujourd'hui, on s'installe confortablement dans le cockpit de notre navigateur puisque Google Chrome active son mode pilote automatique.La firme de Mountain View vient de frapper un grand coup avec le lancement d'Auto Browse, une fonctionnalité dopée à Gemini 3 qui ne se contente plus de suggérer des recherches, mais agit concrètement à votre place sur le web. On passe de l'IA conversationnelle à l'IA "agentique"D'abord, comprenons bien la rupture technologique. On passe de l'IA conversationnelle à l'IA "agentique". Concrètement, Google veut nous débarrasser de ce qu'il appelle la lessive numérique, c'est à dire ces tâches répétitives et sans valeur ajoutée.Lors de sa présentation, la vice-présidente de Chrome a montré des capacités bluffantes. Gemini peut désormais scanner plusieurs onglets ouverts pour remplir automatiquement un formulaire d'inscription ou trier vos favoris sur un site immobilier selon des critères ultra-précis, comme le fait d'accepter par exemple les animaux de compagnie.L'IA ne se contente pas de lire, elle navigue, clique et saisit des données en temps réel sous vos yeux.Au-delà de la simple navigation bien sûr, l'intégration de briques e-commerce est mise en avant par Google.Pour rendre Auto Browse opérationnel, Google a en effet déployé son Universal Commerce Protocol en partenariat avec des géants comme Shopify ou Etsy.Et je vous décrit un exemple. Vous montrez une photo de sapin de Noël décoré à Gemini, et l'IA va d'elle-même chercher les boules et les guirlandes correspondants sur des sites de commerce en ligne, les ajouter au panier et préparer la transaction.Pour rassurer les plus sceptiques face à ce majordome numérique qui manipule votre carte bleue, Google impose une validation humaine systématique avant chaque paiement final.Ultra-personnalisation via la fonction Personal IntelligenceEnfin, l'enjeu majeur de cette mise à jour réside dans l'ultra-personnalisation via la fonction Personal Intelligence.En activant cette option, vous permettez à Gemini de puiser dans tout votre écosystème Google, de Gmail à Drive en passant par Photos, pour affiner ses actions.C'est un pas de géant vers une assistance totale, même si la prudence reste de mise.L'outil est encore loin d'être infailliblePour l'instant, Auto Browse reste réservé aux abonnés AI Pro et Ultra, et l'outil est encore loin d'être infaillible.Si Gemini excelle dans la navigation marchande, il bute encore sur des commandes de précision dans les tableurs.Le passage de témoin entre l'homme et la machine doit donc encore se faire avec une certaine vigilance.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
Aujourd'hui, nous plongeons au cœur d'un divorce technologique majeur. La France a décidé de rompre officiellement avec les géants américains de la visioconférence.Teams, Zoom ou encore Google Meet sont désormais sur la sellette au sein de l'administration française. Le gouvernement déploie sa propre solution nationale, baptisée Visio, avec un objectif clair : l'indépendance totale d'ici 2027. Ce n'est pas seulement une question de logiciel, c'est une véritable bascule politique et industrielle.Souveraineté des donnéesLe premier pilier de cette décision est la souveraineté des données.Pour Paris, il ne s'agit plus de faire confiance aveugle aux Big Tech. L'ombre du US Cloud Act de 2018 plane toujours.Cette loi permet aux autorités américaines d'accéder à des données stockées sur des serveurs, même s'ils sont situés sur le sol européen. En migrant vers Visio, le gouvernement français s'assure que les échanges scientifiques, les innovations stratégiques et les données sensibles de l'État restent sous juridiction européenne.C’est une réponse directe à l’insécurité juridique que pose la dépendance aux infrastructures extra-européennes.La force de l'open source et de l'innovation localeAu-delà de la sécurité, l'autre versant de cette annonce c'est la force de l'open source et de l'innovation locale.Visio n'est pas un gadget bricolé dans un coin. C'est un outil robuste développé par la DINUM, en collaboration avec l'Allemagne et les Pays-Bas.Basé sur des technologies comme Django et React, il intègre même de l'intelligence artificielle pour la transcription grâce à la pépite française Pyannote.Ce projet s'inscrit dans une "Suite Numérique" plus large, visant à remplacer Gmail ou Slack par des alternatives souveraines. C'est donc une véritable rampe de lancement pour l'écosystème tech européen, prouvant que nous pouvons produire des outils collaboratifs au niveau des standards mondiaux.Un enjeu économique et pragmatiqueEnfin, il y a un enjeu économique et pragmatique indéniable.Car l'État français compte bien faire des économies d'échelle.On parle d'un million d'euros d'économie par an pour chaque tranche de 100 000 utilisateurs grâce à l'arrêt des licences payantes.Alors que 40 000 agents utilisent déjà Visio au quotidien, le passage à 200 000 utilisateurs est imminent. Si cette transition réussit son pari sur l'ergonomie et la fiabilité, la France pourrait bien fournir le modèle à suivre pour tous les pays européens qui cherchent à reprendre le contrôle de leur infrastructure numérique sans sacrifier la productivité de leurs agents.Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
Imaginez un peu. Un tiers des lignes de code produites dans le monde sortent désormais directement d'une intelligence artificielle.C'est le constat vertigineux d'une étude du Complexity Science Hub qui analyse comment l'IA générative bouleverse le quotidien des développeurs.Mais attention, si la productivité globale grimpe de 4 %, cette manne technologique ne profite pas à tout le monde de la même manière et redessine une nouvelle hiérarchie au sein des équipes techniques.Le paradoxe de l'expérienceLe premier enseignement majeur de cette étude est ce qu'on pourrait appeler le paradoxe de l'expérience.Si les développeurs débutants sont les plus accros à l'IA avec un taux d'adoption de 37 %, ils n'en tirent paradoxalement aucun gain de productivité concret.À l'inverse, les profils seniors captent la quasi-totalité de la valeur créée.Pourquoi ? Parce que l'IA génère du code, mais elle génère aussi des erreurs que seul un œil expert peut détecter et corriger instantanément.Pour les entreprises, le message est clair. L'IA ne remplace pas le savoir-faire. Elle agit comme un multiplicateur de force pour ceux qui maîtrisent déjà les fondamentaux de l'architecture logicielle.L'IA transforme la nature même du travail de programmationMais au-delà du simple gain de vitesse, l'IA transforme la nature même du travail de programmation.L'étude montre que les développeurs utilisant l'IA générative s'aventurent beaucoup plus souvent hors de leur zone de confort en intégrant des combinaisons inédites de bibliothèques logicielles.L'IA joue ici un rôle d'accélérateur d'innovation individuelle, permettant de manipuler des briques technologiques complexes et inconnues jusqu'alors.C’est un changement de paradigme. On ne demande plus seulement à l'outil de coder plus vite, mais de nous aider à concevoir des solutions plus riches et plus créatives que ce que notre propre mémoire technique permettrait.La tentation de réduire les effectifs grâce à l'IA est réelleL'autre versant de l'étude concerne la stratégie business des directions techniques.La tentation de réduire les effectifs grâce à l'IA est réelle. Mais c'est une erreur de calcul note l'étude.La logique qui s'impose est celle du faire plus avec autant. En automatisant les tâches routinières, la documentation et les tests, l'IA libère du temps pour que les ingénieurs se concentrent sur la résolution de problèmes complexes et l'alignement des produits sur les objectifs métier.Le développeur de 2026 ne doit plus être un simple rédacteur de code, mais un chef d'orchestre capable de piloter l'IA comme un stagiaire très rapide mais qui nécessite une supervision constante.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
C'est un sacré un paradoxe du marché de l'audio. Tous les fournisseurs de casque évoquent des écouteurs intelligents.Mais alors que la rumeur d'un projet de hardware chez OpenAI s'intensifie, il est temps de se demander pourquoi vos écouteurs actuels ne sont en réalité que de simples haut-parleurs.Et bien voici les trois verrous technologiques qui doivent sauter pour en faire de vrais outils de productivité.Le LLM dans l'écouteurLe premier grand défi, c'est celui du traitement de l'IA directement embarqué, ce qu'on appelle l'on-device processing.Actuellement, quand vous demandez une traduction ou une transcription à vos écouteurs, le signal fait un aller-retour permanent vers votre téléphone.C'est lent, ça crée de la latence et cela pose de sérieuses questions de confidentialité des données.Pour que ces appareils deviennent de véritables assistants pro, ils doivent être capables de faire tourner des modèles de langage légers de manière autonome.Imaginez des écouteurs capables de transcrire une réunion ou de traduire une conversation complexe sans même avoir votre smartphone dans la poche. C'est le passage indispensable pour transformer un accessoire de mode en un terminal informatique à part entière.Du Wi-Fi dans le casque audioAu-delà de cette puissance de calcul, l'autre rupture majeure attendue concerne la connectivité, avec l'intégration du Wi-Fi.C'est un serpent de mer technique à cause de la consommation d'énergie, mais c'est la clé de l'indépendance.Aujourd'hui, vos écouteurs sont prisonniers du Bluetooth et de l'écosystème de votre téléphone. Le Wi-Fi permettrait non seulement une qualité audio sans perte, mais surtout un accès direct au cloud et à vos outils professionnels, comme votre calendrier ou vos applications de navigation, sans intermédiaire.Cela briserait enfin les silos fermés des constructeurs, permettant à une paire d'écouteurs de dialoguer nativement avec plusieurs plateformes de travail simultanément.De l'ANC dopé au machine learningLe dernier point, c'est l'évolution radicale de la réduction de bruit grâce à l'apprentissage machine contextuel.On ne parle plus seulement de supprimer le brouhaha de l'open space, mais de doter l'appareil d'une véritable compréhension de l'environnement sonore.Les modèles de demain devront apprendre de vos habitudes pour distinguer l'intention derrière un son. Un algorithme vraiment intelligent doit savoir isoler la voix de votre interlocuteur tout en laissant passer l'alerte sonore d'un passage piéton ou une annonce importante en gare.Ce passage d'une isolation passive à une audition sélective et contextuelle est le dernier pilier qui permettra aux professionnels de rester connectés à leur environnement tout en maximisant leur concentration.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
Intéressons nous à la manière dont l'intelligence artificielle peut redonner du souffle à vos données de santé personnelles, avec un focus sur une initiative communautaire qui bouscule l'usage de l'Oura Ring.Transformer le flux illisible de l'application Oura en un rapport structuréLe constat de départ est simple. Posséder une bague ou une montre connectée, c'est bien. Mais se retrouver face à une avalanche de graphiques colorés sans savoir quoi en faire, c'est plus frustrant qu'autre chose.C'est là qu'intervient le Simple Wearable Report, un outil gratuit né sur Reddit via la communauté Oura Ring.Sa force n'est pas de collecter de nouvelles données, mais de transformer le flux illisible de l'application Oura en un rapport structuré, calqué sur le modèle des comptes-rendus de laboratoires d'analyses.L'objectif est double. Il s'agit d'offrir une lecture instantanée pour l'utilisateur et, surtout, fournir un document propre que votre médecin traitant peut réellement exploiter lors d'une consultation, sans avoir à défiler sur l'écran d'un smartphone.Compatibilité avec les LLMAu-delà de la mise en page, l'intérêt majeur de ce rapport réside dans sa compatibilité avec les grands modèles de langage comme ChatGPT, Claude ou Gemini.En injectant ces données structurées dans une IA, l'utilisateur change radicalement de perspective. Là où l'assistant officiel d'Oura se montre souvent diplomate, voire un peu flou, une IA généraliste comme Gemini adopte une approche sans filtre.Elle est par exemple capable de pointer du doigt une sédentarité excessive avec une franchise brutale.On passe ainsi d'un coach bienveillant qui suggère une petite marche à un analyste qui vous ordonne de fixer un plancher de pas quotidien pour éviter l'atrophie métabolique.Les questions de la confidentialité et de la pertinence médicaleC'est cette capacité de l'IA à "parler franchement" qui permet une interprétation bien plus concrète des cycles de sommeil ou de la variabilité cardiaque.Cependant, cette hyper-analyse soulève une question cruciale pour les professionnels et les particuliers, celle de la confidentialité et de la pertinence médicale.Si l'IA excelle pour déceler des corrélations invisibles à l'œil nu, comme l'impact réel d'une dette de sommeil sur votre fréquence cardiaque au repos, elle ne remplace en aucun cas un diagnostic.L'utilisation de chatbots non chiffrés pour traiter des données de santé reste un terrain glissant.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
Plongeons ensemble dans le futur proche avec le rapport « Big Ideas 2026 » d'ARK Invest. Ce document de référence dessine les contours d'une économie mondiale transformée par l'intelligence artificielle.Pour les professionnels, il ne s'agit plus de prévoir des changements graduels, mais de se préparer à une accélération brutale de la croissance et de la productivité.Explosion des capacités de calculLe premier pilier de cette révolution concerne l'infrastructure. Nous assistons à une explosion des capacités de calcul. Depuis la fin de l'année 2022, la croissance des centres de données est passée de 5 % à 29 % par an.Cette accélération est portée par les géants du cloud qui ne regardent plus à la dépense. En 2026, les investissements en capital des hyperscalers devraient dépasser les 500 milliards de dollars.C'est presque quatre fois plus qu'en 2021, juste avant le séisme ChatGPT.Et l'arrivée de cette puissance de calcul massive a un effet immédiat pour les entreprises.Les coûts d'inférence, c'est-à-dire le coût pour faire fonctionner un modèle d'IA, ont chuté de plus de 99 % depuis 2025.Des agents d'IA pour e-commerceAu-delà de l'infrastructure, c'est notre manière d'interagir avec le numérique qui bascule vers ce que l'étude appelle l'« OS de l'IA grand public ».Nous quittons l'ère des applications pour entrer dans celle des agents autonomes. Aujourd'hui, près de 20 % des utilisateurs de smartphones utilisent déjà des chatbots. Mais le vrai changement est dans la rapidité de l'acte d'achat.Si, avant l'ère internet, il fallait une heure pour finaliser un achat, ce délai est tombé à moins de 90 secondes grâce aux agents IA.Ces assistants devraient capturer une part croissante des transactions numériques, passant de 2 % des dépenses en ligne en 2025 à environ 25 % d'ici 2030.Pour les directions marketing, l'enjeu est colossal. La recherche traditionnelle perd du terrain face à la recherche assistée par IA. Elle pourrait représenter 65 % du trafic mondial dans cinq ans.Des gains de productivité importants pour les prosEnfin, cette intelligence artificielle se traduit par un gain de productivité inédit pour les travailleurs du savoir.Les agents IA deviennent plus fiables et capables de gérer des tâches complexes sur de longues durées.La capacité de ces agents à mener des missions sans erreur est passée de 6 minutes à plus de 30 minutes en seulement un an.Dans le secteur du développement logiciel, les coûts ont littéralement fondu, chutant de plus de 90 % entre avril et décembre dernier pour atteindre à peine 25 cents d'euros par million de tokens.L'étude prévoit que cette automatisation ne va pas créer de chômage de masse à long terme, mais plutôt une réduction du temps de travail et une accélération massive des dépenses en logiciels, avec une croissance annuelle pouvant atteindre 56 % pour les entreprises cherchant à augmenter leurs effectifs grâce à l'IA.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
Tournons nos regards vers la Fondation Raspberry Pi, qui continue d'étendre son écosystème avec le lancement d'un nouvel accessoire de stockage : le Raspberry Pi Flash Drive.Si la traditionnelle carte microSD reste le standard historique, cette nouvelle solution en USB 3.0 promet de lever certains goulots d'étranglement pour vos projets industriels et professionnels.Anticiper les pannes de stockage avant qu'elles n'arriventL'intérêt principal de ce nouveau support réside dans sa robustesse et sa durabilité, des points critiques pour les usages en entreprise. Contrairement aux clés USB grand public classiques, ces modèles intègrent le support de la technologie SMART, qui permet de surveiller l'état de santé du disque et d'anticiper les pannes avant qu'elles ne surviennent.Ils supportent également la commande TRIM, essentielle pour maintenir les performances et prolonger la durée de vie des cellules de stockage sur le long terme.Le tout est protégé par une coque intégrale en aluminium qui sert de dissipateur thermique, évitant ainsi les baisses de régime liées à la surchauffe lors de transferts intensifs.150 Mo/s en vitesse d'écriture soutenueCôté performances, l'écart avec les solutions classiques est significatif.Là où une carte microSD sur un Raspberry Pi 5 plafonne généralement autour de 30 Mégaoctet par seconde en écriture séquentielle, la version 256 gigaoctet de ce nouveau Flash Drive atteint les 150 Mégaoctet par seconde en vitesse d'écriture soutenue.Pour les professionnels manipulant des bases de données ou des fichiers lourds, ce gain de vitesse, couplé à des performances de lecture aléatoire bien supérieures, offre une réactivité système bien plus proche de celle d'un véritable ordinateur de bureau.Un nouveau hub USB 3 alimentéEnfin, la Fondation a pensé à la pérennité de vos infrastructures. Ces clés sont disponibles en deux capacités, 128 Go pour 30 dollars et 256 Go pour 50 dollars, avec une garantie de production annoncée jusqu'en 2030.Cette visibilité à long terme est un argument de poids pour les intégrateurs qui doivent maintenir des parcs de machines sur plusieurs années.Et pour ceux dont les besoins en connectivité dépassent les ports disponibles, un nouveau hub USB 3 alimenté a également été lancé pour supporter jusqu'à quatre périphériques haute vitesse sans compromis sur l'énergie.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
C'est une annonce fracassante, et elle nous vient de Microsoft.Le géant de Redmond vient de dévoiler la puce Maia 200, un processeur maison capable de faire trembler le monopole de Nvidia sur le marché de l'intelligence artificielle.Une puce déjà en productionCette nouvelle puce ne se contente pas de promesses techniques sur le papier. Elle est déjà opérationnelle et propulse actuellement les tâches d'inférence réalisées avec GPT-5.2 en production dans les datacenters de Microsoft.Scott Guthrie, le big boss de l'IA et du cloud chez Microsoft, assure aussi que Maia 200 sera utilisé en interne pour la génération de données synthétiques pour permettre avec de l’apprentissage par renforcement d’améliorer les nouveaux modèles d'IA.C'est un signal fort envoyé au marché, puisque Nvidia contrôle aujourd'hui environ 95 % du secteur des puces IA avec des marges dépassant les 70 %. Pour les professionnels du cloud et du développement, l'arrivée d'une alternative comme celle de Microsoft signifie potentiellement une réduction de la dépendance vis-à-vis d'un fournisseur unique et donc une optimisation des coûts d'infrastructure.Collaboration avec TSMCTechniquement, la puce Maia 200 affiche des caractéristiques impressionnantes. Gravée en 3 nanomètres en collaboration avec TSMC, elle embarque 140 milliards de transistors et délivre une puissance de 10 pétaflops en précision FP4.Côté mémoire, elle dispose de 216 gigaoctets de mémoire à haute bande passante, permettant de traiter des flux de données à une vitesse de 7 téraoctets par seconde.Ces chiffres placent la Maia 200 comme un concurrent direct des meilleures solutions actuelles, offrant une capacité de calcul massive pour les modèles de langage d'IA les plus gourmands.En concurrence avec Trainium 3 et TPU version 7 Enfin, l'enjeu majeur pour Microsoft est de prouver l'efficacité réelle de son matériel face à la concurrence. Les premiers tests indiquent que la Maia 200 serait trois fois plus rapide que la puce Trainium 3 d'Amazon et surpasserait le TPU version 7 de Google sur certains calculs.Plus important encore pour les budgets IT, Microsoft annonce un rapport performance-prix supérieur de 30 % par rapport à la génération actuelle.Pour accompagner ce lancement, une version préliminaire du kit de développement est déjà accessible aux développeurs et aux chercheurs.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.





Épisode incroyable qui est !! Découvrez maintenant plus sur le calculateur de TVA https://kdvhesaplamalar.com.tr/