DiscoverZD Tech : tout comprendre en moins de 3 minutes avec ZDNet
ZD Tech : tout comprendre en moins de 3 minutes avec ZDNet
Claim Ownership

ZD Tech : tout comprendre en moins de 3 minutes avec ZDNet

Author: ZD Tech : tout comprendre en moins de 3 minutes

Subscribed: 29Played: 670
Share

Description

Découvrir au quotidien les enjeux de la technologie. Le podcast de la rédaction de ZDNet, pour les professionnels à la recherche d'infos pratiques et concrètes pour mieux comprendre le marché IT et telco et son influence sur les métiers.   
Hébergé par Ausha. Visitez ausha.co/fr/politique-de-confidentialite pour plus d'informations.
508 Episodes
Reverse
L'industrie automobile allemande, symbole de puissance mécanique, est en train de vivre sa mue robotique sous la pression de la concurrence asiatique.BMW vient de franchir un cap symbolique à Leipzig en intégrant deux robots humanoïdes sur ses lignes de production.Ce n'est plus de la science-fiction, c'est une réponse directe aux enjeux de compétitivité.Au delà des simples automates programmésD'abord, il faut comprendre que ces robots, développés par le Suédois Hexagon, ne sont pas de simples automates programmés.Ce sont des agents autonomes dopés à l'intelligence artificielle. Hauts de un mètre soixante-cinq, ces humanoïdes sur roues possèdent vingt-deux capteurs et une vision à 360 degrés qui leur permettent de naviguer dans une usine intégralement numérisée.Contrairement aux bras robotiques classiques fixés au sol, ce robot prend ses propres décisions pour identifier le chemin optimal et manipuler des composants. C'est l'IA qui devient le système nerveux de l'usine, capable de gérer l'imprévu sans intervention humaine constante.Chaque unité coûte un montant à six chiffresEnsuite, parlons du modèle économique de cette main-d’œuvre d'un nouveau genre.Chaque unité coûte un montant à six chiffres, un investissement massif qui vise à transformer les coûts fixes en gains de productivité sur le long terme.Avec une autonomie de trois heures et un changement de batterie éclair en trente secondes, ces machines promettent une continuité de flux que l'humain ne peut égaler sur des tâches répétitives.Face aux craintes légitimes de suppressions de postes, BMW adopte une communication prudente : le groupe assure qu'il n'est pas prévu de réduire la main-d’œuvre, mais de soulager les employés des tâches les plus pénibles.L'idée est de créer un binôme homme-machine où l'IA gère la logistique interne pour laisser aux techniciens les missions à plus haute valeur ajoutée.Un contexte de guerre technologique mondialeEnfin, ce déploiement est un signal politique fort dans un contexte de guerre technologique mondiale.Alors que le chancelier Friedrich Merz vient de constater l'avance fulgurante de la Chine en visitant les usines d'Unitree, l'Allemagne n'a plus le choix.Pour BMW, l'enjeu est de prouver que la vieille Europe peut encore mener la danse de l'innovation industrielle. En intégrant l'IA au cœur de son usine de Leipzig, le constructeur cherche à combler son retard de compétitivité face à des constructeurs chinois qui automatisent à marche forcée. C'est une bataille pour la survie du label "Made in Germany" qui se joue désormais à coups d'algorithmes et de capteurs LiDAR.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
Et aujourd'hui, nous allons parler d'un saut de géant pour la mobilité en entreprise et dans le secteur public.Apple vient en effet de franchir une étape historique. L'OTAN a officiellement validé l'iPhone et l'iPad pour traiter des informations classifiées.C'est un séisme dans le monde de la cybersécurité.Fini les smartphones spécialisés ?D'abord, comprenons bien la portée de cette annonce. L'OTAN a certifié que les iPhone et iPad de série, tournant sous iOS 26 et iPadOS 26, sont désormais jugés assez sûrs pour manipuler des données classées au niveau Restreint.On ne parle pas ici de téléphones durcis, de prototypes militaires ou de matériel spécifique modifié de fond en comble. Non, il s'agit des appareils que vous et moi avons dans la poche.Pour les DSI et les responsables de la sécurité, c'est la fin d'un vieux dogme. Jusqu'ici, on considérait que le matériel grand public, aussi sophistiqué soit-il, ne pouvait pas atteindre ce degré de confiance sans des couches logicielles lourdement modifiées.Et Apple vient de prouver le contraire en intégrant ses produits au catalogue officiel de l'OTAN, une liste où l'on ne croise d'habitude que des fournisseurs spécialisés dans la défense.Comment Apple a-t-il réussi à convaincre l'Alliance Atlantique ?Ensuite, comment Apple a-t-il réussi à convaincre l'Alliance Atlantique ?Le secret réside dans une configuration spécifique nommée Indigo. Cette validation s'appuie sur le travail préalable de l'Office fédéral allemand de la sécurité de l'information, le BSI.Après des tests techniques approfondis, leurs experts ont conclu que l'architecture matérielle et logicielle d'Apple offrait des garanties suffisantes.Les processeurs A19 et M5 jouent ici un rôle crucial. Ils intègrent la technologie Memory Integrity Enforcement, qui bloque des classes entières de cyberattaques s'attaquant à la mémoire.Ajoutez à cela l'enclave sécurisée qui isole les clés de chiffrement et la biométrie, et vous obtenez une forteresse numérique capable de protéger des mails, des calendriers et des contacts sensibles sans nécessiter de logiciels tiers complexes.Quel est l'impact concret pour le marché professionnel ?Enfin, quel est l'impact concret pour le marché professionnel ? Et bien c'est un argument commercial massif.En devenant le seul fabricant d'appareils grand public à bénéficier de cette distinction auprès des nations de l'OTAN, Apple ringardise les solutions ultra-verrouillées et coûteuses de niche.Cette certification valide la stratégie du "Security by Design" d'Apple et risque d'accélérer l'adoption de l'iPad et de l'iPhone dans toutes les administrations et industries critiques qui calquent leurs exigences sur les standards de l'OTAN.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
C'est une mésaventure qui aurait pu être fatale à une PME britannique, mais qui sert surtout de mise en garde brutale pour tous les gestionnaires de flottes mobiles.Andrew Alty, un chef d'entreprise anglais, a vu sa facture de roaming s'envoler à environ 50 000 euros, et ce après seulement huit heures d'utilisation de TikTok par sa fille, durant des vacances au Maroc.Surtout, ce qui ressemble à une erreur de virgule est en réalité le résultat d'une faille contractuelleLe piège du contrat pro sans garde-fouEt le premier, c'est le piège du contrat pro sans garde-fou.Car contrairement aux contrats destinés aux particuliers, qui bénéficient souvent de protections automatiques ou de plafonds de consommation imposés par les régulateurs, les contrats "Business"offrent plus de flexibilité. Mais aussi plus de risques.Et sans ce verrou, le prix de la donnée explose. À plus de 5 000 euros l'heure de navigation sur un réseau étranger, le flux vidéo ultra-gourmand de TikTok devient une arme de destruction financière massive pour la trésorerie d'une petite structure de cinq personnes.Il a fallu une médiation pour que les charges soient finalement annulées.Anticiper le décalage entre les usages personnels et professionnelsLa morale de l'histoire, c'est que la signature d'un contrat de flotte mobile ne doit jamais se limiter au prix du forfait mensuel. L'audit des clauses d'itinérance et la vérification de l'activation des seuils d'alerte sur chaque ligne sont des étapes critiques.Enfin, il faut anticiper le décalage entre les usages personnels et professionnels, et la réalité technique des réseaux.Nous vivons dans une ère de data illimitée en Europe. Et cela crée un sentiment de sécurité trompeur.Car dès que l'on sort des zones de libre itinérance, les mécanismes de facturation de gros entre opérateurs internationaux reprennent leurs droits avec des tarifs tout à fait prohibitifs.Le recours au MDMPour les entreprises, la solution passe par des outils de Mobile Device Management, ou MDM, qui permettent de bloquer les applications non professionnelles ou de restreindre l'usage de la data dès qu'une carte SIM change de zone géographique.Car sans une politique de sécurité mobile stricte, le smartphone reste le maillon le plus imprévisible de votre comptabilité.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
La course à la connectivité ultime vient de franchir un nouveau cap à Barcelone.Lors du Mobile World Congress 2026, qui se tenait la semaine dernière à Barcelone, Qualcomm a dévoilé son nouveau fleuron, le modem X105.Et ce composant est le pivot d'une bataille stratégique qui oppose le fondeur de San Diego au géant Apple, tout en traçant la route vers la future 6G.Vers la 5G AdvancedD'abord, le X105 marque l'avènement de ce qu'on appelle la 5G Advanced.C'est techniquement le premier modem au monde compatible avec la version 19 de la norme 5G. Pour les entreprises et les utilisateurs, cela se traduit par des chiffres vertigineux.On parle d'une bande passante capable d'atteindre 14,8 gigabit par seconde en téléchargement.Mais la performance brute n'est pas le seul argument. Grâce à une gravure ultra-fine en 6 nanomètres, Qualcomm réussit le tour de force de réduire la consommation d'énergie de 30 %.C'est un gain crucial pour l'autonomie des flottes de smartphones professionnels, mais aussi pour l'intégration de ce modem dans des terminaux toujours plus fins.Prise en charge complète des réseaux non-terrestresEnsuite, ce modem change la donne sur la connectivité entre terre et espace. Le X105 intègre en effet une prise en charge complète des réseaux non-terrestres, la 5G satellite.Concrètement, si vous perdez la couverture réseau classique, le système bascule automatiquement sur le satellite pour les messages, la voix et même la vidéo.Et si vraiment rien ne passe, il utilise un standard de secours pour garantir une messagerie minimale, même dans les zones les plus isolées comme les parkings souterrains ou les ascenseurs. C'est une assurance de continuité de service quasi totale pour les travailleurs nomades ou les infrastructures critiques.Une contre-attaque frontale face à AppleEnfin, il faut lire entre les lignes. Ce lancement est une contre-attaque frontale face à Apple.La firme à la pomme tente de s'émanciper en développant ses propres modems internes, les puces C1 et C2, déjà présentes sur certains modèles d'iPhone.En dégainant le X105 maintenant, Qualcomm veut prouver que son avance technologique est trop importante pour être rattrapée facilement.Et en intégrant des briques technologiques qui préfigurent déjà la 6G, le fondeur espère rendre ses puces indispensables pour les futurs iPhone 18 et au-delà, alors que l'accord de licence avec Apple arrive à échéance en 2027.En clair, Qualcomm ne vend pas seulement du débit, il vend du temps d'avance.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
L’ère du Cloud-Native a vécu, place à l’ère de l’IA-Native. Selon une étude du cabinet Deloitte, le marché du logiciel, qui pèse aujourd'hui 4 000 milliards de dollars, s'apprête à vivre une onde de choc comparable à l'arrivée du SaaS il y a dix ans.Pour les DSI et les décideurs, ce n'est pas seulement une question de nouveaux outils.C'est une remise en question profonde des modèles économiques et opérationnels.Un nouveau modèle de revenuD'abord, le séisme porte sur le modèle de revenus.Les géants du logiciel traditionnel sont sous une pression immense pour abandonner le classique paiement à la licence au profit d'une tarification axée sur les résultats.Les nouveaux entrants, ces entreprises nées avec l'IA dans leur ADN, arrivent sur le marché avec des structures de coûts ultra-légères.Elles ne cherchent pas à vendre des abonnements en volume, mais à résoudre des problèmes métier ultra-spécifiques, souvent dans des niches délaissées par les grands éditeurs.Et cette concurrence va mécaniquement redonner du pouvoir aux acheteurs, notamment aux PME, qui pourront accéder à des capacités de niveau "grand compte" pour une fraction du prix habituel.L'interface utilisateur est en train de disparaîtreEnsuite, l'interface utilisateur telle que nous la connaissons est en train de disparaître.Deloitte prédit que l'IA va devenir la couche d'interface primaire au-dessus de toutes vos applications. Nous ne naviguerons plus entre dix logiciels différents. Nous interagirons avec un orchestrateur capable de piloter des agents autonomes.La bataille ne se joue donc plus sur qui possède le meilleur tableur ou le meilleur CRM. Mais sur qui contrôlera cette couche de contrôle.Pour les entreprises, cela implique un virage technologique vers des plateformes d'orchestration capables de surveiller et de gérer ces flottilles d'agents IA pour éviter qu'elles ne travaillent en silo.Gestion des marges et des compétencesEnfin, attention au revers de la médaille. Et ce revers, c'est la gestion des marges et des compétences.Car si l'IA-Native promet de l'agilité, elle coûte cher en infrastructure.En 2026, l'explosion des coûts de calcul liés aux LLM va donc peser lourdement sur les budgets.Parallèlement, le succès de cette transition ne sera pas technologique, mais humain. Il va falloir redéfinir les rôles, de l'ingénieur au chef de produit, en mettant l'accent sur la gestion des données et l'évaluation des nouveaux fournisseurs.Alors le gain de productivité est réel, mais Deloitte prévient : il viendra d'un déploiement discipliné et mesurable.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
Et si votre smartphone n'était bientôt plus le centre de votre monde numérique ?C’est le pari de Qualcomm qui vient de frapper un grand coup lors du Mobile World Congress 2026. Le fondeur a en effet dévoilé sa nouvelle puce Snapdragon Wear Elite, une architecture conçue pour propulser une nouvelle génération de terminaux portables, des lunettes connectées aux bagues intelligentes en passant par les pendentifs IA.Un NPU dans les wearables !L'idée est simple mais radicale. Il s'agit de transformer ces accessoires, autrefois de simples extensions, en acteurs autonomes et surpuissants de votre quotidien professionnel.Pour y parvenir, Qualcomm intègre son NPU Hexagon capable de faire tourner des modèles d'IA de plusieurs milliards de paramètres directement en local, à la périphérie du réseau.Concrètement, cette puce change la donne sur deux points critiques.Performance et autonomieD'une part, la performance brute et l'autonomie.Comparée à la génération précédente, la Snapdragon Wear Elite affiche une puissance de calcul multipliée par cinq et une rapidité de lancement des applications sept fois supérieure.Mais la véritable prouesse réside dans sa gestion énergétique.Grâce au "Micro-Power Wi-Fi", la puce permet une synchronisation continue des données avec une consommation infime.Qualcomm promet ainsi une autonomie étendue de 30 % sur une journée type. Et pour les plus pressés, la charge rapide permet de récupérer 50 % de batterie en seulement dix minutes.C'est l'infrastructure indispensable pour que l'IA puisse enfin nous accompagner du matin au soir sans faillir.Quel est l'impact pour l'utilisateur pro ?Mais au-delà des chiffres, quel est l'impact pour l'utilisateur pro ?C'est ici qu'entre en scène l'IA agentique. Cette puce permet à vos appareils de devenir "contextuels".Imaginez par exemple vos lunettes ou votre montre capables d'analyser votre environnement pour anticiper vos besoins.On parle ici de "life-logging" intelligent. Vous pourrez par exemple demander à votre bague où vous avez posé vos clés ou quel était le nom du café où vous avez déjeuné à Paris le mois dernier.Plus impressionnant encore, ces terminaux pourront bientôt agir pour vous, comme commander un repas ou organiser un trajet par simple commande vocale naturelle, sans même sortir votre téléphone de votre poche.Les prochains modèles de Samsung, Google ou Motorola, attendus plus tard cette année, seront les premiers laboratoires de cette émancipation du wearable.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
Aujourd'hui, nous plongeons dans l'éternité numérique. Vous le savez, pour un DSI, l'archivage est une plaie. Les bandes magnétiques et les disques durs s'altèrent en quelques décennies, imposant des cycles de migration coûteux et risqués.Mais Microsoft vient de franchir une étape décisive avec son Project Silica. La société de Redmond annonce avoir levé les derniers verrous technologiques et surtout économiques du stockage sur verre.On ne parle plus seulement d'innovation de laboratoire, mais d'une viabilité industrielle capable de conserver vos données intactes pendant 10 000 ans.Le passage du luxe à la grande distributionLe premier point de rupture est le passage du luxe à la grande distribution.Jusqu'ici, le Project Silica nécessitait du verre de quartz, ou silice fondue, un matériau pur, onéreux et complexe à produire.Microsoft a réussi l'exploit de porter cette technologie sur le verre borosilicaté. C’est le verre que vous trouvez dans vos plats de cuisine ou vos vitres de four.En utilisant un support aussi commun et peu coûteux, Microsoft élimine l’obstacle majeur de la disponibilité des matériaux à grande échelle. Pour les entreprises, cela signifie que le coût d’entrée du stockage éternel vient de chuter drastiquement.Vitesse et efficacité opérationnelleLe deuxième pilier de cette avancée concerne la vitesse et l'efficacité opérationnelle. Graver des données au laser femtoseconde à l'intérieur d'une plaque de verre est complexe.Mais Microsoft a mis au point une technique d'écriture dite à pseudo-impulsion unique et un système multifaisceaux. Concrètement, on écrit désormais beaucoup plus vite et de manière parallèle.Côté lecture, la simplification est tout aussi radicale. Là où il fallait auparavant quatre caméras pour décoder les signaux, une seule suffit désormais grâce à de nouveaux algorithmes d'apprentissage automatique. On réduit ainsi la taille des lecteurs, leur coût et leur maintenance.Densité et résilienceEnfin, il faut parler de la densité et de la résilience.Imaginez une plaque de verre de seulement deux millimètres d’épaisseur capable de stocker des centaines de couches de données.Ce support est par nature insensible aux ondes électromagnétiques, à l’eau, à la chaleur et à la poussière.Plus besoin de salles blanches climatisées à outrance ou de systèmes anti-incendie ultra-complexes qui peuvent parfois endommager les serveurs.Les tests de vieillissement accéléré confirment la promesse de 100 siècles de stabilité. Pour l'archivage légal, médical ou patrimonial, c'est le "Write Once, Read Forever" qui devient enfin une réalité métier.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
L'autonomie totale des voitures promise par Elon Musk se heurte aujourd'hui à une réalité statistique brutale.Les robotaxis de Tesla, en test au Texas, affichent un taux d'accident quatre fois supérieur à celui d'un conducteur humain moyen. 14 accidents ont été officiellement recensésD'abord, il faut regarder les chiffres de l'expérimentation au-delà du marketing.Depuis huit mois, une flotte de 43 Tesla opérant en mode autonome a parcouru près de 1,3 millions de kilomètres. Et sur cette très longue distance, 14 accidents ont été officiellement recensés.En calculant la moyenne, cela représente une collision tous les 90 000 kilomètres.Pour mettre ce chiffre en perspective, les propres données de Tesla indiquent qu'un conducteur humain moyen ne subit un incident mineur que tous les 368 000 kilomètres.Concrètement, le système de conduite autonome de Tesla est actuellement quatre fois moins sûr que le plus banal des automobilistes texans.La courbe de progression semble s'inverserEnsuite, l'analyse de la nature des accidents révèle des lacunes technologiques inquiétantes pour un déploiement à grande échelle.Les rapports d'accidents font état de crash avec cinq autres véhicules, cinq objets fixes, mais aussi un cycliste et un animal.Plus troublant encore, la courbe de progression semble s'inverser. Alors que l'IA est censée s'améliorer par l'apprentissage continu, plus de 35 % des incidents ont été signalés sur les deux derniers mois de l'étude.Ce constat pose une question fondamentale sur la fiabilité du système vision-only de Tesla, qui refuse d'utiliser les capteurs Lidar, jugés trop chers. Sans une amélioration radicale de ces scores, le passage d'une flotte expérimentale à un service commercial semble s'éloigner.Sincérité ?Enfin, c'est la transparence de Tesla qui est aujourd'hui remise en question.Un incident survenu en juillet dernier, initialement déclaré comme un simple dommage matériel, n'a été requalifié en accident avec hospitalisation que cinq mois plus tard.Ce délai dans la déclaration soulève des interrogations sur le reporting de l'entreprise et la sincérité des promesses de son dirigeant.Surtout, la promesse d'une IA conductrice plus sûre que l'humain reste, pour l'instant, une ambition non vérifiée par les faits.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
Aujourd'hui, nous plongeons dans les coulisses de la conduite autonome avec une percée majeure signée Waymo.La filiale d'Alphabet vient de dévoiler son "Waymo World Model", une intelligence artificielle génératrice de mondes virtuels capable de simuler des situations de conduite avec un réalisme jamais atteint.Ce n'est pas seulement une prouesse technique, c'est le moteur qui va permettre aux véhicules autonomes de franchir un cap critique en matière de sécurité et de passage à l'échelle.Créer des environnements 3D photoréalistes et interactifsConcrètement, ce modèle s'appuie sur Genie 3, l'IA de Google DeepMind, pour créer des environnements 3D photoréalistes et interactifs.Le premier point de rupture, c'est la gestion des cas limites, ce que les ingénieurs appellent le "long-tail".En s'appuyant sur une connaissance du monde apprise via des milliards de vidéos, le simulateur peut inventer des scénarios que la flotte de Waymo n'a jamais croisés dans la réalité, comme une rencontre fortuite avec un éléphant ou une tornade en pleine ville.Là où les simulateurs classiques sont limités par les données collectées sur route, le World Model s'en affranchit donc pour préparer l'IA à l'imprévisible.ContrôlabilitéMais attention, il ne s'agit pas de simples vidéos passives. Le deuxième pilier de cette technologie, c'est la contrôlabilité.Les ingénieurs peuvent modifier une scène par un prompt ou changer la trajectoire du véhicule pour tester des scénarios contrefactuels. Comme par exemple que se serait-il passé si la voiture avait accéléré au lieu de freiner ?L'IA recalcule alors en temps réel non seulement l'image de la caméra, mais aussi les données LiDAR, indispensables pour la perception de la profondeur.C'est cette fusion multi-capteurs qui garantit que ce qui est appris en simulation est directement applicable sur le bitume.Waymo peut transformer n'importe quelle vidéo amateur en une simulation 3DEnfin, la force de ce modèle réside dans sa capacité de conversion.Waymo peut désormais transformer n'importe quelle vidéo amateur ou de dashcam en une simulation 3D.Une rue enneigée filmée par un smartphone devient donc un terrain d'entraînement multi-modal.Associé à une optimisation de l'inférence qui permet de simuler des séquences longues sans explosion des coûts de calcul, Waymo dispose ainsi d'un outil de validation scalable.Au final, la course à l'autonomie ne se gagne plus seulement sur la route, mais dans la capacité à générer et maîtriser des milliards de kilomètres virtuels hyper-réalistes.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
Le e-commerce français vient de franchir un cap historique en 2025 en frôlant la barre symbolique des 200 milliards d'euros de chiffre d'affaires selon la Fevad.Une performance qui, derrière l'aspect spectaculaire des chiffres, révèle une mutation profonde des comportements d'achat et des stratégies de vente en ligne.Le e-commerce se structure autour d'un paradoxe de consommationLe premier point à retenir, c’est que le e-commerce ne se contente plus de croître, il se structure autour d'un paradoxe de consommation.En 2025, nous avons réalisé 3,2 milliards de transactions, soit une hausse de 10 % en un an.Mais attention, dans le même temps, le panier moyen a reculé de 3 % pour s'établir à 62 euros.Concrètement, cela signifie que les Français achètent beaucoup plus souvent, mais pour des montants plus faibles.Pour les retailers, l'enjeu stratégique n'est donc plus seulement de déclencher l'achat plaisir, mais de s'intégrer dans une routine de consommation quotidienne où la recherche du "petit prix" devient le moteur principal des arbitrages.L'insolente santé du secteur des servicesLe deuxième pilier de cette analyse, c'est l'insolente santé du secteur des services qui tire désormais la croissance globale.Avec une progression de 9 %, les services pèsent aujourd'hui 120 milliards d'euros, éclipsant la vente de produits physiques qui plafonne à 4 % de croissance.Ce sont les secteurs du voyage, des loisirs et surtout des transports qui boostent ces résultats.La valeur ajoutée migre donc vers l'immatériel. Le e-commerce de 2025 est avant tout un e-commerce de l'expérience et de la mobilité, capable de résister à une conjoncture politique et économique pourtant instable.Souveraineté numérique et compétition internationaleEnfin, il faut regarder ce que ces chiffres disent de la souveraineté numérique et de la compétition internationale.Si le secteur progresse, il fait face à une pression sans précédent des plateformes asiatiques.Comme le souligne la Fevad, cette solidité du marché français est un atout de souveraineté qu'il faut protéger par l'innovation.Cependant, tout n'est pas rose. Le segment B2B, les ventes aux professionnels, affiche une stabilité qui trahit une forme de prudence, voire de gel des investissements face au manque de visibilité économique.En clair, si le consommateur final est au rendez-vous, les entreprises, elles, attendent des signaux plus clairs avant de relancer leurs cycles d'achats numériques.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
Aujourd'hui, nous plongeons au cœur d'un paradoxe qui secoue l'industrie technologique : alors que l'intelligence artificielle n'a jamais été aussi puissante, elle est en train de rendre vos ordinateurs et vos smartphones moins essentiels, tout en faisant exploser leur prix.C'est le grand retour de l'informatique dite légère, c'est à dire du client léger.La fin d'un règne de quarante ansD'abord, il faut comprendre que l'IA marque la fin d'un règne de quarante ans, celui du client lourd.Depuis les années 80, la puissance informatique était locale, tout se passait dans votre PC ou votre téléphone.Mais avec l'IA générative, supportée par le cloud computing, tout bascule. L'interface se résume désormais à un simple champ de texte, une bulle de chat.Que vous utilisiez un smartphone à 1500 euros ou un vieux terminal, le résultat est identique car 100 % du calcul se fait dans le cloud.Pour le dire franchement, la valeur repose désormais dans la capacité de calcul distante. Et c'est une menace directe pour les éditeurs dont la valeur reposait jusqu'ici sur l'ergonomie locale des logiciels.L'IA sur le serveur s'occupe de toutEnsuite, cette révolution s'accélère avec l'arrivée des agents IA.On ne parle plus ici de poser une question à un chatbot, mais d'accomplir une tâche complexe de bout en bout avec un agent d'IA.Et dans ce monde d'agents, tout ce qui se passe entre votre requête et le résultat final devient invisible. L'IA sur le serveur s'occupe de tout.Et pour être compétitive, l'IA locale aurait besoin de quantités phénoménales de mémoire vive, ce qui nous amène à notre troisième point, beaucoup plus concret pour vos budgets.La mauvaise nouvelle, c'est l'éviction par la mémoireCar la mauvaise nouvelle, c'est ce qu'on appelle l'éviction par la mémoire.C'est très simple. L'appétit des centres de données pour la mémoire haute performance est tel qu'il crée une pénurie mondiale.On apprend ainsi que Sony envisage de repousser la PlayStation 6 à 2029 et que des fabricants comme Oppo ou Xiaomi revoient leurs ambitions à la baisse pour 2026.Par ailleurs, Samsung renégocie désormais ses contrats de mémoire chaque trimestre plutôt qu'une fois par an.En clair, l'IA est en train de rendre vos ordinateurs et smartphones plus chers, tout en les rendant techniquement moins indispensables.Pour un DSI, l'arbitrage va devenir crucial. Faut-il continuer à investir dans des flottes de machines surpuissantes alors que l'essentiel de la valeur métier migre vers des infrastructures partagées dans le cloud ?Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
Imaginez une bulle de connectivité 5G capable de suivre un navire de guerre en pleine tempête.Ce n'est plus de la science-fiction, c'est ce que viennent de valider les entreprises Ericsson et Leonardo, deuxième groupe industriel italien, et la marine italienne, en Méditerranée.Le succès de ce test en conditions réelles marque un tournant pour les réseaux critiques.Un réseau 5G Standalone autonome en pleine merD'abord, la prouesse technologique réside dans le déploiement d'un réseau 5G Standalone, totalement autonome en pleine mer.Le système installé sur le navire amphibie San Giorgio est une solution de bout en bout totalement indépendante, assure la marine italienne.Ericsson a utilisé son équipement et des antennes MIMO pour créer une bulle réseau privée. Concrètement, cela signifie que les unités navales ne dépendent plus d'une infrastructure terrestre ou satellitaire vulnérable pour leurs échanges locaux.Le bénéfice est la création d'un réseau tactique projetable, capable d'offrir des débits 5G et une latence quasi nulle sur un théâtre d'opérations mobile. De quoi changer radicalement la donne pour la coordination des flottes modernes.Traiter des volumes de données colossaux en temps réel et de manière sécuriséeEnsuite, l'enjeu majeur de cette expérimentation était la capacité à traiter des volumes de données colossaux en temps réel et de manière sécurisée.De manière sécurisée car la solution de chiffrement de Leonardo permet aux navires d'échanger des informations classifiées sans risque d'interception.Concrètement, le réseau a supporté les flux vidéo provenant de douze drones aériens et maritimes, dont les données ont été traitées instantanément par une plateforme d'intelligence artificielle.Cette convergence entre 5G et IA permet à chaque officier sur le pont de voir ce que voient les drones en haute définition, sans décalage.La 5G n'est plus seulement une technologie civileEnfin, ce test valide, selon Ericsonn, la supériorité de la 5G sur les systèmes traditionnels radios qui présentent des risques d'interférences ou de saturation.Pour les militaires, c'est peut être la preuve que la 5G n'est plus seulement une technologie civile.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
C'est peut-être une surprise, mais quand on ouvre les entrailles des usines et des centres logistiques modernes, une technologie de connexion sans-fil bien connue des amateurs de casque audio, le Bluetooth, devient le nouveau système nerveux de l'industrie mondiale, indique le Bluetooth Special Interest Group.Et voici un chiffre pour l'illustrer. Selon ABI Research, ce sont 600 millions d'équipements industriels Bluetooth qui seront livrés chaque année d'ici 2028.Et je vous explique l'impact de cette révolution pour vos infrastructures industrielles avec trois cas d'usage.Maintenance prédictiveD'abord, le Bluetooth industriel est utilisé pour faire de la maintenance prédictive.Concrètement, des capteurs Bluetooth basse consommation sont désormais greffés sur les moteurs et les convoyeurs pour surveiller en temps réel les vibrations, la température et le bruit. Le gain est surtout la fin des câblages complexes.Les données remontent vers des plateformes d'IA qui détectent les anomalies avec l'objectif de prévenir les pannes. Résultat, une réduction des pannes d'équipement de près de 70 % selon Deloitte.Localiser chaque objet en temps réelLe second cas d'usage, c'est une visibilité totale sur les machines et les outils présents dans les entreprises grâce au traçage Bluetooth.Et dans un entrepôt ou sur un chantier, le temps perdu à chercher un outil ou une pièce détachée est une perte nette de productivité.Les tags Bluetooth permettent ici de localiser chaque objet en temps réel. Et la nouveauté réside ici dans l'arrivée du "Bluetooth Channel Sounding".Derrière ce terme technique se cache une capacité de mesure de distance qui transforme votre inventaire en une carte interactive et dynamique.Sur ce point, ce sont 760 millions de balises de suivi qui devront être expédiées annuellement d'ici 2029.Le Bluetooth sécurise désormais les zones à risque via le "geofencing"Enfin le troisième point concerne la sécurité des professionnels sur les sites industriels.Le Bluetooth sécurise désormais les zones à risque via le "geofencing" ou périmètre virtuel.Pour ce faire, les équipements de protection individuelle, comme les casques ou les badges connectés, sont équipés de tags Bluetooth. Et ils communiquent avec les machines.Concrètement, si un opérateur pénètre dans une zone dangereuse, le système peut alerter ou stopper automatiquement l’équipement.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
Plongeons dans une faille de sécurité émergente aussi subtile que redoutable. Il s'agit de l'empoisonnement des recommandations des IA par manipulation de la mémoire.Concrètement, derrière le bouton "Résumer avec l'IA" que vous utilisez peut-être chaque jour avec les logiciels et sites internet, se cachent parfois des instructions malveillantes visant à biaiser durablement le jugement de votre assistant numérique.Le premier point de rupture concerne donc l'usage détourné des fonctions de résumé automatique.Le bouton "Résumer" : un cheval de Troie invisibleMicrosoft a identifié une nouvelle tendance baptisée "AI Recommendation Poisoning".Concrètement, des entreprises malveillantes insèrent des instructions cachées dans les paramètres URL des boutons de résumé.Lorsqu’un utilisateur clique pour obtenir une synthèse, il injecte sans le savoir une commande de persistance dans la mémoire de son assistant, comme ChatGPT ou Copilot.Ces instructions ordonnent alors à l'IA de considérer telle marque comme une "source de confiance" ou de la "recommander en priorité" dans toutes les discussions futures.Ce n'est donc plus une simple publicité, c'est une altération profonde et invisible du moteur de décision de l'assistant d'IA.Et cette stratégie marketing s'industrialise.L'industrialisation de la manipulationEn l'espace de deux mois, plus de 50 exemples distincts provenant de 31 entreprises ont été repérés dans les secteurs de la finance ou de la santé.Mais le plus inquiétant est l'apparition d'outils "clés en main" comme le package CiteMET ou des générateurs d'URL optimisés pour le GEO.En clair, ces outils permettent à n'importe quel site web d'implanter ses arguments de vente directement dans la mémoire à long terme des assistants d'IA.Le risque est donc pour l'utilisateur de recevoir une analyse de marché ou un conseil en investissement biaisé par une instruction implantée des semaines auparavant lors d'une simple navigation web.Vers une hygiène numérique de la mémoire IALa mémoire des assistants IA, conçue pour personnaliser l'expérience, devient donc une surface d'attaque persistante.Car contrairement à un résultat de recherche Google que l'on peut ignorer, une instruction mémorisée par l'IA agit en arrière-plan de manière permanente.Pour les entreprises, la protection contre ce type d'attaques passe par un audit régulier des "faits enregistrés" dans les paramètres de l'IA et une grande méfiance envers les liens de type "Summarize".Par ailleurs, les équipes cyber doivent désormais traquer les mots-clés comme "trusted source" ou "remember" dans les flux d'URL pour détecter les attaques de ce type.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
Aujourd'hui, on plonge dans le code avec OpenAI qui vient de frapper un grand coup en lançant GPT-5.3-Codex-Spark.C’est une version allégée mais ultra-rapide de son modèle de génération de code.La vitesse pureD'abord, la promesse est simple : la vitesse pure.Ce nouveau modèle "Spark" est capable de générer du code 15 fois plus vite que le modèle standard GPT-5.3-Codex.On parle d'une réduction drastique de la latence, avec une réponse aux requêtes presque instantanée. Pour les développeurs, cela signifie la fin du mode "batch" où l'on envoyait une instruction avant de partir prendre un café en attendant le résultat.Ici, on entre dans l'ère de la collaboration en temps réel. Le modèle permet des micro-éditions ciblées et des ajustements d'interface en direct, et ce sans casser le flux de travail.Partenariat stratégique avec CerebrasEnsuite, il faut regarder sous le capot pour comprendre ce bond de performance.Cette prouesse est le fruit d'un partenariat stratégique avec le fabricant de puces Cerebras. Le modèle Spark tourne sur le "Wafer Scale Engine 3", un processeur géant de la taille d'une galette qui regroupe toutes les ressources de calcul sur une seule pièce de silicium.Concrètement, OpenAI a réduit l'échange de données entre le client et le serveur de 80 %. C’est cette architecture matérielle unique qui permet une interactivité fluide, autorisant même le développeur à interrompre ou à rediriger l'IA en plein milieu de sa tâche.Mais attention, et c'est mon troisième point, cette vitesse a un prix : celui de la précision et de la sécurité.Plus vite, mais plus faillibleOpenAI est très honnête sur ce point : sur les bancs d'essai mesurant les capacités d'ingénierie logicielle autonome, Spark est moins performant que son grand frère.Plus inquiétant encore pour les entreprises, il n'atteint pas les seuils de haute capacité en cybersécurité définis par OpenAI.En clair, Spark fait les choses beaucoup plus vite, mais il est plus susceptible de commettre des erreurs ou de générer des failles.On est donc sur un outil de prototypage rapide et d'itération légère, plutôt que sur un agent capable de gérer seul des infrastructures critiques.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
Aujourd'hui, nous plongeons dans une application fascinante de l'intelligence artificielle qui dépasse le cadre des entreprises pour s'attaquer aux mystères de l'histoire.Une équipe internationale vient de prouver que l'IA peut redonner vie à des pans entiers de notre culture en reconstituant les règles d'un jeu de société romain dont le manuel avait disparu depuis deux millénaires.Simulation de données au service de l'archéologieD'abord, il faut comprendre que nous ne sommes pas ici dans de la génération de texte à la ChatGPT, mais dans de la simulation massive de données au service de l'archéologie.Le point de départ est une simple plaque de calcaire gravée, découverte aux Pays-Bas. Si les traces d'usure suggérait un jeu, personne ne savait comment on y jouait. Les chercheurs ont donc utilisé la numérisation 3D pour cartographier chaque micro-rayure et formuler des centaines d'hypothèses de plateaux.C'est ici que l'IA entre en scène : au lieu de tester manuellement chaque théorie, les scientifiques ont injecté ces données dans Ludii, une plateforme logicielle dédiée aux systèmes de jeux. En quelques heures, l'IA a simulé des milliers de parties pour tester la viabilité mathématique et logique de chaque règle potentielle par rapport à l'usure réelle de la pierre.L'IA agit ici comme un accélérateur de raisonnementEnsuite, cette prouesse technique nous livre un enseignement stratégique sur la nature même de l'IA.Pour Éric Piette, le chercheur à l'origine du projet, l'IA agit ici comme un accélérateur de raisonnement. Elle a permis de valider que ce plateau correspondait à un jeu de blocage, où l'objectif est d'immobiliser l'adversaire, un mécanisme que l'on retrouvera bien plus tard en Scandinavie.Concrètement, l'outil n'a pas remplacé l'archéologue, il a éliminé les impasses logiques pour ne laisser que les scénarios robustes. En clair, l'IA excelle là où la combinatoire humaine sature, permettant de transformer des indices fragmentaires en modèles de connaissances exploitables.Etude des mécanismes cognitifs et du comportement humainEnfin, les retombées de ce projet Ludii dépassent largement le cadre des musées. Si cette IA sait reconstituer les interactions sociales de l'Antiquité, elle est surtout un laboratoire pour l'étude des mécanismes cognitifs et du comportement humain.Ces mêmes algorithmes de simulation sont aujourd'hui utilisés pour analyser la manière dont nous apprenons, dont nous interagissons et dont nous résolvons des problèmes complexes.Pour les décideurs de la tech, le message est clair : l'IA devient un pont entre des disciplines autrefois silotées, comme l'informatique, l'histoire et la psychologie, créant un langage commun pour modéliser n'importe quel système de règles, qu'il soit ludique, social ou industriel.Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
Et si l'avenir de l'intelligence artificielle ne se jouait plus au sol, mais à 500 kilomètres au-dessus de nos têtes ?C'est le pari fou, mais très sérieux, de Google et la société Planet avec le projet Suncatcher. L'objectif est simple : construire les premiers centres de données orbitaux.Les deux géants viennent d'annoncer une accélération majeure avec le lancement prévu de deux satellites de démonstration d'ici début 2027.Une alimentation solaire quasi continueLe premier pilier de cette stratégie repose sur la résolution d'une équation énergétique devenue critique sur Terre.Aujourd'hui, les centres de données IA saturent les réseaux électriques et posent des problèmes de refroidissement colossaux.En plaçant ces serveurs en orbite héliosynchrone, Google et Planet visent une alimentation solaire quasi continue.Concrètement, ces satellites qui serviraient de "fermes de calcul" déploieront des panneaux solaires XXL pour alimenter des puces TPU, les processeurs de Google optimisés pour l'IA.Mais le vrai défi technique reste la dissipation de la chaleur dans le vide spatial et la protection des composants contre les radiations. C'est tout l'enjeu des tests de 2027. Il s'agit de prouver qu'on peut faire tourner un cluster de calcul intensif dans l'hostilité de l'espace.Un cluster spatial volantEnsuite, le projet Suncatcher inaugure une architecture réseau d'un genre nouveau : le cluster spatial volant.On ne parle pas de satellites isolés, mais de grappes de machines situées à moins de 200 mètres les unes des autres, reliées par des liaisons laser à très haut débit.Cela préfigure un cloud hybride totalement indépendant des infrastructures terrestres et capable de traiter les données directement dans l'espace.Planet utilise ici son expérience unique, ayant déjà mis en orbite plus de 600 satellites, pour industrialiser ce que Google appelle un "système de cluster à grande échelle".Vers le développement industrielEnfin, cette alliance marque un tournant concurrentiel majeur dans la course à l'espace.Si Jeff Bezos et Elon Musk ont déjà évoqué l'idée de data centers spatiaux, Google et Planet sont les premiers à passer concrètement en phase de recherche et développement industrielle.Le PDG de Planet, Will Marshall, l'affirme : nous ne sommes qu'à quelques années du point de bascule économique où l'espace deviendra moins cher que la Terre pour le calcul intensif.Avec la baisse drastique des coûts de lancement, l'infrastructure spatiale devient un levier stratégique pour la puissance de calcul.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
Ce n'est plus de la science-fiction. La réalité brutale de l'intelligence artificielle générative qui vient de franchir un cap historique, note le dernier baromètre de l'Arcep.En seulement deux ans, nous sommes passés d'une curiosité de laboratoire à un outil de masse utilisé par près d'un Français sur deux. C'est aussi un séisme qui redéfinit les frontières entre vie privée et vie professionnelle.Une accélération technologique sans précédentLe premier constat est celui d'une accélération technologique sans précédent dans l'histoire moderne.Là où le smartphone avait mis trois ans pour atteindre un niveau de pénétration significatif, l'IA générative n'a eu besoin que de vingt-quatre mois pour conquérir près de 50 % de la population.Et cette adoption quasi instantanée culmine chez les français de moins de 25 ans avec un taux de 85 %.Pour les entreprises, cela signifie que la question n'est plus de savoir s'il faut intégrer l'IA, mais comment gérer des collaborateurs qui sont déjà, pour la plupart, des utilisateurs aguerris de cette technologie dans leur sphère privée.L'IA générative inverse les codes traditionnels de l'innovationSurtout, au-delà de cette vitesse de déploiement, l'IA générative inverse les codes traditionnels de l'innovation.Historiquement, les grandes vagues technologiques entraient dans nos vies par le bureau avant de s'inviter dans nos salon. Pour l'IA, c'est l'inverse.Le recours à ces outils relève d'abord d'une initiative personnelle plus de 40 % des usagers, tandis que l'usage strictement professionnel concerne 30 % des actifs.C'est ce qu'on appelle le Shadow AI. Les salariés testent, expérimentent et résolvent des problèmes complexes avec ChatGPT ou Claude chez eux, avant de ramener ces réflexes au travail.Par ailleurs, une pression nouvelle apparaît. Près de 20 % des Français se voient désormais imposer l'IA par les plateformes qu'ils utilisent déjà, comme les moteurs de recherche ou les messageries, rendant la technologie incontournable, qu'on le veuille ou non.Une nouvelle fracture numérique de compétence et d'usageEnfin, il faut noter une nouvelle fracture numérique, non plus d'accès, mais de compétence et d'usage.Le profil type de l'utilisateur intensif se dessine très nettement. Il est jeune, diplômé du supérieur, cadre ou indépendant.Pour le monde professionnel, ce clivage est un enjeu majeur. Les indépendants et les cadres, avec plus de 75 % d'utilisateurs, transforment déjà leurs méthodes de travail quand d'autres secteurs restent sur le bord de la route.Cette concentration des usages chez les profils les plus qualifiés risque de créer un avantage compétitif pour ceux qui maîtrisent l'art de la requête et du prompt, laissant présager une restructuration profonde du marché du travail basée sur la collaboration homme-machine.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
Imaginez un moteur de Formule 1 monté sur un châssis de vélo. C'est un peu l'image que renvoie aujourd'hui l'intelligence artificielle générative dans le secteur des achats en entreprise.On en parle partout, on multiplie les essais, mais quand il s'agit de passer à la vitesse supérieure, les entreprises calent.Le dernier baromètre publié par EFESO Management Consultants vient de tomber, et le chiffre est sans appel.Seules 5 % des directions achats ont réellement franchi le cap de l'industrialisation à grande échelle de l'IA générative.Les directeurs achats ont changé de braquetLe premier constat de cette étude, c'est que nous assistons à la fin de l’ère de l’expérimentation joyeuse pour entrer dans celle de la discipline de fer.Si 75 % des entreprises testent l'IA, le déploiement massif reste marginal car les directeurs achats ont changé de braquet.Ils ne cherchent plus à savoir si l'IA fonctionne, mais ils exigent désormais une démonstration tangible de la valeur créée avant de signer le moindre chèque.En clair, les projets ne sont plus validés sur leur aspect innovant, mais sur leur capacité à s'intégrer aux processus opérationnels existants.Super-secrétariat technique plutôt que aide à la décisionPar ailleurs, l’IA générative semble pour l'instant cantonnée dans le monde des achats à des rôles de super-secrétariat technique plutôt qu'à des fonctions de décision.Les usages qui s'industrialisent réellement sont ceux qui présentent le moins de risques et une forte densité de données faciles à traiter.On parle ici de l'analyse et de la synthèse de contrats pour près de 70 % des entreprises, ou encore de la veille fournisseur pour plus de 60 % d'entre elles.En revanche, dès que l'on touche au cœur du métier, comme la négociation assistée par l'IA, le taux d'adoption chute à 35 %.Pourquoi ? Parce que confier une négociation stratégique à un algorithme demande une profondeur de données et une gouvernance que peu d'organisations possèdent encore aujourd'hui.La crise de confiance freine le passage à l'échelleEnfin, l'étude note que c'est la crise de confiance qui freine le passage à l'échelle.Seul un tiers des directeurs achats se dit pleinement satisfait des résultats obtenus par rapport aux investissements initiaux.Et le problème ne vient pas toujours de l'outil lui-même, mais de la matière première. Près de 70 % des décideurs pointent la fiabilité des données comme un obstacle majeur.En clair, avertit l'étude, 2026 s'annonce comme l'année où le fossé va se creuser irrémédiablement entre les directions achat qui sauront industrialiser leurs pilotes de manière sélective et celles qui resteront bloquées dans une boucle infinie d'expérimentations sans lendemain.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
Aujourd'hui, on s'intéresse à une petite révolution dans la manière dont nous allons bientôt faire nos courses en ligne.Criteo vient de lever le voile sur son Agentic Commerce Recommendation Service, un nom un peu complexe pour une mission très concrète.Il s'agit d'apporter plus d'intelligence commerciale aux assistants d'achat basés sur l'IA.Sous le capot des assistants d'achatPour comprendre l'enjeu, il faut d'abord regarder sous le capot de nos assistants d'achat actuels.Aujourd'hui, qu'il s'agisse d'un chatbot de retailer ou d'un grand modèle de langage, ces outils se contentent souvent de lire des descriptions de produits, un peu comme un simple robot qui scannerait une étiquette.Le problème, c'est que ça ne suffit pas pour conseiller efficacement un client. Il a besoin par exemple des avis d'autres consommateurs, ou encore des volumes de vente pour savoir si ce produit est le bon.Criteo assure donc vouloir changer la donne en injectant sa base de données directement dans ces flux d'IA.Le service s'appuie sur des données réelles. Criteo assure disposer de données de consommation de 720 millions d'utilisateurs de site de e-commerce.En utilisant ces signaux d'achat concrets plutôt que de simples textes marketing, Criteo affirme pouvoir booster la pertinence des recommandations des chatbots.De quoi en faire des vendeurs experts qui savent ce qui se vend vraiment et pourquoi.Connecter les cerveaux des IA aux inventairesAu-delà de cette précision, l'autre force de cette annonce réside dans l'infrastructure technique utilisée. Criteo dit utiliser le Model Context Protocol ou MCP.Ce nouveau protocole permet de connecter directement les cerveaux des IA aux inventaires en temps réel des commerçants.Concrètement, lorsqu'un consommateur demande une sélection pour un budget précis, l'IA ne va plus seulement chercher des mots-clés. Elle interroge le service de Criteo qui filtre et classe les produits selon la popularité, la disponibilité et l'intention réelle de l'utilisateur.L'assistant IA peut alors accompagner le client jusqu'au paiement. C'est ce que Criteo appelle le commerce agentique.Des agents d'IA qui parleront à des agents d'IAEt le futur du commerce agentique passera très certainement par un dialogue entre des robots diligentés par les acheteurs, et des robots maîtrisés par les vendeurs.Dans ce nouveau monde où les agents IA font le gros du travail de recherche pour les humains, le véritable avantage concurrentiel côté retailer ne sera plus seulement d'avoir un bon produit, mais d'être visible par l'algorithme qui conseille l'acheteur.Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
loading
Comments (1)

Adam zampa

Épisode incroyable qui est !! Découvrez maintenant plus sur le calculateur de TVA https://kdvhesaplamalar.com.tr/

Oct 31st
Reply