DiscoverXY Magazine
XY Magazine
Claim Ownership

XY Magazine

Author: Régis BAUDOUIN

Subscribed: 2Played: 10
Share

Description

Le podcast de la génération X et Y. On traite de sujets touchant à la tech, innovation, cyber, souveraineté, sobriété, enjeux sociétaux
171 Episodes
Reverse
La vraie révolution n’est plus dans le Cloud, mais dans votre poche Par Régis BAUDOUIN « Désolé, je n’ai pas de connexion internet. » Cette phrase, qui rendait vos assistants “intelligents” totalement inutiles en zone blanche ou dans les transports appartient désormais au passé. En ce mois d’avril 2026, la tendance s’inverse radicalement : les géants de la tech et les champions de l’Open Source ne jurent plus que par les SLM (Small Language Models). Ces modèles réduits, capables de prouesses comparables aux géants de 2024, mais tournant à 100 % localement sur votre smartphone ou votre PC, marquent la fin de la dépendance aux data centers énergivores. Bienvenue dans l’ère de l’Intelligence artificielle souveraine par défaut. En clair fini l’exigence de disposer d’un carte graphique GPU pour héberger une Intelligence artificielle, un smartphone va suffire. C’est un mouvement de fond important. Pour le décideur, cette démesure des modèles LLM s’accompagne d’une “taxe sur l’inefficacité” de plus en plus lourde : factures cloud opaques, latence incompatible avec l’expérience utilisateur et risques persistants sur la souveraineté des données. Nous assistons bien aujourd’hui à un basculement stratégique : le passage vers l’Intelligence artificielle utilitaire. Les Small Language Models (SLM) ne sont pas de simples versions “dégradées” des géants ; ils représentent une réponse agile, souveraine et économiquement viable aux besoins réels des entreprises. L’intelligence ne se mesure plus au volume de données ingurgitées, mais à l’efficacité du résultat produit. Qu’est-ce qu’un SLM ? Depuis trois ans, la course à l’Intelligence artificielle s’est résumée à une démesure de paramètres. Plus le modèle était gros (LLM – Large Language Models), plus il semblait intelligent. Mais cette approche a atteint ses limites : coût écologique désastreux, latence et surtout, une opacité totale sur le traitement des données. La rupture de 2026 s’appelle le SLM. Grâce à des techniques de “quantification” (une compression mathématique de pointe) et à l’émergence des puces NPU (Neural Processing Unit) intégrées dans nos processeurs, un modèle de 3 à 7 milliards de paramètres peut désormais raisonner aussi bien que GPT-4. La différence ? Il pèse quelques gigas et réside physiquement dans le processeur de votre appareil. L’intelligence ne voyage plus sur le réseau ; elle habite votre machine. A propos des NPU, ils sont maintenant intégrés aux derniers processeurs Intel et la rumeur veut que le prochain Windows 12 exige des NPU pour fonctionner. L’idée qu’un modèle plus petit est nécessairement moins intelligent est un mythe qui s’effondre. En se concentrant sur moins de 10 milliards de paramètres, des modèles comme Phi-3.5 Mini (3,8B), Llama 3.1 8B ou Mistral Nemo 12B rivalisent avec les mastodontes sur des tâches métier précises. La force d’un modèle comme Phi-3.5 réside notamment dans sa capacité à gérer un contexte long de 128 000 tokens, le rendant idéal pour l’analyse de documents juridiques ou techniques complexes. La véritable rupture réside dans le duo gagnant : Petit moteur + Grande bibliothèque. Grâce au RAG (Retrieval Augmented Generation) et aux bases de données vectorielles, un SLM n’a plus besoin de “tout savoir”. Il utilise sa capacité de raisonnement pour interroger en temps réel les documents internes de l’entreprise. Cette approche élimine le besoin de réentraînements coûteux, réduit drastiquement les hallucinations et garantit que l’Intelligence artificielle parle la langue de votre expertise. Le point clé est de connecter ces SML sur vos données et pas sur la totalité de du contenu d’internet. Vous être plus pertinent et les réponses sont propres à vos données passées sasn risque des les faire fuiter. Le triple dividende : Souveraineté, Écologie, Vitesse Le passage au local n’est pas qu’une prouesse technique, c’est un acte politique et stratégique pour l’utilisateur. Quels sont les bénéfice de cette évolution de modèle d’Intelligence artificielle? Souveraineté et Vie Privée : C’est l’argument massue. Puisque la donnée ne quitte jamais votre appareil, le risque d’espionnage industriel via le Cloud Act américain est fortement réduit. C’est enfin une Intelligence artificielle compatible avec le secret professionnel, le secret médical et la vie privée la plus stricte. Ca c’est sur le papier. En réalité les services sont liées à leurs fournisseurs car certains traitements nécessitent d’interroger une base distante. Sobriété Énergétique : Selon les derniers rapports de l’Arcep (2025/2026), interroger une Intelligence artificielle locale consomme jusqu’à 100 fois moins d’énergie que de solliciter un serveur à l’autre bout du monde. La relocalisation du calcul est la clé de la décarbonation du numérique. Surtout que le puissance nécessaire est moindre. Latence Zéro : Plus besoin d’attendre que le serveur de la Silicon Valley vous réponde. La traduction instantanée ou la rédaction de mails deviennent aussi fluides qu’un simple correcteur orthographique, même en mode avion. Les maîtres du jeu local : Mistral, Apple et l’Open Source Sur ces solutions SLM qui sont les plus avancées ? Mistral AI : Le fleuron français confirme sa domination sur le segment de l’efficience. Leurs modèles “Small” et “Tiny” sont devenus la référence européenne pour les administrations soucieuses de leur indépendance. J’ai eu l’occasion de le tester en autohébergèrent. C’est plutôt efficace. L’écosystème Open Source : Des plateformes comme Hugging Face (via leur Open LLM Leaderboard) ont permis une accélération sans précédent. En quelques mois, la communauté a optimisé des modèles pour qu’ils tournent sur de simples Raspberry Pi ou des smartphones de milieu de gamme. Apple et Google : Avec Apple Intelligence 2.0 et Gemini Nano, les deux géants ont dû se résoudre à suivre la marche : le smartphone de 2026 est avant tout un terminal d’Intelligence artificiellelocale. Le combat faire rage pour imposer son Intelligence artificielle locale avant que les régulateurs interviennent (comme pour internet explorer) Le passage aux SLM transforme radicalement le plan d’investissement IA. L’argument massue ? L’accessibilité matérielle. Là où les LLM exigent des GPU haute performance (cartes Nvidia H100) rares et onéreux, les SLM peuvent fonctionner sur des CPU standard (Intel ou AMD) ou du matériel standard déjà présent dans l’entreprise. La rentabilité est sans appel : Investissement initial : 12 000 à 25 000 € pour un SLM spécialisé, contre 45 000 à 80 000 € pour un LLM. Coût mensuel d’infrastructure : 400 à 800 € contre 1 200 à 2 400 € pour les modèles géants. Time-to-ROI : Atteint en 3 à 6 mois seulement, contre près d’un an pour un LLM. Infrastructure : Utilisation possible de serveurs existants sans upgrade GPU massif. C’est vraiment un game changer à une moment ou le pris de la RAM et des processeurs s’envole. Comment un modèle de quelques milliards de paramètres peut-il être aussi pertinent ? L’ingénierie utilise trois leviers principaux : La Distillation : C’est le transfert de connaissances d’un modèle “professeur” (LLM) vers un “élève” (SLM). L’élève n’apprend pas seulement les réponses, mais reproduit les schémas de raisonnement de son mentor avec une fraction de sa taille. L’Élagage (Pruning) : Cette technique consiste à supprimer les neurones et paramètres redondants. On “taille” le modèle pour ne conserver que les connexions vitales, réduisant la taille sans sacrifier la précision. La Quantification : Il s’agit de réduire la précision numérique des données. Par exemple, passer de 32 bits à 8 bits permet de diviser par quatre l’empreinte mémoire. Pour vulgariser : si vous mesurez la température, stocker 20,5234°C (32 bits) est inutile là où 20,5°C (8 bits) suffit largement à l’application. On gagne en vitesse et en espace avec une perte de pertinence négligeable. Le retour à la propriété numérique Il y a dix ans, on nous expliquait que pour être “smart”, tout devait être dans le Cloud. En 2026, la boucle est bouclée : la véritable intelligence est celle que vous possédez, celle qui ne dépend d’aucun abonnement, d’aucun câble sous-marin et d’aucune juridiction étrangère. Le passage aux SLM est plus qu’une mise à jour logicielle, c’est une reprise de pouvoir. En rapatriant l’Intelligence artificielle dans nos poches, nous reprenons les clés de notre souveraineté numérique. Cela ne veut pas dire que tout sera gratuit. Comme souvent la réalité sera hybride. Le local pour les traitement courants et répétitif, le cloud en LLM pour la recherche exploratoire et le raisonnement de haut niveau. Pour en savoir plus sur l’IAThe post La vraie révolution de l’intelligence artificielle n’est plus dans le Cloud, mais dans votre poche first appeared on XY Magazine.
L’ère du score carbone personnel : Quand votre banquier devient votre conscience Par Régis BAUDOUIN « Transaction refusée : Quota carbone mensuel atteint. » Imaginez la scène : vous êtes à la caisse, votre solde bancaire est largement positif, mais votre paiement est bloqué. Ce n’est pas une panne réseau, ni un oubli de code. C’est l’intelligence artificielle de votre banque qui vient de juger votre empreinte écologique trop lourde pour ce mois-ci. Ce scénario, digne d’un épisode de Black Mirror, n’est plus une fiction dystopique. En ce printemps 2026, plusieurs néo-banques européennes et géants du paiement testent le “blocage vert” : une fonctionnalité qui lie votre plafond de dépenses à l’empreinte carbone de vos achats. Entre incitation vertueuse et crédit social déguisé, XY Magazine décrypte cette nouvelle frontière du contrôle numérique. BNP Paribas propose un bilan carbone individuel pour le mesurer et le réduire. Mais si vous ne le faites pas. Peut-il bloquer certaines dépenses ? exemple du reportions BNP Ce service de plafond carbone existe aussi avec Helios une néo banque française qui propose des cartes visa associées à une compteur de carbone. Le mécanisme du Plafond Carbone : De la donnée au contrôle Jusqu’à présent, vos données de transaction servaient principalement à vous profiler pour vous soumettre des offres ciblées. Aujourd’hui, la finalité change : il s’agit de piloter votre comportement. Pour limiter vos dépenses et votre consommations, les banques ont pris l’angle bilan carbone. On peut le considérer comme positif au regard de l’enjeu climatique. L’analyse automatique “Vert vs Brun” Grâce à l’IA et aux normes ISO de reporting extra-financier 2026, votre banque catégorise désormais chaque dépense. Ce traçage est facilité par l’ADEME, qui a poussé l’étiquetage environnemental sur presque tous les produits de consommation. Votre banque sait donc, en temps réel, si votre achat est “vert” ou “brun”. Le Nudging : L’incitation qui murmure à votre oreille Cela commence doucement par des notifications : « Cet achat de billet d’avion représente 40 % de votre budget annuel » C’est le Nudging. Mais une question demeure : qui définit l’étalon du “bien” et du “mal” écologique ? On le voit bien avec la SNCF qui le fait pour chaque voyage. On se dit bien que un jour on pourra agir sur cet indicateur au niveau des droit fondamentaux. La question du référentiel de ce qui est bien ou pas sera un point clé de la restriction des libertés. Cela va se faire par la loi. C’est déjà le cas avec les taxes sur les voitures pour inciter à acquérir une technologie electrique. Le Plafond Dynamique : La liberté sous conditions La nouveauté de 2026, c’est l’apparition de comptes bancaires “engagés”. L’utilisateur accepte volontairement — souvent en échange d’une réduction de frais — un blocage réel au-delà d’un certain seuil d’émissions. Helios, la néo-banque française, propose déjà des cartes Visa associées à un compteur carbone. Bilan carbone En Suède, la Carte DO de Doconomy permet de choisir un montant carbone à ne pas dépasser. Mais que se passe-t-il si ce choix, aujourd’hui individuel, devient imposé par la banque ou un organisme externe ? Pourquoi mesurer, si un jour, ce n’est pas pour réduire. Enjeux de souveraineté et dérive vers le “Crédit Social” Le rôle historique d’une banque est de sécuriser vos dépôts et d’octroyer des financements. Est-il de suivre vos habitudes alimentaires ou vos modes de chauffage ? L’outil de surveillance totale : En analysant le Carbone, la banque accède à une radiographie complète de votre mode de vie. C’est une mine d’or pour le profilage qui dépasse largement l’objet social bancaire. Le risque du score de crédit : À quand un taux de crédit immobilier indexé sur votre score carbone ? Les assureurs et banquiers y voient déjà un moyen de calculer le « risque de transition » de leurs clients. Un mauvais bilan carbone pourrait demain signifier un emprunt plus cher. On peut aussi basculer sur le crédit social comme en Chine qui donne ou retire des droits en fonction de ses actions. L’IA de confiance en question : Comment vérifier la transparence de l’algorithme qui calcule votre impact ? Un bug ou un biais dans la base de données de l’ADEME pourrait restreindre vos droits fondamentaux sans recours simple. Conclusion : Conscience ou contrainte ? Ce qui commence de manière ludique — comme l’affichage carbone de la SNCF pour chaque voyage — glisse inexorablement vers une régulation des droits individuels. Sous couvert de survie climatique, pourrons-nous demain interdire des voyages ou des dépenses essentielles ? Qui va décider comment gérer les exceptions. La CNIL veille, mais la pression de l’urgence écologique est forte. Alors que la frontière entre outil pédagogique et instrument de coercition s’estompe, une question s’impose : Préférerez-vous être bloqué par votre banquier… ou par votre conscience The post Votre banque va-t-elle limiter vos achats first appeared on XY Magazine.
« On ne peut pas quitter Microsoft. » Cette phrase, entendue dans toutes les DSI depuis dix ans, est en train de devenir obsolète. Entre une hausse des tarifs de 25 % à 30% en deux ans sous prétexte d’IA et une pression juridique sans précédent (commission d’enquête parlementaire de mars 2026, directive NIS2, circulaire ministérielle), l’alternative souveraine n’est plus un choix militant, c’est une stratégie de survie pour les entreprises. Pourquoi le vent tourne en 2026 Plusieurs éléments contribuent à ce changement d’attitude vis à vis de Microsoft mais aussi de tous les éditeurs qui La “Taxe IA” : Microsoft a généralisé ses hausses de prix en injectant Copilot par défaut. Pour beaucoup d’entreprises, payer pour une IA qu’elles n’utilisent qu’à 10 % devient inacceptable. D’autant que le constat est fait que d’autres modules ne sont jamais utilisés. Le piège du Cloud Act : Malgré les promesses de résidence des données en Europe, l’ambiguïté juridique demeure. La commission parlementaire présidée par Cyrielle Chatelain (mars 2026) pointe du doigt la vulnérabilité des secteurs critiques (santé, éducation). L’effet de masse : Le Health Data Hub a officiellement amorcé son retrait des services Microsoft. Quand le “paquebot” de l’État bouge, tout l’écosystème suit. A cela s’ajoute un contexte international anxiogène. Les USA jouent leur propre partition laissant leurs alliées historiques de coté. La position de la France est désormais sans ambiguïté. Le Directeur interministériel du numérique (DINUM) a acté que Microsoft 365 est “non conforme” à la doctrine “Cloud au centre”. De fait, la solution est exclue du label “Cloud de confiance“, réservé aux infrastructures protégeant les données contre les lois extraterritoriales. Qui sont les challengers ? On ne cherche plus “le Microsoft français” (qui n’existe pas en un seul bloc), mais un assemblage de briques de solution françaises ou européennes. Les caractéristiques sont les suivantes. Une offre cloud souveraine (Secnumcloud), des modules open source ou totalement libres. L’inconvénient par rapport aux solution des acteurs en place est l’effet patchwork. En réalité, les besoin sont simples : une solution collaborative, un traitement de texte, un tableur, une base de données, un messagerie, une solution de visio. Avec cela on peut travailler dans presque tous les domaines. Quand on regarde la marché présente beaucoup d’alternatives. La Suite Collaborative : Jamespot (TeamWork) et Wimi s’imposent comme les alternatives les plus matures pour la gestion de projet et la communication, mais il existe aussi des solution installées et auto hébergeables comme Nextcloud et mes amis de Div Protocol. La Bureautique : Le couple OnlyOffice ou Collabora Online intégré à des solutions comme eXo Platform ou Nextcloud offre désormais une compatibilité .docx quasi parfaite. Le Cloud de Confiance : L’arrivée de S3NS (Thales/Google) et de Bleu (Orange/Capgemini/Microsoft) qualifiés SecNumCloud crée une zone “hybride” pour ceux qui veulent la puissance des outils US sans le risque juridique. Le seul vrai hyperscaler Secnumcloud et français c’est OVHcloud. Une méconnaissance persistante laisse croire que la localisation physique des serveurs sur le sol européen suffit à garantir la protection des données. En tant qu’expert, je dois marteler cette vérité : la souveraineté n’est pas une question de géographie, mais de juridiction. Un fournisseur dont le siège social est hors de l’Union européenne demeure structurellement soumis à sa législation d’origine, créant un conflit insoluble avec le RGPD. Le CLOUD Act américain permet aux autorités d’outre-Atlantique d’exiger l’accès aux données, indépendamment de leur lieu de stockage. Ce risque n’est plus théorique : l’arrêt Schrems II de la CJUE et l’amende record de 1,2 milliard d’euros infligée à Meta en 2025 pour transferts illégaux soulignent la responsabilité financière et juridique colossale qui pèse sur les dirigeants. “Même lorsque les données sont stockées dans des centres européens, un fournisseur basé hors UE peut rester soumis à une législation étrangère (comme le Cloud Act américain).” La stratégie de la “Migration Invisible” Quitter Microsoft ne se fait pas en un week-end. Les entreprises qui réussissent en 2026 adoptent une approche hybride : Auditer la dépendance : Seuls 16 % des entreprises analysent réellement leurs flux de données (Baromètre EY/Hexatrust 2025). Auditer également des documents et process qui sont basés sur des technologies propriétaires (macro Excel, tableaux croisées et liées entre eux, workflow) Basculer par domaine: Garder Excel pour les finances, mais passer sur Tchap ou Olvid pour la messagerie sensible et Oodrive pour le stockage documentaire. On pourrait dire aussi garder un froint microsoft mais tout placer sur une architecture libre. Former au “Mieux-Vivre” numérique : Ne pas se laisse imposé des pack couteux et inutiles. Sortir de l’infobésité de Teams pour revenir à des outils plus structurés et souverains. Microsoft n’est pas complètement ignorant de ce phénomène. Il adapte sa tarification pour gêner ce mouvement en imposant certains modules et en adoptant une tarification en défaveur d’un picking de solutions dans son catalogue. Vers un “Système d’Exploitation” Souverain La bataille qui s’annonce en 2026 ne porte plus sur la simple alternative logicielle, mais sur le contrôle de l’accès. Si le grand exode hors de Microsoft 365 s’accélère, c’est parce qu’un nouvel écosystème de confiance est en train de naître en Europe. Le Portefeuille d’Identité Numérique Européen (EUDI), dont le déploiement massif est prévu pour la fin de l’année, sera la pièce manquante du puzzle. En permettant aux collaborateurs de s’authentifier de manière ultra-sécurisée et souveraine sur des clouds certifiés SecNumCloud, l’Europe ferme enfin la boucle : L’identité est gérée par l’État (via le Wallet). L’accès est protégé par des protocoles ouverts. La donnée est stockée chez des hébergeurs immunisés contre le Cloud Act. Quitter Microsoft n’est donc plus un saut dans l’inconnu, mais l’adhésion à une nouvelle norme d’infrastructure. Pour les entreprises françaises, 2026 est l’année où l’on cesse d’être des locataires précaires de la Silicon Valley pour devenir les propriétaires de notre propre destin numérique. Le choix d’une suite collaborative est devenu un acte de gouvernance pure. Ce mouvement de “géopatriation“ des données propulse le marché européen du cloud souverain vers des sommets, avec une estimation à 23,1 milliards de dollars et une croissance annuelle de 25 %. Le mot de la fin : Si Microsoft a inventé le bureau numérique, l’Europe est en train d’en construire les murs et d’en forger les clés. Il est peut-être temps de préparer vos cartons. Par Régis BAUDOUINThe post Microsoft 365 sous pression first appeared on XY Magazine.
DIV PROTOCOL : le service qui veut hacker l’hégémonie du Cloud américain Aujourd’hui, à 19 ans, Gaspard BONNOT s’attaque aux titans du Cloud. Avec sa start-up DIV Protocol, il défie Amazon, Google et Microsoft sur le terrain le plus brûlant : la souveraineté des données. À l’heure où les fleurons industriels français livrent toujours leurs secrets aux serveurs d’outre-Atlantique, ce jeune prodige propose une rupture technologique radicale pour reprendre le contrôle de vos données et les partager en toute sécurité et en toute souveraineté. Quand l’entrepreneuriat court-circuite le lycée Le parcours de Gaspard BONNOT est le reflet d’une génération qui ne demande plus la permission pour bâtir. Tout débute à 15 ans quand il convainc son père d’utiliser un compte sur Binance. L’effondrement des marchés et l’explosion des NFT en 2021 ne sont pas pour lui des jeux spéculatifs, mais des cas d’école. En observant l’engouement pour les “images de singes”, il perçoit une vérité sous-jacente : si l’on peut sécuriser une image de collection, on peut sécuriser des données vitales. C’est l’idée qui fait germer en Gaspard le projet de DIV PROTOCOL. L’aventure DIV PROTOCOL prend racine dans une chambre d’internat, avec son complice Solane. Le projet prend forme entre les murs de l’internat du lycée, loin des incubateurs parisiens. L’apprentissage est rapide pour passer d’une bande de “copains de chambrée” à celui de dirigeants d’une équipe de six cofondateurs et d’ingénieurs. Ce passage exige expérimentés a exigé une mue brutale. L’amitié et le business ce n’est pas toujours possible. Gaspard BONNOT a dû apprendre à s’entourer, remplaçant des amis par des profils matures pour répondre à la complexité d’un protocole de cybersécurité. Cette trajectoire souligne une maturité stratégique : l’agilité des “digital natives” couplée à une rigueur industrielle nécessaire pour délivrer une solution industrielle et sure. La souveraineté par la preuve cryptographique En France, le terme “souveraineté” est souvent galvaudé, réduit à une simple affirmation de stockage des données en France. Gaspard BONNOT dénonce ce “marketing de la souveraineté” qui endort les entreprises. Installer des serveurs sur le sol français ne sert à rien si les clés de chiffrement restent accessibles à un prestataire soumis au US Cloud Act ou à d’autres législations extraterritoriales. “Avoir des datacenters en France, ça ne suffit pas à être souverain. Nous avons poussé la souveraineté via les clés de chiffrement : nous n’en possédons aucune, nous les rendons toutes aux clients.” L’engagement de DIV PROTOCOL est très fort. Ce changement de paradigme est essentiel. En garantissant que le fournisseur n’a techniquement aucun moyen d’accéder au contenu, DIV PROTOCOL propose une résilience infrastructurelle totale. Contrairement aux initiatives comme Gaia-X qui se sont enlisées dans des compromis politiques, la démarche de Gaspar est une réponse technique pure : l’agnosticisme technologique. En rendant le client maître de ses clés, il transforme la souveraineté d’un concept politique flou en une réalité cryptographique inviolable. La blockchain réhabilitée Loin des fantasmes de la “crypto-sphère”, DIV PROTOCOL utilise la blockchain comme une solution industrielle. Ici, pas de jetons volatils, mais un usage structurel de l’immutabilité pour stocker les métadonnées (logs de connexion, adresses IP, horodatage). Cette approche redonne ses lettres de noblesse à une technologie souvent décrédibilisée. En cas de contentieux, l’entreprise peut prouver, de manière infalsifiable, l’état exact d’une donnée à un instant T. C’est un atout juridique majeur : la traçabilité devient une preuve irréfutable. Pour les professions réglementées, c’est la fin du doute sur l’intégrité des documents partagés. Cette utilisation “sérieuse” de la blockchain démontre que la valeur réelle de cette technologie réside dans la confiance numérique qu’elle génère, et non dans la spéculation qu’elle a pu alimenter. La solution pour des professions sensibles Plutôt que de s’épuiser dans une guerre frontale contre iCloud ou Dropbox pour le grand public, Gaspard BONNOT a opté pour une stratégie chirurgicale : cibler les niches B2B à haute exigence déontologique. Le choix des cabinets d’avocats comme premier marché est un coup de maître stratégique. Les structures de 1 à 20 collaborateurs offrent des cycles de vente courts tout en ayant un besoin vital de confidentialité. En signant plusieurs dizaines de cabinets en seulement quatre semaines, DIV PROTOCOL valide son modèle. Cette adoption par les professions juridiques agit comme une certification de confiance de facto. C’est un socle solide avant de s’attaquer aux notaires, aux assureurs et, à terme, aux grands comptes européens. Cette approche par “cercles concentriques” permet à la start-up de construire sa légitimité là où la sécurité n’est pas une option, mais une obligation légale. Anticiper le choc Quantique Dans le monde de la cybersécurité, le danger n’est pas seulement présent, il est futur. Gaspard BONNOT intègre déjà la menace de l’ordinateur quantique, capable de briser les chiffrements actuels. L’enjeu n’est pas d’être “100% protégé” aujourd’hui — ce qui est impossible avant la stabilisation de la technologie — mais d’être structurellement prêt pour la transition. Comment DIV PROTOCOL garantie son cryptage Algorithmes de pointe : Utilisation intensive de Poly1305 et ChaCha20 pour garantir un haut niveau de sécurité actuel. Veille algorithmique constante : Une structure prête à intégrer les protocoles de résistance quantique dès leur normalisation. Prévention de la rétro-ingénierie : Protéger les données aujourd’hui contre les puissances de calcul de demain. Cette maitrise technique montre que DIV PROTOCOL ne construit pas un simple service de stockage, mais une infrastructure de confiance à long terme. Anticiper le risque quantique est la seule barrière de défense viable dans une guerre de l’information où les données volées aujourd’hui seront déchiffrées dans dix ans. Vers un standard européen indépendant ? L’ambition finale de Gaspard BONNOT dépasse la simple application de stockage. Il veut faire de DIV PROTOCOL un standard européen, dissociant le protocole de sécurité des applications métiers. En levant 200 000 euros auprès d’investisseurs stratégiques, il a choisi la voie d’une croissance raisonnée, loin de la culture du “burn” inutile. Le parcours de ce jeune entrepreneur est une bouffée d’oxygène pour l’écosystème tech français. Il prouve que la souveraineté n’est pas une incantation , mais un défi technique que la nouvelle génération est prête à relever. Alors que nous confions chaque jour nos actifs les plus précieux à des infrastructures étrangères soumises à des intérêts qui ne sont pas les nôtres, une question s’impose : quelle valeur accordez-vous réellement à vos secrets professionnels ? Si la réponse est “une valeur absolue”, alors le temps de la dépendance naïve aux géants du Web est sans doute révolu et DIV PROTOCOL peut vous aider à vous sevrer. Par Régis BAUDOUINThe post DIV PROTOCOL, Gaspard BONNOT nous parle de souveraineté first appeared on XY Magazine.
La Stratégie cyber des USA a été mise à jour ce mois-ci (Mars 2026) dans un document que l’on peut consulter en ligne sur le site de la Maison Blanche. C’est un document attendu car Le Président TRUMP a beaucoup évolué sur ce sujet de la cyber sécurité. Une rupture de la nouvelle Stratégie cyber américaine en 5 points Une stratégie cyber qui marque une rupture brutale avec la timidité des administrations précédentes. Là où les politiques passées se contentaient de mesures partielles et des ambiguïtés stratégiques, la doctrine Trump de mars 2026 affirme une volonté de domination totale. cyber sécurité Le cyberespace est né en Amérique ; cette nouvelle vision pose un jalon historique pour garantir qu’il reste sous influence américaine, transformant ce domaine immatériel en un pilier de la puissance nationale pour les siècles à venir. Déploiement des puissances non cinétiques Le premier point de rupture réside dans la transition radicale de la simple “défense” contre la menace cyber vers une “perturbation proactive” donc une posture offensive. La stratégie ne se contente plus de fortifier des frontières numériques ; elle vise l’oblitération pure et simple des capacités adverses. Les exemples cités sont sans équivoque : le soutien à l’oblitération de l’infrastructure nucléaire iranienne et l’opération ayant aveuglé les réseaux du narco-terroriste Nicolas Maduro lors de sa capture. Ces opérations démontrent une maîtrise technologique inégalée. Ce recours aux “puissances non cinétiques” redéfinit la souveraineté numérique par la dissuasion et par l’action. “Nos guerriers du cyberespace travaillent chaque jour pour s’assurer que quiconque chercherait à nuire à l’Amérique paiera le prix le plus lourd et le plus terrible.” tel que rédigé dans le document. Ce sont des affirmation que l’on peut voir habituellement dans les doctrines de dissuasion nucléaires. Cette doctrine ne laisse plus de zone de confort aux ennemis de l’Amérique : il s’agit de démanteler les réseaux et de priver les adversaires de tout refuge numérique. L’IA “Agentique” et le bouclier Post-Quantique La stratégie cyber introduit l’IA “agentique” comme fer de lance de la défense à l’échelle. L’objectif est de surpasser les adversaires qui saturent le domaine avec des technologies de surveillance et de censure à bas coût. On pense ici à la Chine, L’iran, la Russie. L’administration mise sur des outils autonomes capables de détecter, détourner et tromper les acteurs menaçants en temps réel. Cette supériorité repose sur la sécurisation du “socle technologique de l’IA” (AI technology stack), des centres de données jusqu’aux modèles de langage. Parallèlement, la stratégie impose une transition vers la cryptographie post-quantique pour moderniser les réseaux fédéraux. En anticipant la menace des calculateurs quantiques, les États-Unis transforment leur infrastructure en une forteresse imprenable, garantissant que l’innovation américaine demeure le standard mondial de sécurité. Le bon sens comme moteur d’agilité La stratégie lance une attaque frontale contre les réglementations obsolètes, qualifiées de “listes de contrôle coûteuses” qui freinent la préparation et la réponse. Le document prône une réglementation basée sur le bon sens (“Common Sense Regulation”) pour libérer le secteur privé du fardeau de la conformité inutile. Cette notion est très TRUMP dans le texte. Clairement c’est dangereux. Le bon sens doit être défini par la stratégie et pas par son intuition. Actuellement, le président TRUMP a déclaré via sa porte parole qu’il a déclenché les opérations de guerre contre l’Iran par bon sens. Il avait le sentiment que l’Iran allait attaquer en premier. Aucune preuve ne l’atteste. Le gouvernement doit changer de rôle : de frein bureaucratique, il devient la fondation de la sécurité nationale. L’idée est de permettre aux entreprises d’innover à la “vitesse des menaces”. Ce compromis assumé entre dérégulation et résilience postule que l’agilité industrielle est l’arme la plus efficace contre des adversaires étatiques rigides. En simplifiant les normes et en modernisant les systèmes fédéraux, l’État s’aligne enfin sur le rythme du secteur privé. Cette déduction est tirée de la lecture du rapport. Neutraliser le “financement de sortie” La capture de 15 milliards de dollars issus de réseaux criminels n’est que le début d’une reconquête financière des cybers transaction illégales. La stratégie place la sécurisation des crypto-monnaies et de la blockchain au cœur de la sécurité nationale. L’innovation ne se limite plus au code, elle s’étend à la neutralisation du modèle économique du cybercrime et du trafic qui lui est associé. En s’attaquant au “financement de sortie” (financial exit), les États-Unis entendent déraciner l’infrastructure criminelle à sa source. L’objectif est de rendre le cybercrime économiquement non viable. En supprimant toute possibilité de convertir des gains illicites en actifs utilisables, l’administration Trump vide l’agression numérique de sa substance principale : le profit. Aligner le talent sur l’actif stratégique La main-d’œuvre cyber est un “atout stratégique” vital, au même titre que l’arsenal nucléaire ou les réserves énergétiques. Pour maintenir cette suprématie, l’administration prévoit d’aligner l’académie, les écoles techniques et le capital-risque dans un pipeline de talents sans précédent. Donald Trump définit cette force de travail comme ce qui “protège le peuple américain, la patrie et le mode de vie américain”. En éliminant les barrières entre le public et le privé, les États-Unis s’assurent que leurs meilleurs esprits ne se contentent pas de coder, mais qu’ils déploient des solutions de défense et de disruption. Il ne s’agit plus de formation, mais de mobilisation d’un capital intellectuel souverain. Voir comment concilier cet objectif et la politique actuelle d’accueil de étrangers aux USA. Même si l’immigration légale ne cesse pas, c’est le désir de s’installer aux USA qui est moins évident. Une domination technologique assumée Ce document marque le passage définitif d’une posture réactive à une volonté de suprématie incontestée. Cette posture est tenue face aux ennemis et même face aux amis des USA. L’ambition est claire : démanteler les réseaux, poursuivre les hackers et sanctionner sans trembler les entreprises étrangères complices. La puissance américaine s’affirme enfin debout dans le cyberespace. Au delà des frontières et des souverainetés Par régis BAUDOUINThe post Stratégie cyber des USA first appeared on XY Magazine.
Interview de Thomas MARCELLE créateur de NAANO Cette semaine nous faisons connaissance avec Thomas MARCELLE, jeune entrepreneur qui a créé la plateforme d’influence NAANO qui met en relation des entreprises avec des créateurs de contenus sur la plateforme linkedin. De l’entrepôt-chambre à LinkedIn L’entrepreneuriat, pour la Gen Z, n’est pas une carrière, c’est un terrain de jeu. À 15 ans, quand ses pairs révisent le brevet, Thomas manipule déjà du coton bio et du polyester recyclé. Sa première marque de vêtements, née d’une impulsion post-confinement, transforme rapidement sa chambre d’adolescent en un entrepôt saturé de stocks. Depuis, Thomas MARCELLE a connu d’autres expériences à l’étranger. Il revient en France et lance son projet actuel, Naano, Thomas est saisissant de maturité d’autant que cette aventure est menée en même temps qu’il reste salarié de son employeur actuel qui l’aide avec du mentoring. #NAANO En résumé, Thomas est passé de la logistique physique encombrante à l’architecture d’une plateforme digitale : l’expertise sur LinkedIn. Mais au-delà de l’anecdote, une problématique centrale demeure : comment convertir une présence sociale organique en une machine de guerre B2B, capable de rassurer les décideurs tout en restant fidélisant une communauté de créateurs de contenus. L’entrepreneuriat comme terrain de jeu Du textile, Thomas pivote vers la tech durant ses études en Angleterre en développant une IA capable d’analyser les pitch decks pour les fonds de Venture Capital. Ce projet ne sera jamais monétisé, mais il devient son meilleur atout : un “Credibility Hack”. Le bruit généré sur LinkedIn attire l’attention de Fundora, où il décroche un stage transformé aujourd’hui en emploi. Chez Fundora, il s’entoure de mentors comme Bradley LAFOND, Benoit FERON, et Alan HUET. Ils le challengent sur ses modèles et son marketing. “Créateur” vs “Influenceur” : la bataille de la légitimité réelle Dans l’univers du B2B, le terme “influenceur” est souvent synonyme de vanity metrics et de risques d’image. Thomas et ses associés ont tranché : ils ne recrutent que des créateurs de contenus. L’entreprise est bien sur le marché de l’influence, mais l’approche de Naano veut rester qualitative. La nuance est fondamentale. Là où l’influenceur cherche la masse, le créateur de Naano cherche l’expertise. La plateforme mise sur des micro-profils, souvent loin des dizaines de milliers d’abonnés, mais possédant une expertise sectorielle indiscutable. Pour une entreprise cliente, la valeur ne réside pas dans la portée globale, mais dans l’alchimie entre le savoir-faire du créateur et le produit promu. C’est le passage du marketing de l’apparence au marketing de la compétence. Le modèle économique d’une croissance maitrisée À l’heure où l’écosystème startup redécouvre la vertu de la rentabilité, Naano fait figure d’élève modèle. En refusant de lever des fonds prématurément, l’équipe a bâti un modèle économique axé sur l’efficacité financière avec un modèle économique qui ne brule pas de cash. Les clients paient un abonnement d’avance et les créateurs sont rémunérés au résultat. Coté trésorerie, l’impact est positif dès les premiers mois. Ce système permet à Naano d’encaisser le chiffre d’affaires dès le premier jour, finançant son propre développement sans dilution. « Pas besoin de lever pour l’instant », affirme Thomas avec le calme de celui qui maîtrise sa trésorerie. L’alchimie d’une équipe L’équipe de Naano n’est pas née d’une amitié de lycée, mais d’une convergence de compétences brutes rencontrées sur le terrain . Justine NAMOUR ( la CTO et associée) assure la solidité de la plateforme tech ; Alexis JARRE apporte son expertise algorithmique LinkedIn et sa vision marketing ; et Thomas MARCELLE pilote la stratégie et les opérations. L’origine de l’équipe est purement organique : un message LinkedIn d’Alexis JARRE à Thomas, suivi d’un café. Justine NAMOUR, amie d’Alexis avant l’aventure, est venue compléter ce trio où la confrontation d’idées est la norme. L’équipe s’étoffe désormais avec l’arrivée de nouvelles compétences prouvant que la structure passe de l’artisanat à l’échelle industrielle. Conclusion : la fin du marketing traditionnel ? En professionnalisant la micro-influence LinkedIn, Naano donne de la valeur aux posts experts. L’authenticité est un métrique de performance. Thomas et son équipe ont compris que dans un monde saturé de messages automatisés, seule l’expertise humaine, tracée et rémunérée au résultat, possède encore une valeur de conversion. Les profils des créateurs de Naano sont de vrais profils avec un vrai réseau L’ascension de Naano prouve que les barrières à l’entrée s’effacent devant ceux qui osent exécuter vite et bien. La question n’est plus de savoir si vous avez un réseau, mais si vous êtes prêt à monétiser votre légitimité. Pour suivre l’aventure NAANO sur linkedin : Thomas MARCELLE Par Régis BAUDOUINThe post Interview de Thomas MARCELLE créateur de NAANO first appeared on XY Magazine.
Souveraineté numérique 2026 et ce que cela change pour vous Le réveil technologique de l’Europe Le 13 janvier 2026, devant la Commission des affaires économiques de l’Assemblée nationale, Anne Le Hénanff, ministre déléguée chargée de l’IA et du numérique, a posé un diagnostic lucide : l’Europe ne peut plus se contenter d’être une « colonie numérique ». Depuis le Sommet de Berlin du 18 novembre 2025, la doctrine a pivoté. Le numérique n’est plus un simple support technique, mais un « champ de compétition, de contestation et de confrontation » où se joue notre autonomie stratégique. Les USA ont ouvert les hostilités et maintenant il faut réagir. L’Europe ne peut plus utiliser des solutions qui ne respectent pas nos règles et qui sont surtout soumises à des législations antagonistes à ces règles. La souveraineté n’est plus un débat théorique ; c’est une architecture de puissance que la France et l’Europe construisent désormais pour maîtriser leur destin. De la protection juridique à la « Souveraineté par le Design » L’ère de la protection a posteriori (type RGPD) s’efface devant la Souveraineté par le Design. L’objectif est de graver l’indépendance dès la conception des services pour garantir une immunité réelle face aux ingérences étrangères. #image_title Pour rompre avec la dépendance aux licences ARM ou aux processeurs NVIDIA, l’effort se concentre sur l’architecture RISC-V. Ce standard open-source permet de concevoir des puces dont chaque transistor est auditable, éliminant ainsi les risques de « backdoors » physiques. Contrairement aux modèles « boîtes noires » américains, la priorité est donnée aux modèles à poids ouverts (type Mistral). Cela permet l’hébergement de l’IA sur nos propres serveurs qualifiés, garantissant qu’aucune donnée ne quitte le territoire. L’adoption systématique d’architectures micro-services et de standards ouverts facilite la réversibilité et permet d’expliquer techniquement chaque décision algorithmique, un impératif pour les services publics. Sortir du Vendor lock-in Le vendor lock-in, ou verrouillage technologique, est un obstacle majeur à la souveraineté numérique et à l’indépendance de l’État. Il se manifeste lorsqu’une organisation devient captive des solutions d’un fournisseur, rendant tout changement extrêmement complexe et coûteux. Perte de souveraineté numérique L’enfermement propriétaire réduit la capacité d’une nation à agir de manière autonome dans ses domaines stratégiques. Dépendance aux acteurs non-européens : La France et l’Europe dépendent massivement de fournisseurs américains ou asiatiques pour les infrastructures cloud, les semi-conducteurs et les modèles d’IA. Incapacité de pilotage : Un État qui ne maîtrise pas ses fondations numériques s’expose à des dépendances durables, voire irréversibles, perdant ainsi le contrôle sur ses services publics. Risques juridiques et vulnérabilité aux lois extraterritoriales Le verrouillage auprès de fournisseurs soumis à des législations étrangères (comme le Cloud Act américain) pose des problèmes de sécurité nationale. Les autorités étrangères peuvent exiger l’accès à des données stockées, même en Europe, si le prestataire est soumis à leur droit. Le vendor lock-in empêche de garantir que l’hébergement des données assure une protection effective contre toute ingérence étrangère. Conséquences financières et économiques L’absence de concurrence due au verrouillage entraîne une hausse incontrôlée des coûts. Inflation : Les tarifs des logiciels et services cloud américains augmentent d’environ 10 % par an en Europe, faute de pouvoir facilement changer de fournisseur. Microsoft annonce des hausse des 30% sur office 365 pour 2027. Manque de levier de négociation : Étant captive, l’administration perd sa capacité à négocier des prix ou des conditions avantageuses. Rigidité opérationnelle et blocage de l’innovation Le vendor lock-in freine l’évolution technique des systèmes d’information. Défaut d’interopérabilité : Les solutions propriétaires utilisent souvent des standards fermés, empêchant les différentes briques logicielles de communiquer entre elles ou avec des alternatives locales. Absence de réversibilité : Sans clause de réversibilité (capacité à changer de solution) et de portabilité des données, l’État se trouve incapable de faire évoluer ses systèmes selon ses besoins futurs. Obsolescence imposée : L’organisation subit le rythme de mise à jour et de maintenance imposé par l’éditeur, sans possibilité de se tourner vers le marché pour des solutions plus modernes ou sobres. Solutions préconisées pour éviter le verrouillage Intégrer systématiquement des exigences de réversibilité, de portabilité et d’immunité au droit extraterritorial dans les marchés publics. C’est actuellement obligatoire en France. Adopter une architecture modulaire (micro-services) où chaque brique est interchangeable et basée sur des standards ouverts. L’utilisation de logiciels libres est présentée comme un levier pour réduire la dépendance et garantir que l’outil restera fonctionnel même si l’éditeur disparaît ou devient hostile. L’achat public devient une arme Sous l’impulsion du trio Roland Lescure, Anne Le Hénanff et David Amiel, la commande publique (15 % du PIB européen) est devenue un levier de souveraineté industrielle. La circulaire du 5 février 2026 marque la fin de la naïveté. La France porte désormais avec force l’adoption d’un « Buy European Tech Act » couplé à un « Small Business Act » pour réserver une part des marchés publics aux pépites locales. L’État ne choisit plus le prix le moins cher à l’achat, mais évalue la durée de vie, la cybersécurité et surtout la réversibilité (la capacité technique de changer de fournisseur sans perte de données). Le code des marchés publics est simplifié pour éviter que la complexité administrative ne serve de barrière à l’entrée pour les start-up innovantes face aux géants établis. La dernière circulaire en matière d’achat publique préconise des achats de logiciels standards sur étagère, souverains et hébergés sur un cloud sécurisé SECNUMCLOUD. La fin du Far West pour les données territoriales Les collectivités locales, hôpitaux et universités sont en première ligne des cyberattaques. Le cadre législatif se durcit avec la Loi SREN du 21 mai 2024. L’identification des données sensibles est obligatoire. Celles-ci doivent impérativement migrer vers des clouds qualifiés SecNumCloud, immunisés contre les lois extraterritoriales (Cloud Act). À l’image des risques naturels, chaque commune doit intégrer un volet numérique à son Plan Communal de Sauvegarde sous l’autorité des préfets, dont les moyens sont renforcés. Pourtant le legislateur prévoit de ne pas soumettre les ville de moins de 30 habitant à NIS2. Ces dispositifs sont couteux. Conscient des surcoûts liés à la haute sécurité, l’État s’engage à accompagner financièrement les plus petites collectivités et les établissements de santé pour leur mise en conformité. Le principe est louable, mais l’argent doit bien être trouvé quelque part et actuellement les dotations sont en baisse. Le numérique entre officiellement dans le domaine « Régalien » Le numérique n’est plus un silo technique ; il est le cœur du pilotage de l’État. Le changement de paradigme est structurel. Pour mettre fin à la gestion ministérielle éparpillée, les enjeux stratégiques sont désormais rattachés directement au Premier ministre. Un nouvel organe, placé auprès du Président de la République, arbitre les choix technologiques comme on arbitre les questions d’énergie ou de défense nationale. Une feuille de route politique est présentée en début de quinquennat, avec un suivi annuel lors du « Printemps de l’évaluation » devant le Parlement, garantissant que chaque euro investi soutient l’autonomie industrielle. Vers une maîtrise de notre destin En 2026, la France a choisi la maîtrise de son destin et sa souveraineté numérique plutôt que la vassalité technologique. Cette autonomie stratégique a un « coût de la liberté » : elle demande d’investir massivement dans des infrastructures souveraines, plus sûres et plus éthiques, même si l’investissement initial est plus lourd. La question n’est plus de savoir si nous pouvons nous passer des outils globaux, mais si nous sommes prêts à assumer collectivement le prix de notre indépendance. Sources : Stratégie nationale de cyber sécurité Stratégie cyber sécurité de la FranceThe post Souveraineté numérique 2026 : Pourquoi tout est en train de basculer first appeared on XY Magazine.
L’EUDI Wallet, Portefeuille d’identité numérique européen Nous vivons de plus en plus dans un système qui nécessite de prouver son identité. Récemment de nouvelles lois prévoient de justifier son age pour les réseaux sociaux. Pour cela une identité numérique s’impose. A chaque contrôle on donne plus de données que nécessaire en réalité. Faut-il sacrifier son intimité pour une simple transaction. Aujourd’hui, prouver sa majorité pour accéder à un service ou ouvrir un compte bancaire exige de scanner l’intégralité d’un titre d’identité. C’est un paradoxe flagrant : pour une simple vérification d’âge, un tiers accède à votre adresse, votre lieu de naissance et votre nom complet. Ce partage excessif facilité l’usurpation d’identité et le traçage publicitaire systémique. L’EUDI Wallet (European Digital Identity Wallet) promet de briser ce cycle. Plus qu’une application, c’est le pivot d’un changement de paradigme où l’utilisateur ne subit plus la collecte de données, mais orchestre sa propre « économie de la preuve ». Quelques précisions sur le EUDI Wallet Le Portefeuille Européen d’Identité Numérique (EUDI Wallet) est un système sécurisé de gestion de l’identité instauré pour permettre aux citoyens, résidents et entreprises de l’Union européenne de s’identifier et de s’authentifier en ligne et hors ligne. Ce dispositif s’appuie sur un cadre réglementaire et technique précis pour transformer les interactions numériques au sein du marché unique. Le Cadre Juridique : eIDAS 2.0 La mise en place du EUDI Wallet repose sur le règlement eIDAS 2.0, adopté en avril 2024. Ce texte fait évoluer le cadre de 2014 pour imposer de nouvelles obligations : D’ici fin 2026 : Chaque État membre doit fournir au moins un portefeuille numérique à ses citoyens. C’est cette année que vous allez découvrir votre identité numérique généralisée. D’ici fin 2027 : Les entreprises soumises à la réglementation de lutte contre le blanchiment (AML), les grandes plateformes numériques et certains services publics devront obligatoirement accepter le portefeuille comme moyen d’identification. Objectif 2030 : L’Union européenne ambitionne que 80 % des citoyens utilisent cette solution d’ici 2030. Fonctionnement et Technologies Clés Le portefeuille fonctionne comme une application mobile sécurisée stockant des identifiants numériques vérifiés (permis de conduire, diplômes, certificats de santé). L’Architecture Reference Framework (ARF) : C’est le cadre technique qui définit les normes, protocoles et spécifications pour garantir l’interopérabilité entre les différents pays. Zéro Knowledge Proof (ZKP) : Pour protéger la vie privée, le portefeuille utilise des preuves à divulgation nulle de connaissance. Cela permet, par exemple, de prouver que l’on est majeur sans révéler sa date de naissance exacte. SD-JWT (Selective Disclosure JSON Web Tokens) : Cette technologie permet de ne dévoiler que les champs strictement nécessaires d’un document numérique. Usages et Avantages pour les Utilisateurs Le EUDI Wallet simplifie de nombreuses démarches quotidiennes : Services Financiers : Ouverture de comptes bancaires ou demandes de prêts facilitées par la transmission instantanée de documents certifiés (KYC en temps réel). Signatures Électroniques : Le portefeuille permettra de réaliser gratuitement des signatures électroniques qualifiées (QES), ayant la même valeur juridique qu’une signature manuscrite. Services Publics et Vie Quotidienne : Demande de passeport, déclaration fiscale, accès à la sécurité sociale, ou encore enregistrement d’une carte SIM. Mise en œuvre en France : France Identité La France est particulièrement avancée grâce à l’application France Identité, qui sert de socle à cette transition. Elle permet déjà d’accéder à des titres d’identité (CNI, permis de conduire numérique, carte grise) sur smartphone. L’Agence nationale des titres sécurisés (ANTS) coordonne le consortium POTENTIAL, un projet pilote européen majeur impliquant 19 États membres pour tester les usages du portefeuille. Pour les entreprises françaises, l’enjeu est immédiat. Grâce à l’avance prise par l’ANTS avec France Identité et le pilotage du consortium européen POTENTIAL, on dispose d’une longueur d’avance. Ce socle technique national permet d’anticiper le “go-to-regulatory” (conformité) sans sacrifier le “go-to-market” (expérience client). Autant faut-il accepter pour chaque citoyen de disposer des identités compatibles, permis de conduire et carte d’identité. Exemple pour un prêt bancaire. Procédure actuelle Prêt bancaire Procédure numérique Prêt bancaire Enjeux et Risques Identifiés Malgré les avantages en termes de lutte contre la fraude et de fluidité, plusieurs points de vigilance sont soulevés : Risque de traçage : Certains craignent que l’utilisation du portefeuille ne laisse des traces permettant à l’État ou aux émetteurs de suivre les connexions des citoyens. Actuellement en France on a le droit de vivre sans permis ni carte d’identité. Avec ses systèmes vous devez vous enregistrer sur un de ces documents. Cybersécurité (Article 45) : Le règlement oblige les navigateurs à accepter certains certificats de sécurité étatiques (QWAC), ce qui inquiète les experts quant à de possibles interceptions de trafic chiffré. Penser aussi aux textes de loi sur les back door gouvernementales pour contourner les cryptages. Dépendance matérielle : Le portefeuille repose sur les composants de sécurité des smartphones contrôlés par des firmes américaines (Apple et Google) et chinoises, posant un défi de souveraineté technologique. Pour les entreprises, l’intégration peut se faire soit en direct (gestion interne de la complexité technique et réglementaire), soit via des intermédiaires (plateformes comme Hopae ou Docusign) qui facilitent la connexion aux différents registres de confiance européens. ThématiquePromesse (Vision UE)Risque (Critique des Opposants)Vie PrivéeZéro Knowledge Proof : Vous prouvez votre âge sans donner votre date de naissance.Traçage d’usage : L’État ou le fournisseur du Wallet sait où et quand vous l’utilisez.SécuritéCoffre-fort numérique : Fin des mots de passe volés et de l’usurpation d’identité.Point de défaillance unique : Si votre smartphone est compromis ou le système piraté, toute votre vie est exposée.SouverainetéIndépendance : Une solution européenne pour ne plus dépendre de Facebook/Google Connect.Infrastructure US : Le Wallet repose sur les puces (Secure Enclave) d’Apple et Google.Liberté d’accèsVolontariat : Le citoyen reste libre d’utiliser le format papier ou plastique.Obligation déguisée : Si les banques et services publics l’imposent pour “aller plus vite”, le refus devient impossible.Web de confianceAuthentification forte : Moins de bots, de deepfakes et d’arnaques en ligne.Fin de l’anonymat : Risque de voir disparaître la possibilité de naviguer sous pseudonyme sur le Web. Transformer la contrainte en opportunité L’identité numérique n’est pas qu’une affaire de juristes ; c’est un levier de performance. La lourdeur des vérifications KYC (Know Your Customer) est le premier frein à la croissance. L’EUDI Wallet transforme ce parcours : De 7 étapes à une validation instantanée : Fini le scan de documents et la saisie manuelle. L’accès aux « credentials vérifiables » (diplômes, IBAN, attestations de fonds) fluidifie l’entrée en relation. Synergie avec l’Open Banking : Dans la lignée de la DSP3, le Wallet devient l’infrastructure de confiance permettant de sécuriser les consentements et les interactions financières en temps réel. Réduction drastique de la fraude : L’utilisation d’identités régaliennes de niveau d’assurance “élevé” élimine la fraude documentaire à la source. Souveraineté et points de friction Malgré l’optimisme technologique, des zones d’ombre persistent. Le débat s’est cristallisé autour de l’Article 45 du règlement. Les experts s’inquiètent de l’obligation faite aux navigateurs d’accepter des certificats de sécurité (QWAC) émis par les États. Le risque ? Des attaques de type Man-in-the-Middle, où un État pourrait théoriquement intercepter le trafic chiffré de ses citoyens. Plus piquant encore est le paradoxe matériel : le Wallet repose sur des “enclaves sécurisées” (puces NFC et biométrie) intégrées aux smartphones. Ces technologies NFC sont américaines sur des smartphone chinois, coréen ou américains. « L’Europe construit son identité ‘souveraine’ sur une infrastructure matérielle qu’elle ne maîtrise pas. » L’identité régalienne de demain dépendra donc, en dernier ressort, de la bonne volonté d’Apple et Google à ouvrir leurs composants sécurisés. Enfin, subsiste le risque d’un traçage par l’émetteur (l’État) qui, bien que ne voyant pas le contenu des données via ZKP, pourrait enregistrer la fréquence et le lieu des authentifications, dessinant ainsi une “ombre numérique” persistante. Conclusion : Vers une “économie de la preuve” L’EUDI Wallet marque l’avènement d’une société où la preuve certifiée — qu’il s’agisse d’un diplôme, d’une attestation électronique d’attributs ou d’un statut professionnel — devient un actif fluide et portable. Pour les entreprises, c’est l’opportunité de passer d’un web de documents statiques à un web de confiance dynamique. Cependant, le défi reste humain. Saurons-nous transformer cet outil en levier de souveraineté individuelle ou glisserons-nous vers une dépendance régalienne automatisée ? Sources : Commission européenne sur identité numérique Réglement eIDAS Par Régis BAUDOUINThe post L’EUDI Wallet, Portefeuille d’identité numérique européen first appeared on XY Magazine.
Sold Out le pitch Dans le monde du sport, rien n’est plus triste que le silence visuel des sièges vides au milieu d’un kop vibrant. Pour Malo Bernard, jeune entrepreneur de 21 ans, le contraste brutal entre la magie d’un stade comble et « l’effet négatif » d’une enceinte à moitié vide. C’est par une analogie entre des applications anti gaspi et sa passion pour le sport que germe une idée ambitieuse : transformer les invendus de places en une nouvelle économie de la passion. Avec sa startup « Sold Out », il se donne pour mission de réinjecter de la vie dans les tribunes en appliquant au sport les codes de la consommation. L’économie circulaire au service du sport Sold Out ne se contente pas de vendre des billets ; la plateforme transpose le modèle de l’anti-gaspillage alimentaire au secteur de l’événementiel sportif. En s’inspirant de la réussite de Too Good To Go pour le commerce de proximité ou de Ticket Nunc pour la culture, Malo Bernard veut briser la barrière de l’accès au direct. L’objectif est simple : permettre aux clubs de remettre sur le marché leurs invendus de dernière minute à prix réduit. Le service s’articule autour d’un écosystème mobile binaire : Pour l’utilisateur : Une interface intuitive permettant de géolocaliser les opportunités, de recevoir des alertes en temps réel et d’acheter son billet instantanément pour une réception par mail. Pour le club partenaire : Un outil de gestion conçu pour une totale autonomie de gestion des places disponibles et de leur prix de vente. « La mission de Sold Out, c’est de remplir toutes les tribunes parce que je suis persuadé qu’un match ça se vit dans des tribunes pleines à craquer. » Malo BERNARD Démocratiser la tarification dynamique Pourquoi les clubs ne maximisent-ils pas déjà leur remplissage ? Le diagnostic de Malo Bernard est sans appel : les équipes administratives sont souvent en sous-effectif durant la saison. Le manque de temps et d’outils empêche la mise en œuvre de stratégies de yield management sophistiquées. Si des structures comme le Brest Handball ont déjà prouvé l’efficacité de la tarification dynamique, elles restent des exceptions. Sold Out arrive comme un complément agile aux billetteries traditionnelles, offrant une solution clé en main pour adresser spécifiquement la niche du « last-minute » sans alourdir la charge de travail des clubs. L’héritage des JO : Vers une synergie communautaire L’inspiration de Sold Out puise également dans la ferveur des Jeux Olympiques de Paris. Malo y a observé un phénomène de transfert : une fois la barrière du prix et de l’accès levée, le public s’est rué sur des disciplines dites « mineures », créant une ambiance électrique sur tous les terrains. L’ambition est ici de créer une synergie communautaire. En abaissant le seuil financier, Sold Out permet à un fan de football de s’essayer au handball, au basket ou au rugby. Cette transversalité transforme l’application en un puissant levier de recrutement : elle attire de nouveaux profils qui, après une première expérience réussie, ont vocation à devenir des supporters réguliers via les canaux classiques des clubs. Un modèle « Gagnant-Gagnant » La force de frappe commerciale de Sold Out réside dans son absence totale de risque financier pour les organisations sportives. Le modèle repose exclusivement sur une commission prélevée sur les ventes effectives. La startup mise sur un respect scrupuleux de l’identité de marque des clubs : Autonomie totale : Le club reste le seul maître à bord pour définir le volume de places et, surtout, le prix de vente. Zéro risque : Aucun engagement financier initial. Si aucune place n’est vendue, le club ne doit rien. Cette approche lève les freins psychologiques des directeurs de billetterie, souvent frileux à l’idée de perdre le contrôle sur leur politique tarifaire. Sold’out L’audace à 21 ans Le parcours de Malo Bernard incarne cette nouvelle génération d’entrepreneurs qui préfèrent l’action à la théorie. Après avoir interrompu ses études en licence, il s’est immergé dans l’écosystème entrepreneurial, soutenu par le réseau Pépite puis par la Technopole d’Angers. Malo documente les coulisses et les revers de son aventure sur LinkedIn, fédérant déjà une communauté avant même le lancement technique. Il vous fait vivre son aventure sur linkedin et les réseaux sociaux. Côté capital, la startup a démarré avec des ressources maîtrisées : un apport familial de complété par une aide régionale à l’innovation. Ce capital d’un peu moins de 20K€ a permis de financer le développement technique confié à l’agence angevine CodeKraft. Cap sur septembre 2026 Le déploiement de l’application Sold Out suit une trajectoire structurée de Proof of concept (POC) avant de passer à un plus large commercialisation. Février 2026 marque l’étape cruciale où deux clubs pilotes testeront le modèle en conditions réelles. Ce test grandeur nature servira de socle pour convaincre les clubs de Ligue 1 et Ligue 2 avec lesquels des discussions sont déjà engagées. L’objectif final est fixé à septembre 2026 pour un déploiement national massif, avec une ambition claire : atteindre un réseau de 20 clubs partenaires pour stabiliser la rentabilité. Alors que les modes de vie privilégient désormais l’instantanéité et la flexibilité, une question s’impose : le modèle de la « dernière minute » va-t-il transformer notre façon de consommer le sport et devenir une solution pour remplir les stades à chaque évènements ? Pour suivre Malo : Son linkedin : https://www.linkedin.com/in/malo-bernard-profil/ Son Instagram : https://www.instagram.com/soldout_sport/ Sur Google play : https://play.google.com/store/apps/details?id=com.soldoutsport.soldout&hl=fr Sur Apple store : https://apps.apple.com/fr/app/soldout-sport/id6759335388 Par régis BAUDOUIN Suivez aussi l’aventure de BPMThe post Sold Out : Malo Bernard veut devenir le « Too Good To Go » du sport français first appeared on XY Magazine.
Matter 2.0 et l’offensive IKEA On a déjà parlé de domotique sur XY Magazine mais il faut bien avouer que c’était un sujet de niche réservé à des bidouilleurs passionnés. Matter 2.0 et l’offensive IKEA c’est clairement l’entrée sur ce marché d’un géant de la distribution avec des prix très attractifs. Ce temps-là est officiellement révolu. En ce début d’année 2026, la maison connectée vit son “moment Windows 95” : une simplification radicale portée par la maturité du protocole Matter 2.0 et l’arrivé sur la marché mass market de géants comme IKEA. Si la technologie devient invisible et bon marché, elle change de statut. D’un hobby pour technophiles, elle glisse vers un équipement de base de l’habitat, presque au même titre que l’électricité ou l’eau courante. Mais cette “standardisation pour tous” est-elle un gage de liberté ou une nouvelle forme de dépendance ? Entre promesse d’interopérabilité totale et enjeux de souveraineté des données domestiques, XY Magazine décrypte la nouvelle infrastructure MATTER 2.0. Quand le le distributeur suédois démocratise le protocole MATTER 2.0 Le “Langage Universel” : Matter et Thread expliqués simplement Pour comprendre pourquoi cette transition est capitale, il faut distinguer deux technologies complémentaires qui travaillent en coulisses. Leur standardisation permet de produire des composants moins couteux et de les diffuser à grande échelle en s’appuyant sur les service Amazon, Apple et Google. • Matter : C’est le langage commun. C’est un standard universel qui permet à une ampoule connectée de “parler” nativement à un HomePod d’Apple, une enceinte Echo d’Amazon ou un Google Nest. Il garantit que tous vos appareils sont compatibles entre eux. • Thread : C’est le réseau de transport. Contrairement au Wi-Fi, qui sature vite, Thread est un réseau maillé (“mesh”) local. Chaque appareil branché renforce le réseau pour les autres. L’un de ses grands atouts est sa capacité “auto-réparatrice” : si un routeur (comme une prise connectée) est débranché, le réseau redirige automatiquement les données par un autre chemin pour maintenir la connexion. • Le Border Router : C’est le pont entre votre réseau internet et vos objets Thread. De nombreux appareils ,HomePod Mini, Apple TV 4K, Google Nest WiFi Pro, remplissent ce rôle. Matter 2.0, c’est la version boostée : plus puissante, plus rapide et surtout, plus sécurisée grâce à une cryptographie digne d’un film d’espionnage. Elle élargit son champ d’action à la gestion d’énergie et à la gestion de l’eau. La maison devient intelligente et éco-responsable. La domotique comme “Commodity” La fin de la barrière du prix : De la technologie de pointe à moins de 10 € IKEA s’est donné pour mission de démocratiser des technologies autrefois réservées aux technophiles avertis. L’annonce la plus marquante concerne le prix : la gamme débute aux alentours de 10 €, avec des produits phares comme un capteur de mouvement proposé à seulement 7,99 €. Pour ceux qui ne connaissent pas les prix, habituellement on est plutôt sur plus de 50€ pièce. Jusqu’à présent, la technologie de la maison connectée n’était pas facile à utiliser pour la plupart des gens, ni assez abordable pour que beaucoup l’envisagent. En intégrant Matter à ses produits, IKEA fait un grand pas dans la bonne direction. L’objectif du distributeur est de rendre la maison intelligente facile à utiliser, facile à comprendre et accessible au plus grand nombre. La gamme annoncée en janvier 2026 dépasse largement l’éclairage classique, même si l’on note une légère baisse de la qualité perçue des plastiques et du “clic” des boutons par rapport à l’ancienne génération. Il faut faire des compromis pour avoir des prix aussi agressifs. Avec des détecteurs et des capteurs, cette gamme devient complète pour un projet de domotique simple et peu couteux. Alpstuga : Ce contrôleur de qualité d’air surveille la température, l’humidité, les PM 2.5 et le CO2. Avec son look de radio-réveil, il affiche l’heure, mais attention : l’écran ne peut pas être éteint, ce qui peut gêner dans une chambre. Il nécessite une alimentation USB-C. Usage concret : Une LED orange s’allume lorsque le CO2 dépasse les seuils recommandés, signalant qu’il faut aérer. On a déjà traité de ce sujet, la qualité de l’air dans les logements est trop négligée Alpstuga Timer Flot : Un capteur de température et d’humidité discret. Son écran est éteint par défaut et s’active d’une pression. Il est ultra-réactif avec une mise à jour des données toutes les 5 minutes. Clipbook : Evolution du capteur Badring, ce détecteur de fuite d’eau possède deux broches sous l’appareil. Dès qu’elles touchent de l’eau, il fait retentir une alarme sonore puissante. Le petit plus : Il fonctionne de manière autonome. Même sans hub domotique, il sonnera pour vous prévenir d’un dégât des eaux. Prendre le contrôles de ses données Comme toujours avec l’informatique, on peut s’en remettre aux GAFAM ou prendre en main son système. Comme évoqué plus avant le protocole MATTER 2.0 est livré avec les services des principaux GAFAM. Mais vous pouvez aussi le gérer vous même en local. C’est tout de suite un peu plus complexe car il faut construire une infrastructure. Si vous avez NAS qui tourne en permanence, lancez vous avec home assistant. Home assistant est un OS et service indépendant qui vous permet de prendre en charge le protocole MATTER. Home assistant prend en charge tous les protocoles connus avec la possibilité d’être hébergé sur le serveur de votre choix. Vous gardez le contrôle de vos données. home assistant L’intégration avec Home Assistant est facilitée par l’émergence du standard Matter, qui permet d’unifier la communication entre les appareils de différents fabricants. Home Assistant peut être utilisé comme la plateforme centrale pour permettre à des objets utilisant différents protocoles, comme le Zigbee, d’interagir avec le reste de la maison. Pour les utilisateurs de cette solution, l’intégration des nouveaux produits Matter via Thread (comme la nouvelle gamme IKEA) est possible à condition de posséder un coordinateur réseau compatible, tel que le modèle MR1-U de chez SMLite. L’un des grands avantages de Matter est sa fonction « multi-admin », qui permet d’utiliser simultanément vos équipements sur plusieurs plateformes, incluant Home Assistant, Alexa ou Apple Home. Voici les points clés concernant l’usage de Home Assistant avec les nouveaux standards : Le cerveau du système : Il est possible de commencer avec un écosystème grand public simple (comme Apple Home) et d’ajouter Home Assistant plus tard pour gérer des automatisations plus complexes sans avoir à tout reconstruire. Visibilité des capteurs : Une fois connectés, les appareils remontent diverses informations précises sous forme d’entités. Par exemple, pour un capteur de mouvement, Home Assistant affichera la détection de mouvement, l’intensité lumineuse en lux et le niveau de batterie. Simplicité d’installation : Grâce au protocole Matter, l’ajout d’un produit se résume souvent à scanner un QR code pour qu’il soit reconnu par l’interface. Compatibilité étendue : Les capteurs de température, d’humidité, de fuite d’eau ou de qualité de l’air (PM 2.5 et CO2) sont pleinement compatibles et permettent de créer des scénarios basés sur les variations de ces données. Enfin, l’utilisation de Matter via Thread avec Home Assistant favorise un fonctionnement 100 % local, ce qui réduit les latences et évite la dépendance aux serveurs cloud des fabricants. La simplicité et la baisse des prix ne doit pas se payer par une perte de contrôle. Le CES 2026 a montré la voie suivi par les possibilité du protocole MATTER : serrures à reconnaissance faciale chez SwitchBot, thermostats muraux Thread chez Eve Systems, et éclairages immersifs chez Govee. IKEA continue d’innover avec des intégrations dans ses meubles qui sera plus poussée. Attention cependant, tout objet connecter communique avec son serveur. Si celui-ci est à l’étranger, vous ne maitrisez plus l’usage de vos données captées (présence, absence, températures, usages). Il faut garder en tête que ces données sont exploitées et revendues. C’est pour cela que je vous encourage à être hébergeur de vos données autant que possible pour en garder le contrôle. Par Régis BAUDOUINThe post Matter 2.0 et l’offensive IKEA : La domotique devient abordable pour tous first appeared on XY Magazine.
Pourquoi openclaw votre futur meilleur ami est aussi votre double numérique Openclaw va au-delà du simple chatbot Face à l’avalanche de promesses non tenues dans le domaine de l’intelligence artificielle, on peut rester sur sa faim concernant les applications concrète. Openclaw surgit comme une rupture brutale. Crée par Peter Steinberger en open source. Ce créateur est très prolifique sur github et là il a trouvé la killer app pour l’intelligence artificielle. Nous assistons peut-être à la mort du chatbot passif au profit de l’agent autonome, un outil doté de “mains” pour agir et d’une mémoire pour apprendre. En seulement 19 jours, ce projet open source a accumulé plus de 94 600 étoiles sur GitHub, une explosion qui témoigne du succès rencontré. Pour faire simple vous pouvez donner à Openclaw le contrôle total de votre vie vie votre PC et vos comptes. Openclaw En résumé avec Openclaw vous donnez les clé du camion à un robot intelligent qui va assumer vos taches à votre place. A peine sorti, déjà un procès pour Openclaw En une semaine le service a changé deux fois de nom. Au départ le nom était Clowdbot. Mais Claude IA a trouvé que c’était trop proche de son nom et a engagé un procès. Le service a changé pour Moltbot cette semaine, et au moment ou cet article est rédigé le nom vient de changer pour Openbot. L’autonomie réelle : Quand l’IA arrête de suggérer pour commencer à agir La véritable force de Openclaw réside dans sa boucle agentique, un concept qui lui permet d’improviser des plans complexes pour atteindre un objectif précis. Pour lui donner les consignes vous passez par une messagerie type telegam ou whatsapp. Ensuite, en utilisant seul les ressources du PC, il va réaliser la tache. Si il a besoin d’un mot de passe vous lui donnez ou il va le chercher dans votre coffre fort de mot de passe. Imaginez les possibilités. Contrairement aux assistants classiques, il peut créer de lui-même un tableau Excel ou prendre l’initiative de contacter un restaurant par téléphone via une synthèse vocale, ou télécharger des documents pour vous. Si une interface numérique lui résiste, l’agent explore des voies alternatives, comme l’utilisation de logiciels pour accéder au résultat. Cette capacité à naviguer entre les outils pour résoudre un problème imprévu marque une étape majeure vers une IA qui n’est plus un outil, mais un partenaire. “Il ne s’agit pas de routines préprogrammées. Ce sont des comportements dynamiques nés d’une boucle agentique qui prend un objectif et improvise un plan, saisissant tous les outils nécessaires à son exécution.” — Jason Meller, 1Password. A chaque tache réussie, il apprend pour toujours comment la réaliser et sera plus efficace la fois suivante. Pour fonctionner pas besoin d’un centre de data entier, un mini PC suffit ou un Raspberry pi. vous pouvez l’installer vous même. Vous le connectez sur une IA comme Antropic ou Chat GPT, et c’est parti. Le “Personal OS” : Reprendre le contrôle face aux géants du SaaS Openclaw incarne une vision où l’utilisateur redevient le maître de son infrastructure en transformant un simple mini PC en un système d’exploitation personnel dopé à l’IA. Cette approche “local-first” permet en partie de s’affranchir des grandes entreprises technologiques tout en garantissant un contrôle total sur les flux de données. En hébergeant l’agent sur sa propre machine, l’utilisateur dispose d’une puissance de calcul et d’une confidentialité que les solutions SaaS centralisées ne peuvent égaler. Attention tout de même. accédant ensuite aux outils GAFAM et devant utiliser les service d’une IA du marché, au final Openclaw vous met bien en contact avec eux. Cette transition vers une autonomie locale est perçue par la communauté comme une libération philosophique et technique majeure. Pour beaucoup de pionniers, faire tourner cet agent sur son propre matériel procure une sensation oubliée de maîtrise totale sur la “pile” technologique. C’est le passage symbolique de Windows à Linux d’il y a vingt ans, où l’utilisateur reprend enfin la souveraineté de son espace numérique personnel. Cela explique un partie du succès fulgurant du service. Le pacte faustien : La puissance brute au prix d’une sécurité fragile L’efficacité redoutable de Openclaw repose sur une architecture qui ignore délibérément certaines barrières de sécurité conventionnelles pour favoriser une action sans entrave. Les clés API et les journaux de session sont stockés en texte clair. Cette vulnérabilité n’est pas théorique : plus de 1 600 instances ont déjà été détectées sur Shodan via le port 18789, exposées sans défense sur le web. Beaucoup d’utilisateurs ont installé Openclaw sur leur propre PC sans le sécuriser d’avantage. Un attaquant ne se contente pas de voler des clés techniques ; il s’empare de la matière première nécessaire pour usurper totalement votre identité numérique. Grâce à la mémoire à long terme de Openclaw, un intrus peut analyser vos relations, vos projets en cours et votre style rédactionnel unique. Pour mitiger ces risques , le projet propose désormais un cloisonnement via Docker Sandboxing afin d’isoler l’exécution des commandes. Il est conseillé de l’installer sur un serveur dédié et sécuriser, voire chez un cloud provider. “Il n’existe pas de configuration ‘parfaitement sécurisée’.” — Peter Steinberger, créateur de Openclaw. L’identité de l’agent : Recruter une IA comme un nouvel employé Pour sécuriser le service, il devient crucial de traiter l’agent IA comme une entité propre plutôt que comme une simple application installée. Au lieu de lui accorder des accès globaux permanents, la stratégie consiste à lui donner une identité distincte, avec son propre compte email et ses propres accès réservés. Cette approche permet de médiatiser l’accès en temps réel, garantissant que chaque action de l’IA est validée dynamiquement en fonction du contexte immédiat. Surtout vous ne créez pas votre double numérique et ses failles de sécurité. Il a ses comptes vous avez les vôtres et vous pouvez lui octroyer des droits utilisateur mais pas administrateur. L’intégration de fonctionnalités comme Voice Wake et le Talk Mode, propulsées par ElevenLabs, rend cette métaphore de l’employé singulièrement tangible. L’IA n’est plus un texte froid sur un écran, mais une présence vocale capable d’interagir par la parole avec son environnement. Cette incarnation renforce la nécessité d’une identité propre pour l’agent, lui permettant de gérer ses outils quotidiens comme une recrue humaine au sein d’une équipe.Car vous lui parlez mais il vous répond en permanence. Applications concrètes de Openclaw Openclaw est capable d’automatiser une vaste gamme de tâches en prenant le contrôle d’un ordinateur et en interagissant avec divers services via un cycle agentique. Par exemple, il peut gérer votre vie quotidienne en nettoyant votre boîte de réception, en envoyant des e-mails, en organisant votre calendrier ou en effectuant votre enregistrement pour un vol via des applications de messagerie comme WhatsApp ou Telegram. Dites juste “aujourd’hui réponds à tous mes mails et télécharge toutes les pièces jointes” Il est également en mesure de gérer des démarches administratives complexes, telles que la soumission de demandes de remboursements de soins de santé ou la recherche de rendez-vous chez le médecin. pour cela il faudra lui donner votre compte et mot de passe Doctolib. Il va se faire passer pour vous. Dans un contexte professionnel, Openclaw peut se connecter de manière autonome à un outil de gestion pour télécharger une facture, puis naviguer vers une plateforme comptable pour y déposer le document. Pour les développeurs, il peut réaliser des tâches techniques avancées comme la création d’un tableau kanban fonctionnel en une heure ou la surveillance d’erreurs logicielles via des webhooks Sentry afin de résoudre des bugs et d’ouvrir des Pull Requests sur GitHub. Certains utilisateurs l’utilisent même pour créer des flux de travail réutilisables en analysant des vidéos YouTube pour en extraire des compétences spécifiques. C’est incroyable. Enfin, Openclaw peut interagir directement avec votre matériel informatique en éteignant votre PC à distance ou en pilotant des objets connectés. Il peut même improviser des solutions surprenantes, comme appeler directement un restaurant avec une voix synthétique pour obtenir une réservation lorsque les systèmes en ligne sont indisponibles. Conclusion : Vers une collaboration inévitable ou une obsolescence programmée ? Openclaw n’est pas seulement un utilitaire technique, c’est le portail vers un futur où la frontière entre le logiciel et votre personnalité devient étroite. Si ses capacités de mémorisation infinie et de correction autonome impressionnent, elles nous placent devant un dilemme éthique et sécuritaire fondamental. L’adoption de tels agents semble inévitable pour rester compétitif dans un monde numérique dont la cadence s’accélère. Reste à savoir si vous êtes réellement prêt à confier les clés de votre vie numérique à un assistant autonome, sachant qu’il peut aussi bien vous libérer que vous exposer. Par régis BAUDOUINThe post Openclaw votre futur meilleur ami first appeared on XY Magazine.
Plus de bonheur et moins de swipes avec BPM sports. BPM sports est une application de dating par le sport pour les sportifs. J’ai pu rencontrer le créateur de BPM sports, Gabriel ZEITOUN pour une interview sur la nouvelle application BPM sports qui combine, sport, dating et rencontre. Nous avons discuté de son applications mais aussi de son business modèle et de ses ambitions. Voici les 4 leçons contre-intuitives du fondateur de l’application de rencontre BPM sports Illustration BPM Briser la glace (et la routine) des premiers rendez-vous Ce premier café aux allures d’entretien d’embauche, ces silences que l’on meuble en fixant sa tasse… Le premier rendez-vous est souvent une épreuve plus qu’une promesse. Il y a un an et demi, Gabriel était célibataire, passionné de sport, et frustré par les applications de rencontre classiques. Sur Hinge, il peinait à trouver des profils partageant son style de vie actif. En parallèle, il observait un phénomène : les run clubs devenaient les nouveaux lieux de rencontre, au point que certains ne participaient que pour espérer une rencontre. Un date en trois étapes De ce double constat est née BPM sports, son application de rencontre pour sportifs. Le nom, « Battements Par Minute », évoque l’effort cardiaque et le rythme du cœur qui s’emballe. Son pari : si le sport peut rapprocher les gens dans la vie réelle, pourquoi pas sur une app ? Le parcours de Gabriel, qui avoue avec humour qu’il n’est «plus célibataire aujourd’hui », révèle des leçons surprenantes sur l’entrepreneuriat, le marketing et la nature des relations humaines à l’ère du digital. La meilleure rencontre commence par une session de sport, pas par un verre Le principe fondamental de BPM sports est simple mais radical : remplacer le traditionnel rendez-vous au bar par un jogging, une partie de tennis ou une randonnée. L’approche est plus naturelle, moins formelle, et crée un lien instantané autour d’une passion commune. Plutôt que de se jauger autour d’une table, les utilisateurs partagent une expérience active qui en dit long sur leur personnalité. Les profils Mais une idée de génie ne suffit pas à construire une entreprise. Gabriel l’a appris à ses dépens en affrontant le premier obstacle de tout entrepreneur : l’humain. Le plus grand défi n’est pas l’idée, mais de trouver le bon associé On imagine que le plus dur est le code ou le financement. Pour Gabriel, l’épreuve la plus complexe fut de trouver le bon cofondateur. Il souligne, a juste titre, qu’un nombre incalculable de startups échouent à cause de conflits entre associés, une expérience qu’il a lui-même vécue avant de s’allier avec son partenaire technique actuel. Cette leçon rappelle que même dans la tech, le succès repose d’abord sur des relations humaines solides et une vision partagée. La partie humainement la plus compliquée. Quand on lance une boîte, c’est vraiment l’association. Une fois l’équipe soudée, un autre défi, tout aussi humain, se présente : attirer la foule. Faire venir des utilisateurs pour démontrer le concept et ajuster le modèle. Pour une nouvelle application, le marketing est plus important que le produit Voici une vérité qui bouscule le mantra du « produit avant tout ». Gabriel est catégorique : pour une application grand public, le marketing et la distribution sont la clé absolue. La logique est implacable : une application de rencontre est inutile sans une masse critique d’utilisateurs. Son objectif est d’atteindre 10 000 utilisateurs en France pour garantir une bonne expérience partout. Le défi principal n’est donc pas de peaufiner le code, mais de convaincre les gens de télécharger l’application. Pour déclencher la viralité autour de l’application, Gabriel compte principalement sur les réseaux sociaux en référencement gratuit et payant. Ses buyer personae (cibles) sont sur tic tok, instagram et il faut aller les chercher sur ces réseaux. J’ai envie de dire même tout le reste passe au second plan Ce qui compte vraiment c’est de faire en sorte que les gens téléchargent ton application. Atteindre au plus vite une masse critique de 10 000 users et ensuite revenir sur le produit pour proposer une modèle économique, des fonctionnalités et chercher des investisseurs. Le paradoxe ultime : le succès, c’est quand vos clients vous quittent Toutes les applications de rencontre sont construites sur un paradoxe, et BPM sports ne fait pas exception. Si l’application remplit sa mission et qu’un utilisateur trouve l’amour, il la supprime. Chaque succès représente donc une perte de revenu potentiel, que l’utilisateur ait payé un abonnement ou non. Loin de fuir cette réalité, Gabriel l’assume pleinement. Le but final est que les utilisateurs partent parce qu’ils ont trouvé quelqu’un. Le véritable succès ne se mesure pas en rétention d’utilisateurs, mais en couples formés. Plus qu’une application, une nouvelle philosophie de la rencontre L’aventure de BPM sports montre que créer une application va bien au-delà des lignes de code. C’est une plongée dans la psychologie humaine, les dures réalités du business et le parcours d’un entrepreneur qui navigue entre relations humaines, stratégies marketing et les paradoxes de son propre modèle économique. Au fond, l’idée de se rencontrer autour d’une passion commune nous rappelle une vérité simple : les meilleures connexions se font quand on est soi-même, en faisant ce que l’on aime. Lien vers l’application BPM sports Par Régis BAUDOUINThe post Plus de bonheur et moins de swipes avec BPM sports first appeared on XY Magazine.
L’intelligence artificielle pour faire baisser le chômage, cette affirmation peut vous faire bondir. On va étudier comment France travail est plus efficient en multipliant les usages concrets. L’utilisation de l’intelligence artificielle (IA) par France Travail s’inscrit dans une volonté de transformation profonde de l’opérateur, avec des objectifs structurés autour de l’amélioration du service et de l’optimisation des ressources internes. Le projet est plus fait pour améliorer leur indicateurs que pour aider les chômeurs à connaitre leurs droits. Principaux objectifs stratégiques L’amélioration du service rendu aux usagers : L’objectif constant est de renforcer l’accompagnement des demandeurs d’emploi et des entreprises. Cela inclut une personnalisation accrue des services et une meilleure efficacité de l’appariement entre l’offre et la demande d’emploi. Avec le programme Data IA lancé en 2024, l’opérateur ambitionne d’utiliser l’IA générative pour « bousculer » les méthodes de travail quotidiennes des conseillers. L’IA est vue comme un levier pour revisiter les actes métiers et soutenir la transformation globale de l’organisme. En automatisant les tâches à faible valeur ajoutée, l’IA doit permettre aux conseillers de se recentrer sur des activités plus qualitatives et sur le contact humain. L’un des indicateurs d’impact est d’augmenter de 20 % le soutien aux usagers qui en ont le plus besoin. L’IA doit aider France Travail à absorber les charges supplémentaires liées à la loi pour le plein emploi de 2023, notamment l’inscription généralisée de tous les chercheurs d’emploi et la création de services communs pour le « Réseau pour l’emploi ». Gains d’efficience attendus France travail a décidé de recourir massivement à l’intelligence artificielle, se traduisant par des économies financières et des gains de temps de travail : L’intelligence artificielle vise à supprimer les tâches fastidieuses comme la saisie manuelle de données (grâce à l’analyse automatique de CV) ou le tri de documents. Par exemple, l’outil ChatFT est estimé réduire de 30 % le temps passé sur la production écrite (courriels, synthèses). #image_title Économies financières : Entre 2017 et 2025, les économies induites par l’IA sont estimées à environ 120 millions d’euros, dépassant légèrement le budget de 108 millions d’euros consacré au développement de ces outils sur la même période. L’intelligence artificielle transforme (déjà) votre recherche d’emploi Le changement de nom de Pôle emploi à France Travail en janvier 2024 n’a pas été qu’un simple changement d’enseigne. C’est aussi l’aboutissement d’une mue technologique amorcée dès 2015. Derrière les conseillers, l’algorithme a pris ses quartiers. Aujourd’hui, en ce début d’année 2026, l’intelligence artificielle n’est plus une promesse de science-fiction, mais le moteur discret du service public de l’emploi français Pourtant, une question fondamentale subsiste : dans cette course à l’efficience, l’algorithme est-il en train de supplanter l’humain ou de l’augmenter ? ChatFT, véritable majordome numérique des conseillers redéfinit les règles du jeu pour des millions de Français. L’IA est déjà partout : 27 outils à grande échelle Contrairement aux idées reçues, l’IA chez France Travail ne se résume pas à un simple chatbot de bienvenue. En avril 2025, l’opérateur comptait déjà 27 cas d’usage déployés et exploités à grande échelle. Cette infrastructure agit comme un filtre invisible, essentiel à la fluidité d’un marché du travail saturé. L’analyse automatisée des CV : Un gain de temps spectaculaire. Là où un usager passait 45 minutes à remplir son profil de compétences, l’IA extrait désormais l’essentiel en seulement 15 minutes. La traque de l’illégalité via “Lego” : Contrairement aux outils d’analyse de CV, l’outil “Lego” est spécifiquement dédié à l’identification des offres d’emploi illégales ou frauduleuses avant leur publication. Un rempart crucial pour la sécurité des demandeurs d’emploi. L’orientation prédictive : Des solutions comme “La bonne boîte” utilisent le machine learning pour débusquer le “marché caché”, identifiant les entreprises à fort potentiel d’embauche avant même qu’elles n’émettent une offre. #image_title L’opérateur France Travail recourt à l’intelligence artificielle (IA) depuis 2015 pour améliorer le service rendu aux usagers et renforcer son efficience en permettant aux conseillers de se consacrer à des tâches plus qualitatives. #image_title Le paradoxe du bénéficiaire : Les agents d’abord, les usagers ensuite Le chiffre est frappant : 80,5 % des cas d’usage de l’IA sont destinés aux conseillers, et non directement aux demandeurs d’emploi. Ce choix stratégique répond à une réalité opérationnelle brutale : la saturation numérique. Entre 2017 et 2024, alors que les visites physiques en agence chutaient de 42 %, le volume de courriels a bondi de 72 %, passant de 19,5 à 34,3 millions mail par an.. Pour ne pas sombrer sous cette marée de mails, France Travail a fait de l’IA le “majordome” de ses agents. ChatFT, l’agent conversationnel interne, est aujourd’hui utilisé par 56 % des agents, traitant notamment la rédaction de 51 % des brouillons de courriels. Les gains d’efficience projetés à l’horizon 2027 sont massifs et précis : 226 ETP (Équivalents Temps Plein) économisés grâce à l’aide rédactionnelle via ChatFT. 241 ETP libérés par l’outil NEO (préparation des entretiens). 157 ETP générés par la composante IA de Panoptes (reconnaissance automatique de documents), auxquels s’ajoutent 143 ETP pour son volet Data. Un investissement rentable, mais un apprentissage par l’échec L’IA représente un levier financier majeur. Entre 2017 et 2024, France Travail a investi 93 millions d’euros dans ces technologies, avec un budget complémentaire de 15 millions d’euros pour 2025. Le retour sur investissement semble au rendez-vous, avec 120 millions d’euros d’économies induites. Cependant, l’analyse d’expert révèle une réalité moins linéaire que les communiqués officiels. Le déploiement de l’IA est aussi une histoire d’essais et d’erreurs : 17 cas d’usage ont été purement et simplement abandonnés (comme l’outil de prédiction de pourvoi d’offre à 30 jours, jugé peu utile). Par ailleurs, ces économies ne riment pas avec suppressions de postes, mais avec des « redéploiements intra-postes » : le temps libéré est théoriquement réalloué à l’accompagnement des publics les plus fragiles. Zones d’ombre : Un retard critique sur la protection des données C’est ici que le bât blesse. Il est impératif de souligner un échec légal et éthique majeur : une « quasi-absence » d’analyses d’impact relative à la protection des données. Alors que France Travail traite des données massives et parfois sensibles, le retard dans la sécurisation juridique est préoccupant. L’opérateur n’apparaît pas non plus prêt pour le Règlement Européen sur l’IA (RIA). Comment garantir l’absence de biais algorithmiques ou de discriminations dans un service public si les outils de contrôle de conformité ne sont pas activés dès la conception ? La confiance des usagers repose sur cette transparence, encore trop lacunaire aujourd’hui. L’intelligence artificielle émotionnelle : La frontière franchie en PACA ? Une expérience controversée est menée en région PACA : l’utilisation d’outils de « reconnaissance des émotions ». Ces technologies visent à déduire l’état émotionnel d’une personne via des données vocales ou biométriques. Il est crucial de rappeler que le nouveau Règlement Européen sur l’IA (RIA/AI Act) interdit formellement ces pratiques sur le lieu de travail et dans le cadre du recrutement. Cette dérive marque la frontière poreuse entre l’assistance numérique et la surveillance algorithmique. Pour un service public, franchir ce pas risque de rompre définitivement le contrat de confiance avec les citoyens. Clairement cette expérience va trop loin. Les principaux cas d’usage de l’intelligence artificielle déployés En avril 2025, 27 de ces cas sont déployés à grande échelle, tandis que 16 sont en test et 17 ont été abandonnés. Services destinés aux agents et conseillers (80,5 % des cas) L’IA est prioritairement utilisée pour libérer du temps aux conseillers en automatisant les tâches répétitives. ChatFT et ses variantes (« FT’s ») : Basé sur l’IA générative, cet agent conversationnel sécurisé aide les agents dans la rédaction de courriels, la synthèse de documents et la recherche d’idées. Des variantes comme Chatdoc (traitement de documents) ou Néo (recherche d’informations dans le dossier du demandeur d’emploi) y sont adossées. LEGO : Cet outil de détection automatique identifie les offres d’emploi illégales (critères discriminatoires sur l’âge, la santé, etc.) avant leur publication. CVM (Contact via Mail) : Il facilite le traitement des flux massifs de courriels en identifiant automatiquement l’émetteur et en catégorisant les demandes par thématique pour les orienter vers le bon conseiller. MatchFT : Actuellement en cours de déploiement, il utilise l’IA générative pour préqualifier des candidats par SMS (vérification de la disponibilité, mobilité, intérêt) avant une mise en relation par le conseiller. Services destinés aux demandeurs d’emploi L’objectif est d’améliorer l’autonomie et l’efficacité de la recherche d’emploi. Analyse automatique de CV (CV Discovery) : Ce service extrait les données d’un CV téléchargé pour pré-remplir automatiquement le profil de compétences de l’usager, ce qui réduit le temps de saisie de 45 à 15 minutes. La bonne boîte / La bonne alternance : Ces outils utilisent l’IA prédictive pour identifier les entreprises ayant un fort potentiel d’embauche spontanée, même en l’absence d’offres publiées. Vadore : Expérimenté en région Auvergne-Rhône-Alpes, il propose un appariement prédictif basé sur la probabilité d’embauche réelle plutô
Y-a-t-il un pilote qui contrôle le budget de l’Etat; c’est la question que l’on peut se poser quand on voit la situation des finances. On exprime souvent les dépenses en pourcentage du PIB, mais jamais en rapport avec les recettes. C’est pourtant le ratio le plus simple. Les chiffres du budget sont ceux du ministère du budget. En 2025 montant des recettes de l’Etat : 370 577 000 000 € soit 370 milliard. En 2025 montant des dépenses de l’Etat : 817 356 000 000€ soit 817 milliard. Pour faire simple quand l’Etat reçoit 1 € il dépense 2.2 €. Quand on dépense plus de deux fois les revenus on est pas du tout bien géré. Y-a-t-il un pilote qui contrôle le budget de l’Etat Chaque citoyen attend, à juste titre, que l’État gère l’argent public avec la même rigueur qu’une entreprise performante. Pour répondre à cette exigence, un concept a été importé du secteur privé au début des années 2000 : le “contrôle de gestion”. L’objectif était de transplanter dans l’administration une culture du résultat pour enfin passer d’une “logique de moyens” à une “logique de performance”. Mais, comme pour une greffe d’organe, l’opération n’a de sens que si le corps receveur ne la rejette pas. Un rapport récent de la Cour des comptes dresse le tableau d’une “ambition perdue de vue”, révélant que le problème n’est pas technique, mais bien culturel et politique. Nous allons voir en quatre chapitres comment une idée juste s’est heurtée à la culture administrative, la transformant en un exercice de style déconnecté de sa finalité. Un “contrôle de gestion” qui oublie de contrôler les coûts Dans le secteur privé, la définition du contrôle de gestion est simple : c’est un outil essentiel pour maîtriser les coûts et optimiser la performance financière. Or, le constat de la Cour des comptes sur son application dans les services de l’État est sans appel : sa mise en œuvre est apparue “très largement déconnectée de la recherche d’économies budgétaires”. Ce paradoxe est au cœur de l’échec. L’outil même qui devait rationaliser la dépense a été déployé en oubliant sa fonction première. Le rapport ne se contente pas de ce constat, il en livre la cause culturelle : “une forme de désintérêt pour les questions budgétaires perçues, à tort, comme des questions d’intendance”. Autrement dit, l’outil s’est heurté à une culture administrative qui sépare le “noble” travail de conception des politiques publiques de la gestion “subalterne” des finances. En somme, l’État s’est doté d’un compteur de vitesse sans jamais regarder le niveau de carburant, alors même que, comme le rappelle la Cour, “la situation générale des finances publiques fait peser une exigence renouvelée sur la maîtrise de la dépense”. La superposition de systèmes de performance concurrents Plutôt que de clarifier le pilotage, l’État a réussi à créer deux systèmes de mesure de la performance qui se superposent et servent des maîtres différents. Le premier, issu de la loi organique relative aux lois de finances (LOLF) de 2001, s’incarne dans les projets annuels de performances (Pap) et les rapports annuels de performances (Rap). Pensé comme un outil de redevabilité envers le Parlement, son bilan est jugé “globalement décevant” après vingt ans d’existence. Pour y remédier, un second dispositif a été lancé en 2022 : les “Politiques Prioritaires du Gouvernement” (PPG). Mais au lieu de remplacer l’ancien système, le rapport souligne que ce nouveau dispositif “s’y est plutôt superposé”, créant “une forme de confusion” et existant “sans synergies évidentes”. Le conflit est fonctionnel : les Pap/Rap sont un appareil de reddition des comptes parlementaire, tandis que les PPG sont un outil de pilotage pour l’exécutif, axé sur la “satisfaction des besoins concrets des usagers” et l’alignement territorial via les primes des préfets. Servants deux maîtres aux objectifs distincts, ces deux systèmes coexistent sans s’articuler, illustrant une tendance lourde à empiler les dispositifs plutôt qu’à réformer en profondeur. Quand la gestion sert surtout à sauver les apparences Le rapport va plus loin qu’une critique technique en soulignant que cette appropriation des outils de gestion modernes pourrait n’être qu’une façade. Cette “appropriation symbolique” s’expliquerait par les “différences fondamentales entre secteur public et secteur marchand” : fragmentation des responsabilités, absence de conséquences financières directes pour les décideurs. Dans ce contexte, adopter le langage du management devient une fin en soi. La métaphore est puissante : l’État construirait une belle façade de management (objectifs, indicateurs, rapports) pour rassurer le citoyen, mais derrière laquelle les vieilles habitudes bureaucratiques perdurent. En somme, la gestion devient un exercice de communication destiné à prouver la rationalité de l’État, plutôt qu’un véritable levier de transformation. Pourquoi le Ministère de la défense et la DGFIP ont un vrai contrôle de gestion Au milieu de ce tableau sombre, la Cour des comptes identifie une exception notable : le Ministère des Armées (MINARM). Contrairement aux autres administrations, il a réussi à mettre en place un contrôle de gestion efficace. Les Armées utilisent une “comptabilité analytique précise” pour connaître réellement le coût de leurs activités. Le rapport précise que le ministère dispose de treize modèles de comptabilité analytique pour calculer les coûts de maintenance du matériel ou le prix des prestations. Ce chiffre illustre le sérieux de la démarche. Cela veut dire que l’on peut connaitre le cout d’une heure de vol d’un Rafale, le cout de la formation d’un officiers autant de vrai indicateurs pour piloter, améliorer. La raison de ce succès est simple : la nécessité. Le rapport établit un lien causal direct : “C’est parce que le ministère des armées (MINARM) gère des projets complexes en partenariat avec des industriels, qu’il a éprouvé le besoin” d’un tel outil. Quand on pilote des programmes d’armement à plusieurs milliards d’euros avec des partenaires privés exigeants, la maîtrise des coûts n’est pas une option bureaucratique, c’est une condition de survie opérationnelle. Cet exemple prouve que le problème n’est ni l’outil, ni la nature publique de l’organisation, mais bien la volonté et, surtout, le besoin de s’en servir. La Direction Générale des Finances Publiques (DGFiP) a déployé plusieurs outils et dispositifs pour assurer son pilotage et son contrôle de gestion, le principal étant son infocentre dédié. L’infocentre « Opera » de la DGFIP Le pilotage du réseau de la DGFiP s’appuie majoritairement sur un infocentre dédié appelé « Opera ». Il rassemble l’ensemble des résultats de la performance et les charges associées sur une seule base de données. Il permet un suivi des dépenses aux niveaux national, interrégional, directionnel, départemental et même infra-départemental. Il propose des tableaux de bord types ou adaptés aux besoins des responsables. La directrice générale ainsi que les directeurs locaux disposent de tableaux de bord visuels (incluant des cartes et des graphiques) pour mesurer l’évolution de la performance et comparer les structures entre elles. Un module de datavisualisation permet de présenter les données de manière graphique pour faciliter l’analyse par les cadres et les contrôleurs de gestion. Suivi des délais de paiement Au-delà de l’outil technique, la DGFiP a déployé un système de mesure reposant sur des principes de bonne gestion. Un dialogue de performance annuel : Ce processus s’appuie sur un très grand nombre d’indicateurs couvrant des domaines variés comme le contrôle fiscal, le recouvrement, l’immobilier ou encore l’environnement. Des Contrats d’Objectifs et de Moyens (COM) : Les outils de pilotage servent à vérifier le respect des engagements fixés dans ce contrat (actuellement pour la période 2023-2027). La DGFiP réalise chaque année une enquête pour répartir les effectifs par mission et par type d’impôt, permettant de déterminer précisément les coûts de gestion et les gains de productivité. On peut dire qu’Opera fonctionne comme le tableau de bord d’un avion de ligne, permettant au pilote (la direction) de surveiller chaque paramètre de vol sur l’ensemble du territoire et d’ajuster la trajectoire en temps réel pour atteindre sa destination. La performance, une question de volonté plus que d’outils Le bilan dressé par la Cour des comptes est sévère. L’idée d’importer le contrôle de gestion du privé était juste, mais l’administration l’a vidée de sa substance, la transformant en un exercice de style déconnecté de sa finalité première : la maîtrise des coûts. C’est l’histoire d’une greffe rejetée non par incompatibilité technique, mais par refus culturel. L’exemple du Ministère de la défense est la clé de lecture de cet échec. Il prouve que la distinction pertinente n’est pas “public contre privé”, mais “nécessité contre conformité”. Lorsque le contrôle des coûts est un impératif opérationnel non négociable, les outils fonctionnent. Lorsqu’il s’agit d’une simple obligation de reporting pour alimenter des rapports les chiffres n’ont pas de sens. Les outils existent et peuvent être efficaces. La vraie question n’est donc plus de savoir “comment” mieux gérer, mais dans quelles conditions l’État se sentira-t-il vraiment contraint de le faire ? Par Régis BAUDOUINThe post Y-a-t-il un pilote qui contrôle le budget de l’Etat first appeared on XY Magazine.
Stratégie sécuritaire des USA sous l’administration TRUMP, Les USA ont publié une synthèse de leur stratégie mondiale en matière de sécurité. La publication d’un nouveau document de Stratégie de Sécurité Nationale (NSS) est généralement un événement attendu dans les cercles de politique étrangère, mais rarement une source de bouleversements majeurs. La plupart du temps, il s’agit d’ajustements, de réorientations subtiles. Mais le document de 2025, qui vient d’être dévoilé par l’administration Trump, est d’une tout autre nature. Ce n’est pas une mise à jour ; c’est une démolition en règle de décennies de consensus américain en matière de politique étrangère, une répudiation directe du consensus mondialiste de l’après-guerre froide adopté par les élites républicaines comme démocrates. C’est pourquoi je vous fait une synthèse dans cet article. La lecture de ce document permet de comprendre pourquoi l’administration TRUMP est cohérente avec elle-même et non au regard des actions du passé. Oubliez les platitudes sur le leadership mondial et l’ordre international libéral. Cette nouvelle doctrine “America First” est un manifeste pragmatique, qui redéfinit les intérêts, les priorités et les alliances des États-Unis. Le retour musclé de la doctrine Monroe : Le “Trump Corollary” La première révélation est une réaffirmation spectaculaire de la prééminence américaine dans son propre voisinage. Le document ne se contente pas de dépoussiérer la doctrine Monroe, un principe de la politique étrangère américaine datant du 19ème siècle mais tombé en relative désuétude ; il lui ajoute ce qu’il nomme le “Trump Corollary“. Il ne s’agit pas d’un simple “corollaire” au sens d’une conséquence logique, mais d’une extension délibérée et assertive de la doctrine, affirmant sans équivoque que l’hémisphère occidental est, et restera, la sphère d’influence exclusive des États-Unis. Les objectifs sont clairs : Restaurer la prééminence américaine dans la région après des années de ce qui est décrit comme une “négligence”. C’est bien illustré par les prises de position du Président TRUMP sur les politiques européenne en matières de réglementation, d’immigration. Protéger la patrie contre les menaces transfrontalières comme le trafic de drogue et la migration de masse. C’est déjà bien mis ne oeuvre avec les arrestations de masse faits par L’ICE Refuser aux concurrents non-hémisphériques la capacité de positionner des forces militaires, de contrôler des infrastructures critiques ou de posséder des actifs stratégiques. On parle ici de ce qui se passe pour le Panama ou le Venezuela pour illustrer avec les sujets les plus abordés. Pour y parvenir, la stratégie annonce des moyens concrets et musclés : un redéploiement de la présence militaire mondiale vers les Amériques, l’autorisation de l’usage de la force létale contre les cartels de la drogue, et une politique agressive pour sécuriser les chaînes d’approvisionnement critiques dans la région, au profit des entreprises américaines. Fin du “free-riding” : La révolution des alliances Si vous pensiez que le débat sur le partage du fardeau au sein de l’OTAN était vif, préparez-vous à une véritable révolution. Le document déclare que les États-Unis ne peuvent plus et ne veulent plus supporter le fardeau de la défense mondiale. L’ère du “free-riding” (le fait de profiter de la sécurité offerte par les États-Unis sans en payer le juste prix) est terminée. Pour matérialiser ce changement, la stratégie introduit deux concepts clés : Le “Hague Commitment“ : Il s’agit d’une nouvelle norme radicale exigeant que les pays de l’OTAN consacrent non pas 2 % de leur PIB à la défense – un objectif de longue date qui était déjà source de vives tensions et rarement atteint – mais 5 %. Ceci pour les USA baissent leur propre contribution. La réalité c’est que cela devait être le cas depuis longtemps. Surtout l’Europe va prendre en main sa sécurité, ce qui est à terme un bien et une chance de retrouver sa souveraineté. Le “Partage et transfert du fardeau” (Burden-Sharing and Burden-Shifting) : Le principe est simple. Les alliés doivent désormais assumer la responsabilité principale de la sécurité dans leurs propres régions. L’Amérique se positionne comme un “organisateur et supporter” plutôt que comme le premier répondant systématique. Avec la Guerre en Ukraine on voit bien le changement. L’Europe doit acheter les matériels aux USA pour les livrer à l’Ukraine. Ce ne sont plus des dons des USA. Ce changement de paradigme est résumé de manière percutante dans le document : “The days of the United States propping up the entire world order like Atlas are over.” Europe face à “l’effacement civilisationnel” : Un diagnostic inattendu La section sur l’Europe est peut-être la plus surprenante du document. La préoccupation principale de Washington n’est plus la stagnation économique du continent ou ses faibles dépenses militaires. Le diagnostic est bien plus profond et, pour tout dire, existentiel. La stratégie identifie une crise qu’elle nomme “l’effacement civilisationnel”. Le fait même d’utiliser un tel langage dans un document d’État officiel marque une rupture profonde ; les stratégies américaines se concentrent généralement sur des menaces militaires, économiques et politiques concrètes, rendant ce pivot vers des préoccupations idéologiques et démographiques tout à fait sans précédent. Selon le texte, les véritables menaces qui pèsent sur l’Europe sont internes : Des politiques migratoires jugées transformatrices et sources de conflits principalement du fait religieux entre des pays laïques et une immigration musulmane qui pratique un islam politique. L’effondrement des taux de natalité qui pourrait rendre minoritaires les populations autochtones La perte des identités nationales et de la confiance en soi collective. Une société WOKE selon la vision américaine qui accepté de se dissoudre dans le consensus. L’objectif américain n’est donc pas seulement d’encourager l’Europe à se réarmer, mais de l’aider à “retrouver sa confiance civilisationnelle” et à rester “européenne”. C’est une intervention idéologique et culturelle d’une franchise inédite dans un document officiel de ce niveau. La fin de la migration de masse comme priorité absolue de la sécurité nationale Rompant radicalement avec les administrations précédentes qui traitaient l’immigration comme une question de gestion ou un enjeu humanitaire, ce document l’élève au rang de menace existentielle. La fin de la migration de masse n’est plus une question de politique intérieure, mais un impératif stratégique pour la survie de la république, la priorité absolue de la sécurité nationale. Le raisonnement est martelé avec force : la migration de masse met à rude épreuve les ressources nationales, affaiblit la cohésion sociale, déforme les marchés du travail et sape la sécurité nationale en créant des vulnérabilités. La souveraineté, selon cette doctrine, se définit avant tout par une chose : le contrôle total et absolu de ses frontières et le droit de décider qui peut, ou ne peut pas, faire partie de l’avenir de la nation. Le “Président de la Paix” : La diplomatie du deal comme arme stratégique Malgré un ton globalement musclé et nationaliste, le document révèle une priorité contre-intuitive : la recherche active de la paix par la négociation d’accords. La stratégie présente Donald Trump comme “Le Président de la Paix”, non pas par idéalisme, mais par pur calcul stratégique. L’administration TRUMP se targue d’une liste impressionnante d’accords de paix récemment conclus, dont certains semblaient impossibles il y a peu : un accord entre Israël et l’Iran, un autre entre le Pakistan et l’Inde, ou encore la fin de la guerre à Gaza avec le retour des otages. La logique derrière cette “diplomatie du deal” est explicitée : négocier la paix, même dans des régions considérées comme périphériques aux intérêts vitaux américains, est un moyen extraordinairement rentable (en termes de temps et d’attention présidentielle) pour accroître l’influence américaine, réaligner des régions entières sur les intérêts de Washington et stabiliser le monde à moindre coût. Focus sur la position et stratégie sécuritaire vis à vis de l’Europe La position des États-Unis à l’égard de l’Europe, telle que détaillée dans la stratégie, est centrée sur le soutien à ses alliés tout en insistant sur la nécessité pour le continent de retrouver sa confiance en soi civilisationnelle et d’assumer une plus grande responsabilité pour sa propre défense,,. La stratégie identifie plusieurs problèmes fondamentaux et établit des priorités claires pour y remédier : Les États-Unis estiment que les problèmes de l’Europe sont profonds et vont au-delà du manque de dépenses militaires et de la stagnation économique. L’Europe continentale a vu sa part du PIB mondial chuter (de 25 % en 1990 à 14 % aujourd’hui), en partie à cause de réglementations nationales et transnationales qui minent la créativité et l’industrie. Au passage cette règlementation gène les USA dans leurs exportations vers l’Europe. Concernant les règlementations numériques que je connais bien, le président TRUMP attaque la règlementation RGPD et IA act. Ce déclin économique est éclipsé par la perspective d’une “éradication civilisationnelle“. Les États-Unis craignent que le continent devienne méconnaissable d’ici 20 ans si les tendances actuelles se poursuivent. Sans le citer ils font allusion à l’immigration d’origine musulman en Europe. Les problèmes plus larges comprennent les activités de l’Union européenne et d’autres organismes transnationaux qui sapent la liberté politique et la souveraineté, ainsi que des politiques migratoires qui transforment le continent et créent des conflits. D’autres préoccupations incluent la censure de la liberté d’expression, la suppression de l’opposition politique. La guerre en Ukraine a eu
La suite numérique souveraine, la France et l’Europe veulent se libérer des suites Microsoft et Google. La suite numérique souveraine Dans notre quotidien professionnel, les suites bureautiques américaines comme celles de Google ou Microsoft sont devenues omniprésentes, presque une évidence. C’est dans ce contexte que le projet du gouvernement français, la “Suite Numérique”, apparaît comme une initiative particulièrement importante pour affirmer la souveraineté de nos informations. Il faut bien avoir à l’esprit que ces éditeurs utilisent leurs solutions pour commercialiser des informations sur les usages, habitudes, utilisations et ont accès aux données directement depuis leurs cloud propriétaires. Il ne s’agit pas de créer quelques outils isolés, mais bien de bâtir une alternative complète, cohérente et souveraine pour les agents du service public. Lancée en mai 2024, cette suite se veut une réponse souveraine et open source aux géants du marché. Lors d’un premier bilan présenté le 27 novembre 2025, la Direction interministérielle du numérique (Dinum) a dévoilé des chiffres qui dessinent les contours d’un projet stratégique aux premiers résultats surprenants. La suite regroupe déjà six outils phares : Visio (visioconférence), Doc (édition collaborative), Fichiers (stockage), Tchap (messagerie), Grist (gestion de données) et l’Assistant (IA générative). la souveraineté avant tout Le projet de suite numérique n’est pas qu’une simple mise à jour technologique. Sa mission, est d’assurer la souveraineté numérique de l’État. L’objectif est de fournir aux millions d’agents publics un environnement de travail dont les données sont hébergées en France et dont le développement, souvent basé sur des fondations open source, est entièrement maîtrisé. Cette approche garantit la transparence, la sécurité et l’indépendance face aux fournisseurs étrangers. Cette vision stratégique est le véritable moteur du projet. L’ambition est grande : redonner aux agents publics des outils sur lesquels l’Etat a réellement la main, sans dépendance à des services étrangers et sans compromis sur les fonctionnalités. Au passage aussi assurer un cout de fonctionnement réaliste face à des hausse d prix annoncées de 30% sur 4 ans pour office 365. La messagerie Tchap devient obligatoire Pour s’assurer que sa suite ne reste pas une option parmi d’autres, l’État a pris une décision radicale. Depuis le 1er septembre 2025, l’utilisation de Tchap, la messagerie instantanée sécurisée, est devenue obligatoire pour les ministères. Cette adoption forcée est une décision stratégique pour surmonter l’inertie administrative et atteindre rapidement une masse critique d’utilisateurs, créant ainsi un effet de réseau indispensable à son succès. Tchap Basée sur le protocole open source Matrix, développée et hébergée en France, Tchap compte déjà plus de 375 000 utilisateurs actifs mensuels bien au-delà des seuls ministères, touchant les collectivités territoriales, les établissements scolaires ou les hôpitaux. Avec des appels de groupe désormais disponibles et une nouvelle version mobile en préparation, cette décision montre que le gouvernement est prêt à imposer ses outils pour garantir la cohérence et la sécurité de ses communications. Grist connaît une croissance spectaculaire Parmi les différents outils, l’un d’eux connaît un succès inattendu : Grist. Cet outil de gestion de données “no-code” permet aux agents, même sans compétences techniques, de créer des tableaux collaboratifs, de visualiser des données et de bâtir de petites applications internes pour suivre des projets ou centraliser des informations. Grist Sa croissance est qualifiée de “spectaculaire” : en seulement un an, Grist est passé de 1 000 à 15 000 utilisateurs actifs mensuels. Ce succès n’est pas anodin ; il s’inscrit dans la tendance de fond du “no-code” qui démocratise la création d’outils métier, un besoin actuel des utilisateurs qui veulent apporter de la valeur sans passer par du code. Il révèle un besoin profond d’agilité pour manipuler et structurer des données sans devoir passer par des développements informatiques complexes. Un partenariat stratégique avec Mistral AI Loin d’être en retard, la Suite Numérique intègre l’une des technologies les plus avancées du moment grâce à l’Assistant. Ce chatbot d’intelligence artificielle générative est le fruit d’un partenariat stratégique avec Mistral AI. Sujet dejà évoqué dans cet article. Mistral ai Actuellement en test auprès de 10 000 agents avant un déploiement général début 2026, l’Assistant est déjà capable de reformuler du texte dans l’outil Doc, la solution de prise de notes collaboratives de la suite, ou de générer les transcriptions des réunions dans Visio. Plus qu’un simple outil, l’IA est pensée comme la future colonne vertébrale de la suite. L’ambition est “d’en faire le fil invisible entre toutes les briques, sans ajouter de complexité”. Cette vision est la réponse stratégique au plus grand défi de la Suite Numérique : l’interopérabilité. Tel que les éditeurs américains le proposent avec leurs suites. L’Assistant n’est pas une fonctionnalité de plus, mais le liant destiné à rendre l’expérience utilisateur aussi fluide que celle des géants du secteur. Visio et ses comptes rendus automatiques La meilleure façon de convaincre est de résoudre des problèmes concrets. C’est exactement ce que fait Visio, l’outil de visioconférence de la suite, qui compte plus de 60 000 utilisateurs mensuels. Sa fonctionnalité la plus marquante est la transcription asynchrone. Concrètement, à la fin de chaque réunion, l’outil génère automatiquement un compte rendu écrit de tous les échanges et l’envoie aux participants. Cette innovation, qui a déjà permis de produire plus de 1 000 comptes rendus pour le seul mois de septembre 2025, n’est pas un simple gain de productivité. Elle transforme la réunion en un document archivable et interrogeable, créant une mémoire institutionnelle automatique, un atout majeur pour la continuité de l’action publique. Des évolutions sont prévues, avec le sous-titrage en temps réel et la synthèse automatique. Visio prouve que la suite cherche à apporter une réelle valeur ajoutée au quotidien des agents et se mets au niveau d’un outil comme Teams. Pro connect pour unifier les identités Pro connect ProConnect est le service d’authentification unifiée développé par la France pour identifier de manière simple et sécurisée les agents de la fonction publique qui accèdent aux services numériques de l’administration. Plutôt que de multiplier les identifiants spécifiques à chaque portail, ProConnect permet à un professionnel d’utiliser une seule identité numérique liée à son adresse e-mail professionnelle et au numéro SIRET de son organisation pour se connecter à de nombreux services publics en ligne, tout en bénéficiant d’une session unique (authentification unique) sur l’ensemble des plateformes « ProConnectées ». Lancé en continuité avec des initiatives comme FranceConnect mais dédié aux usages professionnels, ProConnect remplace et unifie plusieurs anciens services d’authentification (MonComptePro, InclusionConnect, AgentConnect) pour simplifier l’accès des agents publics à leurs outils de travail et celui des entreprises à leurs démarches administratives. Dans une logique de souveraineté numérique, ce service renforce la maîtrise de l’identité et de l’accès aux données par l’État, diminue la dépendance à des solutions commerciales étrangères et facilite l’interopérabilité entre applications publiques, tout en s’appuyant sur des standards ouverts et des infrastructures sécurisées. La Suite Numérique de l’État est bien plus qu’une collection d’outils cotes à cotes. C’est un projet politique et stratégique cohérent, qui affiche des premiers résultats. La volonté politique est forte et déterminée à sortir les éditeurs qui ne sont pas compatibles avec nos objectifs de souveraineté. En s’appuyant sur l’open source, en rendant Tchap obligatoire, en répondant à un besoin métier avec Grist et en intégrant l’IA de pointe de Mistral AI comme futur liant de l’écosystème, la France prouve que son ambition de souveraineté numérique n’est pas un vœu pieux. Le principal défi, reconnu par la Dinum elle-même, sera de concrétiser cette vision d’une interopérabilité parfaite pour offrir une expérience utilisateur aussi fluide que celle des géants du marché. Sur la marché des alternatives crédibles existent comme NEXTCLOUD qui est orienté entreprises. Le plus difficile est de sortir de ses habitudes Microsoft ou Google pour éprouver d’autres solutions tout aussi efficaces par rapport à nos usages et surtout moins couteuses. Par Régis BAUDOUINThe post La suite numérique souveraine first appeared on XY Magazine.
La France légifère contre les ingérences étrangères face aux cyberattaques et aux campagnes de désinformation, cette nouvelle « guerre froide ». Ces menaces proviennent principalement de la Russie, de la Chine. C On a souvent entendu des critiques à l”encontre de pays qui obligent les ONG à s’enregistrer. Cette inscription permet ensuite aux pays concernés de mener des actions contre les personnes engagées dans ces ONG. Obliger une personne à déclarer son activité est à la base un démarche totalitaire. soit l’activité est licite , soit elle le l’est pas et la loi est déjà la pour agir. Le texte de loi n° 2024-850 du 25 juillet 2024, visant à prévenir les ingérences étrangères, constitue une réponse majeure à ce défi. Ce texte entre en application en Octobre 2025. C’est la HAPV qui se voit charger de sa mise en oeuvre. Le rôle de la HAPV contre l’ingérence étrangère La Haute Autorité pour la transparence de la vie publique (HATVP) est une agence de l’Etat. Elle exerce un contrôle étendu et spécifique sur les personnes physiques ou morales tenues de déclarer leurs activités d’influence pour le compte d’un mandant étranger, afin d’assurer la transparence et de prévenir les ingérences. Le nom est un peu trompeur. la HAPV n’est pas là pour garantir aux citoyens une transparence politique et économique. Elle est là pour protéger l’Etat. Le contrôle exercé par la HATVP se déploie à travers plusieurs outils et procédures coercitives dpécifiques. La mission principale de la HATVP est de s’assurer du respect des obligations prévues par la loi. Ce contrôle porte sur : Le respect des obligations déclaratives, notamment la complétude et l’exactitude des informations communiquées. Le respect des règles déontologiques qui imposent, par exemple, de déclarer son identité et les intérêts représentés lors des communications, et de s’abstenir de proposer des avantages d’une valeur significative aux responsables publics. Procédures d’Enquête et de Vérification La Haute Autorité dispose de plusieurs pouvoirs pour vérifier l’information et obtenir la conformité : La HATVP peut agir à son initiative ou à la suite d’un signalement. S’il existe des raisons sérieuses de penser qu’une personne est soumise à l’obligation de déclaration, la Haute Autorité peut la mettre en demeure de lui communiquer, dans un délai d’un mois, toute information ou tout document nécessaire à l’exercice de sa mission. La HATVP peut également demander aux responsables publics contactés (membres du Gouvernement, parlementaires, élus locaux, etc.) de lui communiquer la liste des personnes tenues de déclarer qui sont entrées en communication avec eux. Perquisition Administrative La HATVP dispose d’un pouvoir de vérification sur place dans les locaux professionnels des déclarants. Cette vérification nécessite l’autorisation du juge des libertés et de la détention (JLD) du tribunal judiciaire de Paris. Les vérifications sont menées en présence d’un officier de police judiciaire. Les agents de la HATVP peuvent exiger la communication et obtenir ou prendre copie de tous documents professionnels de toute nature. Avis Consultatif La HATVP peut être saisie par les responsables publics pour obtenir un avis sur la qualification d’une activité, afin de savoir si une personne physique ou morale est soumise à l’obligation de déclaration. Sanctions en Cas de Manquement Si la HATVP constate un manquement aux obligations déclaratives ou déontologiques, elle applique une gradation des mesures : Mise en Demeure (Formal Notice) Elle adresse au déclarant, après l’avoir invité à présenter ses observations, une mise en demeure de respecter ses obligations. Cette mise en demeure peut être rendue publique. Sanctions Pénales Le non-respect de l’obligation de communication des informations à la HATVP (de sa propre initiative ou à sa demande) est puni par des sanctions pénales spécifiques : Pour les personnes physiques : trois ans d’emprisonnement et 45 000 euros d’amende. Pour les personnes morales : 225 000 euros d’amende, ainsi que d’autres peines comme l’interdiction d’émettre des chèques, la confiscation, l’affichage public de la peine, ou l’interdiction de recevoir toute aide publique pendant cinq ans ou plus. Ce dispositif de contrôle permet à la HATVP de jouer un rôle central, non seulement en gérant le répertoire numérique, mais aussi en assurant l’intégrité des informations et en appliquant des mesures coercitives pour garantir que les actions d’influence étrangère, considérées comme légitimes, soient menées dans la transparence requise par la loi. Cette autorité c’est une police politique avec un habillage déontologique. L’influence étrangère n’est pas (toujours) de l’ingérence Contrairement à une idée largement répandue, la loi n’a pas pour objectif d’interdire toute forme d’influence étrangère sur le sol français. Le législateur reconnaît au contraire que les stratégies d’influence sont une « composante légitime des relations internationales ». C’est ce type de texte qui me fait toujours dire que la loi met le loup dans bergerie dès sont premier article. En fait c’est autorisé sauf quand on va décider que c’est interdit. L’objectif principal n’est donc pas la prohibition, mais la clarification. En obligeant les acteurs agissant pour le compte de puissances étrangères à déclarer leurs actions, la loi vise à rendre ces activités transparentes. Cette transparence doit permettre de mieux distinguer l’influence légitime, qui promeut des intérêts, de l’ingérence illégale, qui, elle, « a pour objectif de déstabiliser les institutions d’un État et porter atteinte à l’intégrité de ses intérêts nationaux ». Le mot d’ordre est donc la transparence, pas l’interdiction. C’est assez troublant de mettre en place des listes. Liste d’influenceur légaux par rapport à des influenceurs illégaux. Quelle est la limite entre le jeu démocratique et le totalitarisme. Pensez-vous vraiment qu’une personne qui sait qu’elle agit contre la loi va venir s’inscrire sur la liste ? Cela permet surtout au besoin de faire condamner une personne pour ne pas avoir été sur la liste. L’Europe n’est pas considérée comme “étrangère” La définition du « mandant étranger » est au cœur du dispositif. La loi le définit de manière très précise : il s’agit d’une puissance hors Union européenne, d’une entreprise qu’elle contrôle ou finance majoritairement, ou encore d’un parti politique étranger non européen. Par conséquent, les actions d’influence menées pour le compte d’un État membre de l’Union européenne ne sont pas soumises à cette nouvelle obligation de déclaration. Cette distinction est fondamentale : elle ancre le dispositif dans une logique où l’Union européenne n’est pas un espace étranger mais un projet d’intégration politique fondé sur des valeurs démocratiques et un marché unique. Le législateur considère ainsi que les influences intra-européennes relèvent d’un jeu d’échanges légitime, à l’inverse des manœuvres de déstabilisation stratégique que la loi cherche à contrer de la part d’acteurs étatiques externes. Quelle périmètre pour ce texte Lorsqu’on pense à l’influence étrangère, on imagine souvent des actions visant les ministres, les parlementaires ou l’Élysée. La nouvelle loi voit beaucoup plus large et étend la notion de « responsable public » à un périmètre étonnamment vaste. Sont notamment concernés par les actions d’influence à déclarer : • Les maires des communes de plus de 20 000 habitants et les présidents d’établissements publics de coopération intercommunale (EPCI). • Les anciens présidents de la République, anciens membres du Gouvernement, anciens députés et anciens sénateurs, pendant une période de cinq ans après la fin de leurs fonctions. • Les candidats déclarés aux élections présidentielles, législatives, sénatoriales ou européennes. • Les dirigeants d’un parti ou d’un groupement politique. Cette vision large est une reconnaissance du fait que l’influence ne s’exerce pas uniquement dans les ministères parisiens. Des décisions cruciales en matière d’urbanisme, de marchés publics ou d’infrastructures se prennent au niveau local, et le parcours d’un responsable politique, avant et après son mandat national, constitue une fenêtre d’opportunité pour les acteurs étrangers. Le débat sur la méthode Si l’objectif de transparence est largement partagé et souhaitable, la méthode choisie par le gouvernement est loin de faire l’unanimité. L’association Transparency International France a vivement critiqué la création d’un second répertoire dédié à l’influence étrangère, distinct du registre des lobbyistes déjà existant depuis la loi « Sapin 2 » de 2016. L’argument central de l’ONG est que cette démarche est redondante. En effet, le répertoire Sapin 2, conçu pour être universel, « inclut déjà en partie les influences étrangères », et la HATVP elle-même avait clarifié que les entités étrangères devaient s’y déclarer. L’ONG craint que ce choix n’ajoute de la complexité, n’affaiblisse le dispositif existant et ne soit finalement qu’une mesure « cosmétique ». La véritable lutte contre les ingérences appartient aux services répressifs et aux services de renseignement, pas à un dispositif de transparence géré par la HATVP. Les vrais espions ne s’inscriront jamais Ce point de vue est partagé par plusieurs analystes qui soulignent les limites inhérentes à un tel dispositif. Les acteurs menant des opérations d’ingérence clandestines, malveillantes et illégales ne se déclareront évidemment jamais sur un registre public géré par la Haute Autorité pour la transparence de la vie publique (HATVP). La loi permettra donc surtout d’établir une « cartographie officielle des réseaux d’influence étrangère » légitimes ou semi-légitimes en France. C’est un outil de connaissance qui sera largement faussé. Il ne faut pas s’attendre à y voir apparaîtr
L’Etat français est-il toujours souverain, c’est la question que l’on peut se poser pour plusieurs raisons. Souveraineté numérique de la France L’intégration de la France dans l’ensemble européen impose de renoncer à des compétences régaliennes. Le niveau de dette rend la politique française dépendante de ses créanciers. Mais le destin numérique de la France est-il bien protégé. Un rapport récent de la cour des comptes nous éclaire sur ce sujet. L’Etat français est-il toujours souverain On imagine que l’État protège jalousement ses données les plus sensibles, les enfermant dans des forteresses numériques impénétrables. La souveraineté numérique est devenue un mot d’ordre politique, une promesse de contrôle et d’indépendance face aux géants technologiques étrangers. Ceux que l’on nomme les GAFAM. Le paradoxe standard du marché ou souveraineté Il faut garder en tête que les standard du marché sont américains et ensuite Chinois. L’Europe arrive ensuite en ordre dispersé. Sur le plan analytique, il existe une tension concernant la politique numérique française : d’un côté, l’ambition affichée de souveraineté ; de l’autre, le besoin des administrations de disposer d’outils performants, modernes et à un coût maîtrisé. J’ajoute aussi que les agents de l’Etat veulent utiliser des outils qu’ils connaissent car ils ont été formés dessus avec ou en disposent chez eux. Bien souvent, c’est le second impératif qui l’emporte. Le cas le plus notable est celui du nouveau système d’information de ressources humaines du ministère de l’Éducation nationale, Virtuo, pour lequel le ministère a choisi une solution cloud opérée par une entreprise américaine. Ce choix a été fait en passant outre les recommandations initiales de la doctrine “Cloud au centre”, car aucune offre souveraine ne répondait aux exigences de performance et de coût. Le ministère estime a posteriori que sa décision est conforme à la version finale de la loi SREN, qui a restreint le champ d’application de l’obligation de souveraineté en exigeant non seulement que les données soient sensibles, mais aussi que leur violation présente un risque direct pour l’ordre public. Quand la loi se met elle même une balle dans le pied et fait de la vertu un vice. Circulaire Cloud au centre Revenons sur ce texte important, la circulaire cloud au centre. La doctrine « Cloud au centre » est une orientation édictée par le Premier ministre pour que les administrations privilégient les infrastructures cloud (informatique en nuage) pour leurs nouveaux projets numériques. Le cloud est appelé à devenir l’environnement par défaut de tout nouveau projet informatique de l’État. Cette doctrine est la déclinaison opérationnelle de la Stratégie nationale pour le cloud lancée en mai 2021, qui vise à encourager l’utilisation du cloud tout en assurant l’autonomie de l’État, la maîtrise de ses données et le respect des règles européennes en matière de protection des données à caractère personnel. Version de juillet 2021 : La première version de la circulaire, diffusée en juillet 2021, stipulait que toute application manipulant des données d’une sensibilité particulière, notamment les données personnelles des citoyens français, devait être hébergée sur une infrastructure souveraine. Voir mon article sur ce sujet ici Version de mai 2023 : La doctrine a été mise à jour en mai 2023 (circulaire n° 6404/SG). Cette version a restreint l’obligation de recourir à une offre souveraine, ne l’exigeant que lorsque deux critères sont cumulativement observés : Les données doivent relever de secrets protégés par la loi. Leur violation doit être susceptible « d’engendrer une atteinte à l’ordre public, à la sécurité publique, à la santé et à la vie des personnes, ou à la protection de la propriété intellectuelle ». Voilà comment faire entrer le loup dans la bergerie. Loi SREN : Ces critères cumulatifs ont été élevés au niveau législatif par l’Article 31 de la loi du 21 mai 2024 visant à sécuriser et à réguler l’espace numérique (dite loi SREN). La restriction du champ d’application de cette obligation visait notamment à consolider la doctrine sur le plan juridique en limitant les risques de recours par des opérateurs étrangers au regard des règles du marché intérieur européen et du principe de non-discrimination de l’OMC. Le Cloud de confiance et SecNumCloud Le concept de « cloud de confiance » remplace la notion initiale de « cloud souverain ». Il repose sur deux solutions jugées équivalentes en termes de sécurité pour les données sensibles : Les clouds internes de l’État (dits du 1er cercle), comme Nubo (opéré par la DGFiP) et Pi (opéré par le ministère de l’Intérieur). Les offres commerciales qualifiées SecNumCloud. La qualification SecNumCloud est un référentiel d’exigences techniques, opérationnelles et juridiques élaboré par l’Agence nationale de la sécurité des systèmes d’information (Anssi). Il garantit le plus haut niveau de sécurité pour les services de l’État et les opérateurs d’importance vitale (OIV). Un apport essentiel de ce référentiel est l’accent mis sur la souveraineté. Il garantit une immunité aux lois non européennes à portée extraterritoriale, telles que le Cloud Act ou le Foreign Intelligence Surveillance Act (Fisa) américain. Cela impose notamment que le siège social du prestataire soit situé dans l’Union européenne et qu’une entité non européenne ne détienne pas, à elle seule, plus de 24 % du capital et des droits de vote du prestataire. Les limites de la mise en œuvre Cloud au centre Malgré l’ambition politique affichée, la mise en œuvre de la doctrine « Cloud au centre » rencontre des difficultés. Bien que la commande publique en services cloud soit passée de 1 M€ en 2020 à 52 M€ en 2024, atteignant 120 M€ au total sur cette période, cela reste très modeste par rapport aux dépenses informatiques annuelles de l’État, de l’ordre de 3 Md€. De plus, le recours aux solutions qualifiées SecNumCloud induit un surcoût par rapport aux offres cloud non qualifiées, estimé entre +25 % et +40 %. Ce point est à challenger car, pour avoir fait le travail de passer tout une entreprise SECNUMCLOUD, cela à pu être fait à ISO cout en partant d’un système déjà Cloud. C’est sur que si on part de On premise, on a ce surcout. Mais on ne compare pas la même solution. Cloud au centre L’échec des clouds internes Face à la domination des géants américains, l’État a tenté de construire ses propres solutions Cloud souverain. Deux clouds interministériels ont ainsi vu le jour : Nubo, porté par le ministère des Finances, et Pi, porté par celui de l’Intérieur. L’ambition était de fournir une alternative sûre et maîtrisée pour les données les plus sensibles. La réalité est cependant bien loin des ambitions affichées. Les chiffres sont sans appel : “la part d’interministériel pour les clouds Pi et Nubo plafonne à 5 %”. En clair, ces solutions sont très peu utilisées en dehors des ministères qui les ont créées. La raison principale ? Un sous-investissement chronique. Le rapport note que Nubo a coûté 55 millions d’euros en neuf ans, une somme modeste au regard des dépenses numériques annuelles de l’État qui s’élèvent à environ 3 milliards d’euros. En conséquence, la gamme de services offerts reste limitée et la tarification est jugée inadaptée. Cet échec à attirer les utilisateurs empêche Nubo et Pi d’atteindre la “taille critique” nécessaire pour justifier de nouveaux investissements, créant ainsi un cercle vicieux de sous-performance et de sous-utilisation qui les rend non compétitifs. Peut être aussi la stratégie n’est pas bonne de vouloir créer son propose cloud plutôt qu’externaliser cela à un hyperscaler souverain qui pourra mutualiser les couts. La souveraineté SECNUMCLOUD un coût : jusqu’à 40 % plus cher Qu’est-ce qu’une solution numérique “vraiment” souveraine ? En France, le plus haut standard est défini par la qualification SecNumCloud, délivrée par l’Agence nationale de la sécurité des systèmes d’information (ANSSI). Ce label garantit non seulement un très haut niveau de sécurité technique, mais aussi une immunité juridique contre les lois extraterritoriales, comme le fameux Cloud Act américain. Cette loi qui permet aux autorités américaines de contraindre les fournisseurs de services américains à livrer des données, où qu’elles soient stockées dans le monde. Services secnumcloud Cette garantie a un prix. Le rapport de la Cour des comptes met un chiffre précis sur ce coût, une donnée rarement rendue publique : le surcoût d’une infrastructure qualifiée SecNumCloud par rapport à une offre cloud traditionnelle est estimé “entre +25 et +40 %”. De nouveau, je pense que ce montant est un maximum et que en faisant appels à un hyperscaler et en optimisant, on peut le faire à iso cout. Marché public cloud Vos logiciels de bureautiques sont un enjeu stratégique majeur D’un point de vue politique, le débat sur la souveraineté devient le plus tangible lorsqu’il touche aux outils quotidiens des agents publics. Exemple très concret des suites bureautiques pour illustrer ce défi. La dépendance historique de l’administration française à la suite Microsoft Office est devenue un problème stratégique lorsque l’entreprise a commencé à pousser agressivement son offre cloud, Microsoft 365. Face à ce mouvement, la Direction interministérielle du numérique (DINUM) a demandé aux ministères de ne pas y souscrire, afin de protéger la souveraineté des communications électroniques. La réponse de l’État a été pour le moins fragmentée. D’un côté, le ministère de l’Éducation nationale, le plus grand employeur de France, a entrepris de remplacer la suite Office par une solution basée sur un logiciel libre (Collabora Online). De l’autre, la DINUM, l’autorité numérique de l’État, développe sa propre alternative (“La Suite”) en coopération avec l’Allemagne et les Pays-Bas. Cette divergence entre le plus g
La commission européenne créé le score de souveraineté. Elle introduit un cadre pour un cloud de confiance qui inclut un système de score de souveraineté destiné principalement aux marchés publics. Sur la papier, c’est important de permettre aux acheteurs public de disposer d’une score de souveraineté pour qualifier leur démarche d’achat responsable et souverain. Pour bien l’utiliser, il faut comprendre comment il est calculé. Ce système évalue les offres de fournisseurs cloud sur huit critères, allant de l’ancrage juridique et financier à la protection des données et à la résilience opérationnelle, attribuant un niveau de service allant de 0 à 4 pour chaque pilier. L’initiative s’appuie sur plusieurs référentiels existants, notamment Gaia-X et les politiques nationales comme SecNumCloud en France. Cette méthodologie fait face à des critiques de l’association CISPE, qui la juge opaque et estime qu’elle pourrait involontairement favoriser les grands fournisseurs américains. Les discussions portent également sur la complexité du calcul du score final, qui repose sur une formule pondérée des différents critères. La bureaucratie va-t-elle protéger le marché européen ou avoir l’effet inverse ? Le « score de souveraineté » cloud de l’Union Européenne La souveraineté numérique est un enjeu stratégique majeur pour l’Europe. Faute de champions mondiaux dans tous les segment stratégiques, ll faut protéger les quelques entreprises européennes qui se battent face à des géants. Il faut également accepter d’acheter non souverains en connaissance de cause. Pour les organismes publics, choisir un service cloud qui garantit la protection des données et une indépendance vis-à-vis des puissances étrangères est un véritable casse-tête. Face à la domination des géants technologiques américains et chinois, comment s’assurer qu’une offre est véritablement “de confiance” et alignée avec les intérêts européens ? La circulaire Cloud au centre et la transposition de la directive NIS 2 obligent ces entités publiques à prendre des décisons souveraines en matière de Cloud. Etant obligé de composer avec les composants Cloud chinois et américains (Routeurs, OS, licences), à partir de quel niveau la souveraineté est en péri l? Pour répondre à cette question, la Commission européenne vient de dévoiler une initiative ambitieuse : un cadre de référence accompagné d’un “score de souveraineté” pour évaluer les fournisseurs de cloud. L’objectif est de fournir aux acheteurs publics un outil concret pour mesurer et comparer les offres. Cependant, loin de faire l’unanimité, cette solution a immédiatement déclenché une vive controverse. L’Europe veut quantifier la souveraineté C’est une approche cartésienne. On créé des critères et un indice pour aider le secteur public à prendre les bonnes décisions. C’est comme le nutri score pour les aliments. Pour les amateurs et connaisseurs, je vous ai fait la copie de la formule du score de souveraineté. #formule cloud souverain Si avec cela vous doutez encore… La Commission européenne a mis en place un cadre formel destiné aux autorités publiques pour mesurer la souveraineté des offres cloud. Cette démarche ne part pas de zéro ; elle s’appuie sur des initiatives reconnues comme Gaia-X et le référentiel du Cigref, sur des politiques nationales comme SecNumCloud en France et le standard C5 en Allemagne. Le tout dans un cadre européen de certification de cybersécurité (Enisa, NIS2, Dora). L’ambition est donc d’intégrer cette mesure dans l’arsenal réglementaire plus large de l’UE. Le cœur du système est un score basé sur huit “objectifs de souveraineté” (SOV). Pour chaque objectif, un niveau de service (SEAL) est attribué, allant de 0 à 4. Le niveau 0 signifie que le service, la technologie ou les opérations sont sous le contrôle exclusif d’entités non-européennes, Le niveau 4 garantit une technologie et des opérations sous contrôle total de l’UE, soumises uniquement au droit européen et sans dépendances critiques extérieures. La grille d’analyse se veut exhaustive, couvrant les aspects suivants : Le degré d’ancrage du fournisseur au sein de l’écosystème juridique, financier et industriel de l’UE. L’exposition juridique à des autorités étrangères. La protection et le contrôle des données et des services IA. La souveraineté opérationnelle (continuité, disponibilité des compétences, résilience). La résilience de la supply chain (chaîne d’approvisionnement). La dépendance technologique. La sécurité et la conformité. Les efforts en termes de développement durable. Critique de la méthode L’association CISPE, qui regroupe les fournisseurs de cloud européens, est la première à monter au créneau. Selon elle, le cadre proposé est opaque et, dans sa forme actuelle, il favoriserait les “hyperscalers étrangers” (AWS, Microsoft, Google Cloud) au détriment des acteurs purement européens. On constate bien en lisant certains annonces que prétendre faire du Cloud souverain avec AWS ou GOOGLE, c’est normalement pas compatible. Pourtant des entreprises publiques communiquent dessus et contractualisent. Regardons l’exemple de EDF qui a annoncé la semaine dernière avoir confié ses données à Sens L’association va plus loin, accusant la démarche d’être intentionnelle. Elle suggère que ce cadre pourrait servir de prétexte aux organismes du secteur public pour ne pas résilier leurs contrats existants avec les géants américains. CISPE juge également certains objectifs, comme “le contrôle total de l’UE sur chaque composant matériel”, comme étant tout simplement irréalisables en pratique pour la majorité des acteurs. Pour avoir visité le centre de production de OVHCloud. Certains hébergeurs produisent eux-mêmes leurs matériels. C’est ce qui est étonnant chez OVHcloud, la visite commence par l’usine de production des serveurs. Voici ce qui est publié sur le site OVHcloud au sujet de leur capacité industrielle à produire leurs serveurs: Un cloud durable by design Nous produisons nos propres serveurs et les désassemblons à 100% afin qu’ils vivent jusqu’à 3 vies Grâce à 20 ans d’innovation, nous utilisons 7 fois moins d’eau que nos concurrents pour refroidir nos serveurs   Notre efficacité énergétique (PUE) est de 1,28 vs. 1,57 pour la moyenne du marché 25 de nos 43 datacenters sont installés dans des bâtiments réhabilités 100% énergies bas carbone d’ici 2025 0% mise en décharge d’ici 2025 Enfin, la méthode de calcul du score elle-même est critiquée. En se basant sur “une moyenne de moyennes pondérées”, la Commission européenne créerait, selon CISPE, un système qui manque cruellement de transparence. Cette critique est d’autant plus vive lorsque l’on examine la pondération des critères, Une pondération qui interroge Pour calculer la note finale, la Commission européenne a attribué une pondération différente à chaque famille de critères. Cette répartition des poids est au cœur des débats et révèle des choix politiques forts. Les pourcentages attribués aux principaux piliers sont les suivants : Supply chain : 20% Les volets opérationnels, stratégiques et technologiques comptent collectivement pour : 15% Parties juridiques et conformité : 10% Le point le plus frappant est la pondération de la supply chain à 20 %, la plus élevée de toutes. Or, c’est précisément ce critère que les fournisseurs européens, via CISPE, jugent “irréalisable”, car il implique un contrôle sur des chaînes d’approvisionnement matérielles mondialisées et largement dominées par des acteurs non-européens. Cette pondération semble ainsi renforcer l’argument selon lequel le score est taillé pour les hyperscalers qui maîtrisent ces chaînes. À l’inverse, le poids relativement faible des aspects juridiques et de conformité (10 %) surprend. Ces critères sont pourtant cruciaux pour évaluer la protection d’un service face aux lois à portée extraterritoriale, l’une des menaces fondamentales pour la souveraineté des données européennes. Espérons que ces pondérations vont évoluer pour aller dans un autre sens. Un premier pas nécessaire Malgré les critiques , certains saluent l’initiative comme un “premier pas” indispensable pour enfin définir et mesurer objectivement la souveraineté d’une offre cloud. Il s’agit d’une tentative de standardisation attendue de longue date. Cette indice permet aussi de se positionner et de détecter les points faibles d’une stratégie Cloud. Des questions très concrètes émergent, notamment sur le cas des offres hybrides. Comment le score évaluera-t-il des offres comme Bleu ou S3NS, notamment sur les critères d’exposition juridique à des autorités étrangères et de dépendance technologique, alors que leur modèle repose précisément sur une technologie américaine opérée par une entité européenne ? Les Directeurs des Systèmes d’Information (DSI), les Responsables de la Sécurité des Systèmes d’Information (RSSI) et les fournisseurs eux-mêmes devront s’approprier rapidement cette méthodologie et l’intégrer dans leurs grilles d’analyse. Elle pourra aussi faire l’objet de critères techniques des appels d’offre (dans les CCTP). Conclusion L’initiative de la Commission européenne est une démarche conçue pour apporter clarté et promouvoir la souveraineté cloud. Comme souvent la commissions est accusée de complexité et de favoritisme envers les acteurs non-européens qu’elle était censée réguler. L’outil est sur la table, mais son calibrage et sa pondération pourraient bien déterminer son impact réel. Pour mesurer l’impact du score de souveraineté, il faudra mesurer son utilisation par les acheteurs publics et son exigence dans les dossiers de consultation. Pour le moment ce n’est pas le cas. On constate que la qualification SECNUMCLOUD est souvent demandée. C’est déjà un bon point. Par régis BAUDOUINThe post La commission européenne créé le score de souveraineté first
La souveraineté chinoise passe aussi par un BIOS Ce mois-ci la Chine a présenté son BIOS nommé UBIOS qui doit remplacer les BIOS actuels. Il sera présent dans les PC qui seront produits et utilisés en Chine. Cela fait partie de la guerre hybride que mènent les grandes puissances. Le ubios chinois Le BIOS (Basic Input/Output System) est un micrologiciel intégré à la carte mère d’un ordinateur qui joue un rôle fondamental lors du démarrage du système. Son principal objectif est d’assurer l’initialisation et le test des composants matériels essentiels, comme le processeur, la mémoire vive (RAM), les disques durs et les périphériques d’entrée/sortie.  Une fois ces vérifications terminées, le BIOS charge le système d’exploitation depuis un support de stockage (disque dur, clé USB, etc.). Stratégie de la Chine pour Bâtir son Autonomie Technologique Ubios La Fin de la domination américaine Pendant des décennies, le monde de la technologie a fonctionné sur un modèle d’interconnexion. Les géants américains comme Microsoft, Dell, IBM et Cisco étaient omniprésents en Chine, fournissant les infrastructures matérielles et logicielles qui ont alimenté une croissance industrielle fulgurante. Cette ère de collaboration, perçue comme une aubaine, masquait en réalité une dépendance stratégique que Pékin a jugé intolérable. Ceci d’autant plus que certains composants son soupçonnés de contenir des backdoor ou leur micologiciels de collecter des données. La Chine a déjà construit son propre réseau internet qui n’est pas celui que vous connaissez ici. Aujourd’hui, la Chine mène une campagne discrète mais massive pour démanteler cette dépendance. Loin de se limiter au remplacement de logiciels, cette stratégie s’attaque aux fondations mêmes de l’informatique. De la production jusqu’au cœur du matériel. Il ne s’agit plus de choisir une alternative locale, mais de bâtir un écosystème technologique entièrement souverain. Tout part du Document 79 : L’Ordre Secret pour Effacer l’Amérique Le point de départ de cette offensive est un ordre secret connu sous le nom de “Document 79”. Émise en septembre 2022 par la Commission de Supervision et d’Administration des Actifs de l’État, son objectif est radical : obliger les entreprises publiques des secteurs les plus critiques, comme la finance et l’énergie, à remplacer tous les logiciels étrangers. Ce document cible en particulier les américains. Tous ces composants doivent être remplacés par des alternatives locales d’ici 2027. La chine a décidé de cette stratégie suite à l’escalade des tensions technologiques et commerciales avec Washington. En particulier après l’intensification des restrictions à l’exportation de puces et des sanctions imposées par les États-Unis aux entreprises technologiques chinoise. Politique qui continue actuellement. Le niveau de confidentialité entourant cet ordre était extrême. Selon plusieurs sources, les hauts fonctionnaires et les dirigeants concernés n’étaient autorisés à consulter le document qu’en personne, sans jamais pouvoir en faire de copies. Dans certains cercles, cette directive a même été surnommée “Delete A” pour “Delete America”. Il s’agit d’un signal sans ambiguïté : la Chine ne négocie plus sa place dans l’écosystème existant, elle en bâtit un autre, à ses conditions. L’Impact Concret sur les Entreprises Américaines Cette politique n’est pas qu’un projet théorique ; ses conséquences sont déjà mesurables et impactantes pour les plus grands noms de la tech américaine. Les chiffres témoignent d’un changement de marché brutal et rapide. Hewlett Packard Enterprise (HPE) : Ses revenus en Chine, qui représentaient 14,1 % de son total chiffre d’affaires en 2018, ont chuté à seulement 4 % en 2023. Signe d’une retraite stratégique, HPE a annoncé en mai 2023 envisager la vente de sa participation de 49 % dans sa coentreprise chinoise. Dell : Sa part de marché des ordinateurs personnels en Chine a été presque divisée par deux au cours des cinq dernières années. Cisco : Dès 2019, l’entreprise signalait déjà perdre des contrats au profit de fournisseurs locaux, en raison d’une forte tendance à l’achat nationaliste. Microsoft : Les ventes du géant du logiciel en Chine ne représentent plus aujourd’hui que 1,5 % de ses ventes totales. Pour un marché de cette taille, ce chiffre est remarquablement bas et illustre l’érosion profonde de l’influence du géant du logiciel dans les ventes directes. IBM : Après avoir vu ses bénéfices diminuer de manière constante, la société a été contrainte de réduire ses opérations de recherche à Pékin en 2021. À cette liste s’ajoutent des entreprises de logiciels comme Adobe, Citrix et Salesforce, qui ont toutes réduit ou retiré leurs opérations directes en Chine. Ce point est particulièrement percutant car il traduit une stratégie politique abstraite en pertes de parts de marché réelles et massives pour des entreprises qui ont longtemps dominé le paysage technologique mondial. Vu de la France on ne se rend pas compte de la force de cette politique, ni de l’impact sur l’industrie de la tech. Car bientôt la Chine va venir en Europe avec ses solutions souveraines. Au-delà du Logiciel : UBIOS, une Révolution au Cœur du Démarrage des PC Si le remplacement des logiciels est une étape visible, la stratégie chinoise va beaucoup plus loin, jusqu’à la couche la plus fondamentale d’un ordinateur : le firmware de démarrage. La Chine a développé UBIOS (Unified Basic Input Output System), une alternative entièrement nationale à l’UEFI, le standard qui lance la quasi-totalité des PC dans le monde avant même le démarrage de Windows ou de Linux. Développé par le Global Computing Consortium (GCC),est un regroupement de 13 entreprises chinoises incluant Huawei. Ce nouveau standard (identifié par le code T/GCC 3007-2025) a été conçu à partir de zéro L’UEFI, historiquement lié à Intel et Microsoft, est jugé “lourd” et inefficace pour les nouvelles architectures informatiques hétérogènes et les “Chiplets” (puces modulaires) que la Chine développe activement. L’innovation majeure d’UBIOS réside dans son “Bus Virtuel Unifié” (UVB). Alors que les firmwares traditionnels ont des interactions complexes et rigides, l’UVB crée une interface de communication standardisée, simplifiant drastiquement les échanges entre tous les composants. En remplaçant l’UEFI, la Chine ne se contente pas de changer d’applications ; elle s’approprie la clé de contact de ses systèmes informatiques, garantissant une indépendance et une sécurité quasi totales. Alors que l’UEFI a dominé le marché en évoluant à partir du BIOS traditionnel pour surmonter des limitations historiques (comme la prise en charge de disques de plus de 2 To et des démarrages plus rapides), l’UBIOS est un cadre entièrement nouveau axé sur la sécurité nationale, la gestion de l’hétérogénéité des puces et l’établissement de la Chine comme fixateur de normes dans les technologies émergentes. Le UBIOS support d’autres plateformes que Intel, présente une expérience utilisateur bien plus simple et intimidante que les BIOS actuels. Actuellement les interface bios présentent souvent des options non documentées correctement ou obscures. L’utilisateur ne comprend pas leur fonction. Une Vision d’Avenir : Plus qu’une Simple Réponse aux Sanctions Il serait erroné de voir cette quête d’autonomie comme une simple réaction défensive aux sanctions américaines. Il s’agit en réalité d’une stratégie offensive et à long terme, connue sous le nom de “Xinchuang” (“innovation informatique”). Cette politique vise à garantir la sécurité et la fiabilité des technologies nationales. Cette initiative s’inscrit dans la vision économique plus large du président Xi Jinping, la “double circulation”, qui a pour but de réduire la vulnérabilité de la Chine aux chocs externes en s’appuyant sur la production et la consommation nationales. L’objectif n’est donc pas seulement défensif, mais vise à inverser les rôles : passer du statut de “preneur de standards” (standard-taker) à celui de “créateur de standards” (standard-setter). En établissant ses propres normes pour les technologies de nouvelle génération, Pékin ambitionne de transformer le reste du monde de fournisseur en simple client, voire en suiveur. Vers une guerre Numérique Mondiale ? Les faits sont sans équivoque : la Chine n’est pas seulement en train de remplacer la technologie occidentale. Elle construit brique par brique un écosystème technologique parallèle, complet et souverain, du logiciel le plus visible au firmware le plus enfoui. Cette démarche met fin à des décennies de standards technologiques partagés et annonce une nouvelle ère de compétition. La souveraineté chinoise est un objectif politique. Dès qu’elle aura complété son écosystème, elle commercialisera en Europe ses systèmes aux normes chinoises. En Europe des voix tirent la sonnette d’alarme pour constituer ici aussi un écosystème propre. Elle sont entendues mais, la volonté collective n’est pas là. Là ou les USA et la Chine sont une seule nation on est 27 pays. Sources de l’article : Blog convergia sur le document 79 WCCFTECH sur le lancement du BIOS uBIOS Par régis BAUDOUINThe post La souveraineté chinoise passe aussi par un BIOS first appeared on XY Magazine.
loading
Comments