DiscoverXY Magazine
XY Magazine
Claim Ownership

XY Magazine

Author: Régis BAUDOUIN

Subscribed: 2Played: 9
Share

Description

Le podcast de la génération X et Y. On traite de sujets touchant à la tech, innovation, cyber, souveraineté, sobriété, enjeux sociétaux
158 Episodes
Reverse
Y-a-t-il un pilote qui contrôle le budget de l’Etat; c’est la question que l’on peut se poser quand on voit la situation des finances. On exprime souvent les dépenses en pourcentage du PIB, mais jamais en rapport avec les recettes. C’est pourtant le ratio le plus simple. Les chiffres du budget sont ceux du ministère du budget. En 2025 montant des recettes de l’Etat : 370 577 000 000 € soit 370 milliard. En 2025 montant des dépenses de l’Etat : 817 356 000 000€ soit 817 milliard. Pour faire simple quand l’Etat reçoit 1 € il dépense 2.2 €. Quand on dépense plus de deux fois les revenus on est pas du tout bien géré. Y-a-t-il un pilote qui contrôle le budget de l’Etat Chaque citoyen attend, à juste titre, que l’État gère l’argent public avec la même rigueur qu’une entreprise performante. Pour répondre à cette exigence, un concept a été importé du secteur privé au début des années 2000 : le “contrôle de gestion”. L’objectif était de transplanter dans l’administration une culture du résultat pour enfin passer d’une “logique de moyens” à une “logique de performance”. Mais, comme pour une greffe d’organe, l’opération n’a de sens que si le corps receveur ne la rejette pas. Un rapport récent de la Cour des comptes dresse le tableau d’une “ambition perdue de vue”, révélant que le problème n’est pas technique, mais bien culturel et politique. Nous allons voir en quatre chapitres comment une idée juste s’est heurtée à la culture administrative, la transformant en un exercice de style déconnecté de sa finalité. Un “contrôle de gestion” qui oublie de contrôler les coûts Dans le secteur privé, la définition du contrôle de gestion est simple : c’est un outil essentiel pour maîtriser les coûts et optimiser la performance financière. Or, le constat de la Cour des comptes sur son application dans les services de l’État est sans appel : sa mise en œuvre est apparue “très largement déconnectée de la recherche d’économies budgétaires”. Ce paradoxe est au cœur de l’échec. L’outil même qui devait rationaliser la dépense a été déployé en oubliant sa fonction première. Le rapport ne se contente pas de ce constat, il en livre la cause culturelle : “une forme de désintérêt pour les questions budgétaires perçues, à tort, comme des questions d’intendance”. Autrement dit, l’outil s’est heurté à une culture administrative qui sépare le “noble” travail de conception des politiques publiques de la gestion “subalterne” des finances. En somme, l’État s’est doté d’un compteur de vitesse sans jamais regarder le niveau de carburant, alors même que, comme le rappelle la Cour, “la situation générale des finances publiques fait peser une exigence renouvelée sur la maîtrise de la dépense”. La superposition de systèmes de performance concurrents Plutôt que de clarifier le pilotage, l’État a réussi à créer deux systèmes de mesure de la performance qui se superposent et servent des maîtres différents. Le premier, issu de la loi organique relative aux lois de finances (LOLF) de 2001, s’incarne dans les projets annuels de performances (Pap) et les rapports annuels de performances (Rap). Pensé comme un outil de redevabilité envers le Parlement, son bilan est jugé “globalement décevant” après vingt ans d’existence. Pour y remédier, un second dispositif a été lancé en 2022 : les “Politiques Prioritaires du Gouvernement” (PPG). Mais au lieu de remplacer l’ancien système, le rapport souligne que ce nouveau dispositif “s’y est plutôt superposé”, créant “une forme de confusion” et existant “sans synergies évidentes”. Le conflit est fonctionnel : les Pap/Rap sont un appareil de reddition des comptes parlementaire, tandis que les PPG sont un outil de pilotage pour l’exécutif, axé sur la “satisfaction des besoins concrets des usagers” et l’alignement territorial via les primes des préfets. Servants deux maîtres aux objectifs distincts, ces deux systèmes coexistent sans s’articuler, illustrant une tendance lourde à empiler les dispositifs plutôt qu’à réformer en profondeur. Quand la gestion sert surtout à sauver les apparences Le rapport va plus loin qu’une critique technique en soulignant que cette appropriation des outils de gestion modernes pourrait n’être qu’une façade. Cette “appropriation symbolique” s’expliquerait par les “différences fondamentales entre secteur public et secteur marchand” : fragmentation des responsabilités, absence de conséquences financières directes pour les décideurs. Dans ce contexte, adopter le langage du management devient une fin en soi. La métaphore est puissante : l’État construirait une belle façade de management (objectifs, indicateurs, rapports) pour rassurer le citoyen, mais derrière laquelle les vieilles habitudes bureaucratiques perdurent. En somme, la gestion devient un exercice de communication destiné à prouver la rationalité de l’État, plutôt qu’un véritable levier de transformation. Pourquoi le Ministère de la défense et la DGFIP ont un vrai contrôle de gestion Au milieu de ce tableau sombre, la Cour des comptes identifie une exception notable : le Ministère des Armées (MINARM). Contrairement aux autres administrations, il a réussi à mettre en place un contrôle de gestion efficace. Les Armées utilisent une “comptabilité analytique précise” pour connaître réellement le coût de leurs activités. Le rapport précise que le ministère dispose de treize modèles de comptabilité analytique pour calculer les coûts de maintenance du matériel ou le prix des prestations. Ce chiffre illustre le sérieux de la démarche. Cela veut dire que l’on peut connaitre le cout d’une heure de vol d’un Rafale, le cout de la formation d’un officiers autant de vrai indicateurs pour piloter, améliorer. La raison de ce succès est simple : la nécessité. Le rapport établit un lien causal direct : “C’est parce que le ministère des armées (MINARM) gère des projets complexes en partenariat avec des industriels, qu’il a éprouvé le besoin” d’un tel outil. Quand on pilote des programmes d’armement à plusieurs milliards d’euros avec des partenaires privés exigeants, la maîtrise des coûts n’est pas une option bureaucratique, c’est une condition de survie opérationnelle. Cet exemple prouve que le problème n’est ni l’outil, ni la nature publique de l’organisation, mais bien la volonté et, surtout, le besoin de s’en servir. La Direction Générale des Finances Publiques (DGFiP) a déployé plusieurs outils et dispositifs pour assurer son pilotage et son contrôle de gestion, le principal étant son infocentre dédié. L’infocentre « Opera » de la DGFIP Le pilotage du réseau de la DGFiP s’appuie majoritairement sur un infocentre dédié appelé « Opera ». Il rassemble l’ensemble des résultats de la performance et les charges associées sur une seule base de données. Il permet un suivi des dépenses aux niveaux national, interrégional, directionnel, départemental et même infra-départemental. Il propose des tableaux de bord types ou adaptés aux besoins des responsables. La directrice générale ainsi que les directeurs locaux disposent de tableaux de bord visuels (incluant des cartes et des graphiques) pour mesurer l’évolution de la performance et comparer les structures entre elles. Un module de datavisualisation permet de présenter les données de manière graphique pour faciliter l’analyse par les cadres et les contrôleurs de gestion. Suivi des délais de paiement Au-delà de l’outil technique, la DGFiP a déployé un système de mesure reposant sur des principes de bonne gestion. Un dialogue de performance annuel : Ce processus s’appuie sur un très grand nombre d’indicateurs couvrant des domaines variés comme le contrôle fiscal, le recouvrement, l’immobilier ou encore l’environnement. Des Contrats d’Objectifs et de Moyens (COM) : Les outils de pilotage servent à vérifier le respect des engagements fixés dans ce contrat (actuellement pour la période 2023-2027). La DGFiP réalise chaque année une enquête pour répartir les effectifs par mission et par type d’impôt, permettant de déterminer précisément les coûts de gestion et les gains de productivité. On peut dire qu’Opera fonctionne comme le tableau de bord d’un avion de ligne, permettant au pilote (la direction) de surveiller chaque paramètre de vol sur l’ensemble du territoire et d’ajuster la trajectoire en temps réel pour atteindre sa destination. La performance, une question de volonté plus que d’outils Le bilan dressé par la Cour des comptes est sévère. L’idée d’importer le contrôle de gestion du privé était juste, mais l’administration l’a vidée de sa substance, la transformant en un exercice de style déconnecté de sa finalité première : la maîtrise des coûts. C’est l’histoire d’une greffe rejetée non par incompatibilité technique, mais par refus culturel. L’exemple du Ministère de la défense est la clé de lecture de cet échec. Il prouve que la distinction pertinente n’est pas “public contre privé”, mais “nécessité contre conformité”. Lorsque le contrôle des coûts est un impératif opérationnel non négociable, les outils fonctionnent. Lorsqu’il s’agit d’une simple obligation de reporting pour alimenter des rapports les chiffres n’ont pas de sens. Les outils existent et peuvent être efficaces. La vraie question n’est donc plus de savoir “comment” mieux gérer, mais dans quelles conditions l’État se sentira-t-il vraiment contraint de le faire ? Par Régis BAUDOUINThe post Y-a-t-il un pilote qui contrôle le budget de l’Etat first appeared on XY Magazine.
Stratégie sécuritaire des USA sous l’administration TRUMP, Les USA ont publié une synthèse de leur stratégie mondiale en matière de sécurité. La publication d’un nouveau document de Stratégie de Sécurité Nationale (NSS) est généralement un événement attendu dans les cercles de politique étrangère, mais rarement une source de bouleversements majeurs. La plupart du temps, il s’agit d’ajustements, de réorientations subtiles. Mais le document de 2025, qui vient d’être dévoilé par l’administration Trump, est d’une tout autre nature. Ce n’est pas une mise à jour ; c’est une démolition en règle de décennies de consensus américain en matière de politique étrangère, une répudiation directe du consensus mondialiste de l’après-guerre froide adopté par les élites républicaines comme démocrates. C’est pourquoi je vous fait une synthèse dans cet article. La lecture de ce document permet de comprendre pourquoi l’administration TRUMP est cohérente avec elle-même et non au regard des actions du passé. Oubliez les platitudes sur le leadership mondial et l’ordre international libéral. Cette nouvelle doctrine “America First” est un manifeste pragmatique, qui redéfinit les intérêts, les priorités et les alliances des États-Unis. Le retour musclé de la doctrine Monroe : Le “Trump Corollary” La première révélation est une réaffirmation spectaculaire de la prééminence américaine dans son propre voisinage. Le document ne se contente pas de dépoussiérer la doctrine Monroe, un principe de la politique étrangère américaine datant du 19ème siècle mais tombé en relative désuétude ; il lui ajoute ce qu’il nomme le “Trump Corollary“. Il ne s’agit pas d’un simple “corollaire” au sens d’une conséquence logique, mais d’une extension délibérée et assertive de la doctrine, affirmant sans équivoque que l’hémisphère occidental est, et restera, la sphère d’influence exclusive des États-Unis. Les objectifs sont clairs : Restaurer la prééminence américaine dans la région après des années de ce qui est décrit comme une “négligence”. C’est bien illustré par les prises de position du Président TRUMP sur les politiques européenne en matières de réglementation, d’immigration. Protéger la patrie contre les menaces transfrontalières comme le trafic de drogue et la migration de masse. C’est déjà bien mis ne oeuvre avec les arrestations de masse faits par L’ICE Refuser aux concurrents non-hémisphériques la capacité de positionner des forces militaires, de contrôler des infrastructures critiques ou de posséder des actifs stratégiques. On parle ici de ce qui se passe pour le Panama ou le Venezuela pour illustrer avec les sujets les plus abordés. Pour y parvenir, la stratégie annonce des moyens concrets et musclés : un redéploiement de la présence militaire mondiale vers les Amériques, l’autorisation de l’usage de la force létale contre les cartels de la drogue, et une politique agressive pour sécuriser les chaînes d’approvisionnement critiques dans la région, au profit des entreprises américaines. Fin du “free-riding” : La révolution des alliances Si vous pensiez que le débat sur le partage du fardeau au sein de l’OTAN était vif, préparez-vous à une véritable révolution. Le document déclare que les États-Unis ne peuvent plus et ne veulent plus supporter le fardeau de la défense mondiale. L’ère du “free-riding” (le fait de profiter de la sécurité offerte par les États-Unis sans en payer le juste prix) est terminée. Pour matérialiser ce changement, la stratégie introduit deux concepts clés : Le “Hague Commitment“ : Il s’agit d’une nouvelle norme radicale exigeant que les pays de l’OTAN consacrent non pas 2 % de leur PIB à la défense – un objectif de longue date qui était déjà source de vives tensions et rarement atteint – mais 5 %. Ceci pour les USA baissent leur propre contribution. La réalité c’est que cela devait être le cas depuis longtemps. Surtout l’Europe va prendre en main sa sécurité, ce qui est à terme un bien et une chance de retrouver sa souveraineté. Le “Partage et transfert du fardeau” (Burden-Sharing and Burden-Shifting) : Le principe est simple. Les alliés doivent désormais assumer la responsabilité principale de la sécurité dans leurs propres régions. L’Amérique se positionne comme un “organisateur et supporter” plutôt que comme le premier répondant systématique. Avec la Guerre en Ukraine on voit bien le changement. L’Europe doit acheter les matériels aux USA pour les livrer à l’Ukraine. Ce ne sont plus des dons des USA. Ce changement de paradigme est résumé de manière percutante dans le document : “The days of the United States propping up the entire world order like Atlas are over.” Europe face à “l’effacement civilisationnel” : Un diagnostic inattendu La section sur l’Europe est peut-être la plus surprenante du document. La préoccupation principale de Washington n’est plus la stagnation économique du continent ou ses faibles dépenses militaires. Le diagnostic est bien plus profond et, pour tout dire, existentiel. La stratégie identifie une crise qu’elle nomme “l’effacement civilisationnel”. Le fait même d’utiliser un tel langage dans un document d’État officiel marque une rupture profonde ; les stratégies américaines se concentrent généralement sur des menaces militaires, économiques et politiques concrètes, rendant ce pivot vers des préoccupations idéologiques et démographiques tout à fait sans précédent. Selon le texte, les véritables menaces qui pèsent sur l’Europe sont internes : Des politiques migratoires jugées transformatrices et sources de conflits principalement du fait religieux entre des pays laïques et une immigration musulmane qui pratique un islam politique. L’effondrement des taux de natalité qui pourrait rendre minoritaires les populations autochtones La perte des identités nationales et de la confiance en soi collective. Une société WOKE selon la vision américaine qui accepté de se dissoudre dans le consensus. L’objectif américain n’est donc pas seulement d’encourager l’Europe à se réarmer, mais de l’aider à “retrouver sa confiance civilisationnelle” et à rester “européenne”. C’est une intervention idéologique et culturelle d’une franchise inédite dans un document officiel de ce niveau. La fin de la migration de masse comme priorité absolue de la sécurité nationale Rompant radicalement avec les administrations précédentes qui traitaient l’immigration comme une question de gestion ou un enjeu humanitaire, ce document l’élève au rang de menace existentielle. La fin de la migration de masse n’est plus une question de politique intérieure, mais un impératif stratégique pour la survie de la république, la priorité absolue de la sécurité nationale. Le raisonnement est martelé avec force : la migration de masse met à rude épreuve les ressources nationales, affaiblit la cohésion sociale, déforme les marchés du travail et sape la sécurité nationale en créant des vulnérabilités. La souveraineté, selon cette doctrine, se définit avant tout par une chose : le contrôle total et absolu de ses frontières et le droit de décider qui peut, ou ne peut pas, faire partie de l’avenir de la nation. Le “Président de la Paix” : La diplomatie du deal comme arme stratégique Malgré un ton globalement musclé et nationaliste, le document révèle une priorité contre-intuitive : la recherche active de la paix par la négociation d’accords. La stratégie présente Donald Trump comme “Le Président de la Paix”, non pas par idéalisme, mais par pur calcul stratégique. L’administration TRUMP se targue d’une liste impressionnante d’accords de paix récemment conclus, dont certains semblaient impossibles il y a peu : un accord entre Israël et l’Iran, un autre entre le Pakistan et l’Inde, ou encore la fin de la guerre à Gaza avec le retour des otages. La logique derrière cette “diplomatie du deal” est explicitée : négocier la paix, même dans des régions considérées comme périphériques aux intérêts vitaux américains, est un moyen extraordinairement rentable (en termes de temps et d’attention présidentielle) pour accroître l’influence américaine, réaligner des régions entières sur les intérêts de Washington et stabiliser le monde à moindre coût. Focus sur la position et stratégie sécuritaire vis à vis de l’Europe La position des États-Unis à l’égard de l’Europe, telle que détaillée dans la stratégie, est centrée sur le soutien à ses alliés tout en insistant sur la nécessité pour le continent de retrouver sa confiance en soi civilisationnelle et d’assumer une plus grande responsabilité pour sa propre défense,,. La stratégie identifie plusieurs problèmes fondamentaux et établit des priorités claires pour y remédier : Les États-Unis estiment que les problèmes de l’Europe sont profonds et vont au-delà du manque de dépenses militaires et de la stagnation économique. L’Europe continentale a vu sa part du PIB mondial chuter (de 25 % en 1990 à 14 % aujourd’hui), en partie à cause de réglementations nationales et transnationales qui minent la créativité et l’industrie. Au passage cette règlementation gène les USA dans leurs exportations vers l’Europe. Concernant les règlementations numériques que je connais bien, le président TRUMP attaque la règlementation RGPD et IA act. Ce déclin économique est éclipsé par la perspective d’une “éradication civilisationnelle“. Les États-Unis craignent que le continent devienne méconnaissable d’ici 20 ans si les tendances actuelles se poursuivent. Sans le citer ils font allusion à l’immigration d’origine musulman en Europe. Les problèmes plus larges comprennent les activités de l’Union européenne et d’autres organismes transnationaux qui sapent la liberté politique et la souveraineté, ainsi que des politiques migratoires qui transforment le continent et créent des conflits. D’autres préoccupations incluent la censure de la liberté d’expression, la suppression de l’opposition politique. La guerre en Ukraine a eu
La suite numérique souveraine, la France et l’Europe veulent se libérer des suites Microsoft et Google. La suite numérique souveraine Dans notre quotidien professionnel, les suites bureautiques américaines comme celles de Google ou Microsoft sont devenues omniprésentes, presque une évidence. C’est dans ce contexte que le projet du gouvernement français, la “Suite Numérique”, apparaît comme une initiative particulièrement importante pour affirmer la souveraineté de nos informations. Il faut bien avoir à l’esprit que ces éditeurs utilisent leurs solutions pour commercialiser des informations sur les usages, habitudes, utilisations et ont accès aux données directement depuis leurs cloud propriétaires. Il ne s’agit pas de créer quelques outils isolés, mais bien de bâtir une alternative complète, cohérente et souveraine pour les agents du service public. Lancée en mai 2024, cette suite se veut une réponse souveraine et open source aux géants du marché. Lors d’un premier bilan présenté le 27 novembre 2025, la Direction interministérielle du numérique (Dinum) a dévoilé des chiffres qui dessinent les contours d’un projet stratégique aux premiers résultats surprenants. La suite regroupe déjà six outils phares : Visio (visioconférence), Doc (édition collaborative), Fichiers (stockage), Tchap (messagerie), Grist (gestion de données) et l’Assistant (IA générative). la souveraineté avant tout Le projet de suite numérique n’est pas qu’une simple mise à jour technologique. Sa mission, est d’assurer la souveraineté numérique de l’État. L’objectif est de fournir aux millions d’agents publics un environnement de travail dont les données sont hébergées en France et dont le développement, souvent basé sur des fondations open source, est entièrement maîtrisé. Cette approche garantit la transparence, la sécurité et l’indépendance face aux fournisseurs étrangers. Cette vision stratégique est le véritable moteur du projet. L’ambition est grande : redonner aux agents publics des outils sur lesquels l’Etat a réellement la main, sans dépendance à des services étrangers et sans compromis sur les fonctionnalités. Au passage aussi assurer un cout de fonctionnement réaliste face à des hausse d prix annoncées de 30% sur 4 ans pour office 365. La messagerie Tchap devient obligatoire Pour s’assurer que sa suite ne reste pas une option parmi d’autres, l’État a pris une décision radicale. Depuis le 1er septembre 2025, l’utilisation de Tchap, la messagerie instantanée sécurisée, est devenue obligatoire pour les ministères. Cette adoption forcée est une décision stratégique pour surmonter l’inertie administrative et atteindre rapidement une masse critique d’utilisateurs, créant ainsi un effet de réseau indispensable à son succès. Tchap Basée sur le protocole open source Matrix, développée et hébergée en France, Tchap compte déjà plus de 375 000 utilisateurs actifs mensuels bien au-delà des seuls ministères, touchant les collectivités territoriales, les établissements scolaires ou les hôpitaux. Avec des appels de groupe désormais disponibles et une nouvelle version mobile en préparation, cette décision montre que le gouvernement est prêt à imposer ses outils pour garantir la cohérence et la sécurité de ses communications. Grist connaît une croissance spectaculaire Parmi les différents outils, l’un d’eux connaît un succès inattendu : Grist. Cet outil de gestion de données “no-code” permet aux agents, même sans compétences techniques, de créer des tableaux collaboratifs, de visualiser des données et de bâtir de petites applications internes pour suivre des projets ou centraliser des informations. Grist Sa croissance est qualifiée de “spectaculaire” : en seulement un an, Grist est passé de 1 000 à 15 000 utilisateurs actifs mensuels. Ce succès n’est pas anodin ; il s’inscrit dans la tendance de fond du “no-code” qui démocratise la création d’outils métier, un besoin actuel des utilisateurs qui veulent apporter de la valeur sans passer par du code. Il révèle un besoin profond d’agilité pour manipuler et structurer des données sans devoir passer par des développements informatiques complexes. Un partenariat stratégique avec Mistral AI Loin d’être en retard, la Suite Numérique intègre l’une des technologies les plus avancées du moment grâce à l’Assistant. Ce chatbot d’intelligence artificielle générative est le fruit d’un partenariat stratégique avec Mistral AI. Sujet dejà évoqué dans cet article. Mistral ai Actuellement en test auprès de 10 000 agents avant un déploiement général début 2026, l’Assistant est déjà capable de reformuler du texte dans l’outil Doc, la solution de prise de notes collaboratives de la suite, ou de générer les transcriptions des réunions dans Visio. Plus qu’un simple outil, l’IA est pensée comme la future colonne vertébrale de la suite. L’ambition est “d’en faire le fil invisible entre toutes les briques, sans ajouter de complexité”. Cette vision est la réponse stratégique au plus grand défi de la Suite Numérique : l’interopérabilité. Tel que les éditeurs américains le proposent avec leurs suites. L’Assistant n’est pas une fonctionnalité de plus, mais le liant destiné à rendre l’expérience utilisateur aussi fluide que celle des géants du secteur. Visio et ses comptes rendus automatiques La meilleure façon de convaincre est de résoudre des problèmes concrets. C’est exactement ce que fait Visio, l’outil de visioconférence de la suite, qui compte plus de 60 000 utilisateurs mensuels. Sa fonctionnalité la plus marquante est la transcription asynchrone. Concrètement, à la fin de chaque réunion, l’outil génère automatiquement un compte rendu écrit de tous les échanges et l’envoie aux participants. Cette innovation, qui a déjà permis de produire plus de 1 000 comptes rendus pour le seul mois de septembre 2025, n’est pas un simple gain de productivité. Elle transforme la réunion en un document archivable et interrogeable, créant une mémoire institutionnelle automatique, un atout majeur pour la continuité de l’action publique. Des évolutions sont prévues, avec le sous-titrage en temps réel et la synthèse automatique. Visio prouve que la suite cherche à apporter une réelle valeur ajoutée au quotidien des agents et se mets au niveau d’un outil comme Teams. Pro connect pour unifier les identités Pro connect ProConnect est le service d’authentification unifiée développé par la France pour identifier de manière simple et sécurisée les agents de la fonction publique qui accèdent aux services numériques de l’administration. Plutôt que de multiplier les identifiants spécifiques à chaque portail, ProConnect permet à un professionnel d’utiliser une seule identité numérique liée à son adresse e-mail professionnelle et au numéro SIRET de son organisation pour se connecter à de nombreux services publics en ligne, tout en bénéficiant d’une session unique (authentification unique) sur l’ensemble des plateformes « ProConnectées ». Lancé en continuité avec des initiatives comme FranceConnect mais dédié aux usages professionnels, ProConnect remplace et unifie plusieurs anciens services d’authentification (MonComptePro, InclusionConnect, AgentConnect) pour simplifier l’accès des agents publics à leurs outils de travail et celui des entreprises à leurs démarches administratives. Dans une logique de souveraineté numérique, ce service renforce la maîtrise de l’identité et de l’accès aux données par l’État, diminue la dépendance à des solutions commerciales étrangères et facilite l’interopérabilité entre applications publiques, tout en s’appuyant sur des standards ouverts et des infrastructures sécurisées. La Suite Numérique de l’État est bien plus qu’une collection d’outils cotes à cotes. C’est un projet politique et stratégique cohérent, qui affiche des premiers résultats. La volonté politique est forte et déterminée à sortir les éditeurs qui ne sont pas compatibles avec nos objectifs de souveraineté. En s’appuyant sur l’open source, en rendant Tchap obligatoire, en répondant à un besoin métier avec Grist et en intégrant l’IA de pointe de Mistral AI comme futur liant de l’écosystème, la France prouve que son ambition de souveraineté numérique n’est pas un vœu pieux. Le principal défi, reconnu par la Dinum elle-même, sera de concrétiser cette vision d’une interopérabilité parfaite pour offrir une expérience utilisateur aussi fluide que celle des géants du marché. Sur la marché des alternatives crédibles existent comme NEXTCLOUD qui est orienté entreprises. Le plus difficile est de sortir de ses habitudes Microsoft ou Google pour éprouver d’autres solutions tout aussi efficaces par rapport à nos usages et surtout moins couteuses. Par Régis BAUDOUINThe post La suite numérique souveraine first appeared on XY Magazine.
La France légifère contre les ingérences étrangères face aux cyberattaques et aux campagnes de désinformation, cette nouvelle « guerre froide ». Ces menaces proviennent principalement de la Russie, de la Chine. C On a souvent entendu des critiques à l”encontre de pays qui obligent les ONG à s’enregistrer. Cette inscription permet ensuite aux pays concernés de mener des actions contre les personnes engagées dans ces ONG. Obliger une personne à déclarer son activité est à la base un démarche totalitaire. soit l’activité est licite , soit elle le l’est pas et la loi est déjà la pour agir. Le texte de loi n° 2024-850 du 25 juillet 2024, visant à prévenir les ingérences étrangères, constitue une réponse majeure à ce défi. Ce texte entre en application en Octobre 2025. C’est la HAPV qui se voit charger de sa mise en oeuvre. Le rôle de la HAPV contre l’ingérence étrangère La Haute Autorité pour la transparence de la vie publique (HATVP) est une agence de l’Etat. Elle exerce un contrôle étendu et spécifique sur les personnes physiques ou morales tenues de déclarer leurs activités d’influence pour le compte d’un mandant étranger, afin d’assurer la transparence et de prévenir les ingérences. Le nom est un peu trompeur. la HAPV n’est pas là pour garantir aux citoyens une transparence politique et économique. Elle est là pour protéger l’Etat. Le contrôle exercé par la HATVP se déploie à travers plusieurs outils et procédures coercitives dpécifiques. La mission principale de la HATVP est de s’assurer du respect des obligations prévues par la loi. Ce contrôle porte sur : Le respect des obligations déclaratives, notamment la complétude et l’exactitude des informations communiquées. Le respect des règles déontologiques qui imposent, par exemple, de déclarer son identité et les intérêts représentés lors des communications, et de s’abstenir de proposer des avantages d’une valeur significative aux responsables publics. Procédures d’Enquête et de Vérification La Haute Autorité dispose de plusieurs pouvoirs pour vérifier l’information et obtenir la conformité : La HATVP peut agir à son initiative ou à la suite d’un signalement. S’il existe des raisons sérieuses de penser qu’une personne est soumise à l’obligation de déclaration, la Haute Autorité peut la mettre en demeure de lui communiquer, dans un délai d’un mois, toute information ou tout document nécessaire à l’exercice de sa mission. La HATVP peut également demander aux responsables publics contactés (membres du Gouvernement, parlementaires, élus locaux, etc.) de lui communiquer la liste des personnes tenues de déclarer qui sont entrées en communication avec eux. Perquisition Administrative La HATVP dispose d’un pouvoir de vérification sur place dans les locaux professionnels des déclarants. Cette vérification nécessite l’autorisation du juge des libertés et de la détention (JLD) du tribunal judiciaire de Paris. Les vérifications sont menées en présence d’un officier de police judiciaire. Les agents de la HATVP peuvent exiger la communication et obtenir ou prendre copie de tous documents professionnels de toute nature. Avis Consultatif La HATVP peut être saisie par les responsables publics pour obtenir un avis sur la qualification d’une activité, afin de savoir si une personne physique ou morale est soumise à l’obligation de déclaration. Sanctions en Cas de Manquement Si la HATVP constate un manquement aux obligations déclaratives ou déontologiques, elle applique une gradation des mesures : Mise en Demeure (Formal Notice) Elle adresse au déclarant, après l’avoir invité à présenter ses observations, une mise en demeure de respecter ses obligations. Cette mise en demeure peut être rendue publique. Sanctions Pénales Le non-respect de l’obligation de communication des informations à la HATVP (de sa propre initiative ou à sa demande) est puni par des sanctions pénales spécifiques : Pour les personnes physiques : trois ans d’emprisonnement et 45 000 euros d’amende. Pour les personnes morales : 225 000 euros d’amende, ainsi que d’autres peines comme l’interdiction d’émettre des chèques, la confiscation, l’affichage public de la peine, ou l’interdiction de recevoir toute aide publique pendant cinq ans ou plus. Ce dispositif de contrôle permet à la HATVP de jouer un rôle central, non seulement en gérant le répertoire numérique, mais aussi en assurant l’intégrité des informations et en appliquant des mesures coercitives pour garantir que les actions d’influence étrangère, considérées comme légitimes, soient menées dans la transparence requise par la loi. Cette autorité c’est une police politique avec un habillage déontologique. L’influence étrangère n’est pas (toujours) de l’ingérence Contrairement à une idée largement répandue, la loi n’a pas pour objectif d’interdire toute forme d’influence étrangère sur le sol français. Le législateur reconnaît au contraire que les stratégies d’influence sont une « composante légitime des relations internationales ». C’est ce type de texte qui me fait toujours dire que la loi met le loup dans bergerie dès sont premier article. En fait c’est autorisé sauf quand on va décider que c’est interdit. L’objectif principal n’est donc pas la prohibition, mais la clarification. En obligeant les acteurs agissant pour le compte de puissances étrangères à déclarer leurs actions, la loi vise à rendre ces activités transparentes. Cette transparence doit permettre de mieux distinguer l’influence légitime, qui promeut des intérêts, de l’ingérence illégale, qui, elle, « a pour objectif de déstabiliser les institutions d’un État et porter atteinte à l’intégrité de ses intérêts nationaux ». Le mot d’ordre est donc la transparence, pas l’interdiction. C’est assez troublant de mettre en place des listes. Liste d’influenceur légaux par rapport à des influenceurs illégaux. Quelle est la limite entre le jeu démocratique et le totalitarisme. Pensez-vous vraiment qu’une personne qui sait qu’elle agit contre la loi va venir s’inscrire sur la liste ? Cela permet surtout au besoin de faire condamner une personne pour ne pas avoir été sur la liste. L’Europe n’est pas considérée comme “étrangère” La définition du « mandant étranger » est au cœur du dispositif. La loi le définit de manière très précise : il s’agit d’une puissance hors Union européenne, d’une entreprise qu’elle contrôle ou finance majoritairement, ou encore d’un parti politique étranger non européen. Par conséquent, les actions d’influence menées pour le compte d’un État membre de l’Union européenne ne sont pas soumises à cette nouvelle obligation de déclaration. Cette distinction est fondamentale : elle ancre le dispositif dans une logique où l’Union européenne n’est pas un espace étranger mais un projet d’intégration politique fondé sur des valeurs démocratiques et un marché unique. Le législateur considère ainsi que les influences intra-européennes relèvent d’un jeu d’échanges légitime, à l’inverse des manœuvres de déstabilisation stratégique que la loi cherche à contrer de la part d’acteurs étatiques externes. Quelle périmètre pour ce texte Lorsqu’on pense à l’influence étrangère, on imagine souvent des actions visant les ministres, les parlementaires ou l’Élysée. La nouvelle loi voit beaucoup plus large et étend la notion de « responsable public » à un périmètre étonnamment vaste. Sont notamment concernés par les actions d’influence à déclarer : • Les maires des communes de plus de 20 000 habitants et les présidents d’établissements publics de coopération intercommunale (EPCI). • Les anciens présidents de la République, anciens membres du Gouvernement, anciens députés et anciens sénateurs, pendant une période de cinq ans après la fin de leurs fonctions. • Les candidats déclarés aux élections présidentielles, législatives, sénatoriales ou européennes. • Les dirigeants d’un parti ou d’un groupement politique. Cette vision large est une reconnaissance du fait que l’influence ne s’exerce pas uniquement dans les ministères parisiens. Des décisions cruciales en matière d’urbanisme, de marchés publics ou d’infrastructures se prennent au niveau local, et le parcours d’un responsable politique, avant et après son mandat national, constitue une fenêtre d’opportunité pour les acteurs étrangers. Le débat sur la méthode Si l’objectif de transparence est largement partagé et souhaitable, la méthode choisie par le gouvernement est loin de faire l’unanimité. L’association Transparency International France a vivement critiqué la création d’un second répertoire dédié à l’influence étrangère, distinct du registre des lobbyistes déjà existant depuis la loi « Sapin 2 » de 2016. L’argument central de l’ONG est que cette démarche est redondante. En effet, le répertoire Sapin 2, conçu pour être universel, « inclut déjà en partie les influences étrangères », et la HATVP elle-même avait clarifié que les entités étrangères devaient s’y déclarer. L’ONG craint que ce choix n’ajoute de la complexité, n’affaiblisse le dispositif existant et ne soit finalement qu’une mesure « cosmétique ». La véritable lutte contre les ingérences appartient aux services répressifs et aux services de renseignement, pas à un dispositif de transparence géré par la HATVP. Les vrais espions ne s’inscriront jamais Ce point de vue est partagé par plusieurs analystes qui soulignent les limites inhérentes à un tel dispositif. Les acteurs menant des opérations d’ingérence clandestines, malveillantes et illégales ne se déclareront évidemment jamais sur un registre public géré par la Haute Autorité pour la transparence de la vie publique (HATVP). La loi permettra donc surtout d’établir une « cartographie officielle des réseaux d’influence étrangère » légitimes ou semi-légitimes en France. C’est un outil de connaissance qui sera largement faussé. Il ne faut pas s’attendre à y voir apparaîtr
L’Etat français est-il toujours souverain, c’est la question que l’on peut se poser pour plusieurs raisons. Souveraineté numérique de la France L’intégration de la France dans l’ensemble européen impose de renoncer à des compétences régaliennes. Le niveau de dette rend la politique française dépendante de ses créanciers. Mais le destin numérique de la France est-il bien protégé. Un rapport récent de la cour des comptes nous éclaire sur ce sujet. L’Etat français est-il toujours souverain On imagine que l’État protège jalousement ses données les plus sensibles, les enfermant dans des forteresses numériques impénétrables. La souveraineté numérique est devenue un mot d’ordre politique, une promesse de contrôle et d’indépendance face aux géants technologiques étrangers. Ceux que l’on nomme les GAFAM. Le paradoxe standard du marché ou souveraineté Il faut garder en tête que les standard du marché sont américains et ensuite Chinois. L’Europe arrive ensuite en ordre dispersé. Sur le plan analytique, il existe une tension concernant la politique numérique française : d’un côté, l’ambition affichée de souveraineté ; de l’autre, le besoin des administrations de disposer d’outils performants, modernes et à un coût maîtrisé. J’ajoute aussi que les agents de l’Etat veulent utiliser des outils qu’ils connaissent car ils ont été formés dessus avec ou en disposent chez eux. Bien souvent, c’est le second impératif qui l’emporte. Le cas le plus notable est celui du nouveau système d’information de ressources humaines du ministère de l’Éducation nationale, Virtuo, pour lequel le ministère a choisi une solution cloud opérée par une entreprise américaine. Ce choix a été fait en passant outre les recommandations initiales de la doctrine “Cloud au centre”, car aucune offre souveraine ne répondait aux exigences de performance et de coût. Le ministère estime a posteriori que sa décision est conforme à la version finale de la loi SREN, qui a restreint le champ d’application de l’obligation de souveraineté en exigeant non seulement que les données soient sensibles, mais aussi que leur violation présente un risque direct pour l’ordre public. Quand la loi se met elle même une balle dans le pied et fait de la vertu un vice. Circulaire Cloud au centre Revenons sur ce texte important, la circulaire cloud au centre. La doctrine « Cloud au centre » est une orientation édictée par le Premier ministre pour que les administrations privilégient les infrastructures cloud (informatique en nuage) pour leurs nouveaux projets numériques. Le cloud est appelé à devenir l’environnement par défaut de tout nouveau projet informatique de l’État. Cette doctrine est la déclinaison opérationnelle de la Stratégie nationale pour le cloud lancée en mai 2021, qui vise à encourager l’utilisation du cloud tout en assurant l’autonomie de l’État, la maîtrise de ses données et le respect des règles européennes en matière de protection des données à caractère personnel. Version de juillet 2021 : La première version de la circulaire, diffusée en juillet 2021, stipulait que toute application manipulant des données d’une sensibilité particulière, notamment les données personnelles des citoyens français, devait être hébergée sur une infrastructure souveraine. Voir mon article sur ce sujet ici Version de mai 2023 : La doctrine a été mise à jour en mai 2023 (circulaire n° 6404/SG). Cette version a restreint l’obligation de recourir à une offre souveraine, ne l’exigeant que lorsque deux critères sont cumulativement observés : Les données doivent relever de secrets protégés par la loi. Leur violation doit être susceptible « d’engendrer une atteinte à l’ordre public, à la sécurité publique, à la santé et à la vie des personnes, ou à la protection de la propriété intellectuelle ». Voilà comment faire entrer le loup dans la bergerie. Loi SREN : Ces critères cumulatifs ont été élevés au niveau législatif par l’Article 31 de la loi du 21 mai 2024 visant à sécuriser et à réguler l’espace numérique (dite loi SREN). La restriction du champ d’application de cette obligation visait notamment à consolider la doctrine sur le plan juridique en limitant les risques de recours par des opérateurs étrangers au regard des règles du marché intérieur européen et du principe de non-discrimination de l’OMC. Le Cloud de confiance et SecNumCloud Le concept de « cloud de confiance » remplace la notion initiale de « cloud souverain ». Il repose sur deux solutions jugées équivalentes en termes de sécurité pour les données sensibles : Les clouds internes de l’État (dits du 1er cercle), comme Nubo (opéré par la DGFiP) et Pi (opéré par le ministère de l’Intérieur). Les offres commerciales qualifiées SecNumCloud. La qualification SecNumCloud est un référentiel d’exigences techniques, opérationnelles et juridiques élaboré par l’Agence nationale de la sécurité des systèmes d’information (Anssi). Il garantit le plus haut niveau de sécurité pour les services de l’État et les opérateurs d’importance vitale (OIV). Un apport essentiel de ce référentiel est l’accent mis sur la souveraineté. Il garantit une immunité aux lois non européennes à portée extraterritoriale, telles que le Cloud Act ou le Foreign Intelligence Surveillance Act (Fisa) américain. Cela impose notamment que le siège social du prestataire soit situé dans l’Union européenne et qu’une entité non européenne ne détienne pas, à elle seule, plus de 24 % du capital et des droits de vote du prestataire. Les limites de la mise en œuvre Cloud au centre Malgré l’ambition politique affichée, la mise en œuvre de la doctrine « Cloud au centre » rencontre des difficultés. Bien que la commande publique en services cloud soit passée de 1 M€ en 2020 à 52 M€ en 2024, atteignant 120 M€ au total sur cette période, cela reste très modeste par rapport aux dépenses informatiques annuelles de l’État, de l’ordre de 3 Md€. De plus, le recours aux solutions qualifiées SecNumCloud induit un surcoût par rapport aux offres cloud non qualifiées, estimé entre +25 % et +40 %. Ce point est à challenger car, pour avoir fait le travail de passer tout une entreprise SECNUMCLOUD, cela à pu être fait à ISO cout en partant d’un système déjà Cloud. C’est sur que si on part de On premise, on a ce surcout. Mais on ne compare pas la même solution. Cloud au centre L’échec des clouds internes Face à la domination des géants américains, l’État a tenté de construire ses propres solutions Cloud souverain. Deux clouds interministériels ont ainsi vu le jour : Nubo, porté par le ministère des Finances, et Pi, porté par celui de l’Intérieur. L’ambition était de fournir une alternative sûre et maîtrisée pour les données les plus sensibles. La réalité est cependant bien loin des ambitions affichées. Les chiffres sont sans appel : “la part d’interministériel pour les clouds Pi et Nubo plafonne à 5 %”. En clair, ces solutions sont très peu utilisées en dehors des ministères qui les ont créées. La raison principale ? Un sous-investissement chronique. Le rapport note que Nubo a coûté 55 millions d’euros en neuf ans, une somme modeste au regard des dépenses numériques annuelles de l’État qui s’élèvent à environ 3 milliards d’euros. En conséquence, la gamme de services offerts reste limitée et la tarification est jugée inadaptée. Cet échec à attirer les utilisateurs empêche Nubo et Pi d’atteindre la “taille critique” nécessaire pour justifier de nouveaux investissements, créant ainsi un cercle vicieux de sous-performance et de sous-utilisation qui les rend non compétitifs. Peut être aussi la stratégie n’est pas bonne de vouloir créer son propose cloud plutôt qu’externaliser cela à un hyperscaler souverain qui pourra mutualiser les couts. La souveraineté SECNUMCLOUD un coût : jusqu’à 40 % plus cher Qu’est-ce qu’une solution numérique “vraiment” souveraine ? En France, le plus haut standard est défini par la qualification SecNumCloud, délivrée par l’Agence nationale de la sécurité des systèmes d’information (ANSSI). Ce label garantit non seulement un très haut niveau de sécurité technique, mais aussi une immunité juridique contre les lois extraterritoriales, comme le fameux Cloud Act américain. Cette loi qui permet aux autorités américaines de contraindre les fournisseurs de services américains à livrer des données, où qu’elles soient stockées dans le monde. Services secnumcloud Cette garantie a un prix. Le rapport de la Cour des comptes met un chiffre précis sur ce coût, une donnée rarement rendue publique : le surcoût d’une infrastructure qualifiée SecNumCloud par rapport à une offre cloud traditionnelle est estimé “entre +25 et +40 %”. De nouveau, je pense que ce montant est un maximum et que en faisant appels à un hyperscaler et en optimisant, on peut le faire à iso cout. Marché public cloud Vos logiciels de bureautiques sont un enjeu stratégique majeur D’un point de vue politique, le débat sur la souveraineté devient le plus tangible lorsqu’il touche aux outils quotidiens des agents publics. Exemple très concret des suites bureautiques pour illustrer ce défi. La dépendance historique de l’administration française à la suite Microsoft Office est devenue un problème stratégique lorsque l’entreprise a commencé à pousser agressivement son offre cloud, Microsoft 365. Face à ce mouvement, la Direction interministérielle du numérique (DINUM) a demandé aux ministères de ne pas y souscrire, afin de protéger la souveraineté des communications électroniques. La réponse de l’État a été pour le moins fragmentée. D’un côté, le ministère de l’Éducation nationale, le plus grand employeur de France, a entrepris de remplacer la suite Office par une solution basée sur un logiciel libre (Collabora Online). De l’autre, la DINUM, l’autorité numérique de l’État, développe sa propre alternative (“La Suite”) en coopération avec l’Allemagne et les Pays-Bas. Cette divergence entre le plus g
La commission européenne créé le score de souveraineté. Elle introduit un cadre pour un cloud de confiance qui inclut un système de score de souveraineté destiné principalement aux marchés publics. Sur la papier, c’est important de permettre aux acheteurs public de disposer d’une score de souveraineté pour qualifier leur démarche d’achat responsable et souverain. Pour bien l’utiliser, il faut comprendre comment il est calculé. Ce système évalue les offres de fournisseurs cloud sur huit critères, allant de l’ancrage juridique et financier à la protection des données et à la résilience opérationnelle, attribuant un niveau de service allant de 0 à 4 pour chaque pilier. L’initiative s’appuie sur plusieurs référentiels existants, notamment Gaia-X et les politiques nationales comme SecNumCloud en France. Cette méthodologie fait face à des critiques de l’association CISPE, qui la juge opaque et estime qu’elle pourrait involontairement favoriser les grands fournisseurs américains. Les discussions portent également sur la complexité du calcul du score final, qui repose sur une formule pondérée des différents critères. La bureaucratie va-t-elle protéger le marché européen ou avoir l’effet inverse ? Le « score de souveraineté » cloud de l’Union Européenne La souveraineté numérique est un enjeu stratégique majeur pour l’Europe. Faute de champions mondiaux dans tous les segment stratégiques, ll faut protéger les quelques entreprises européennes qui se battent face à des géants. Il faut également accepter d’acheter non souverains en connaissance de cause. Pour les organismes publics, choisir un service cloud qui garantit la protection des données et une indépendance vis-à-vis des puissances étrangères est un véritable casse-tête. Face à la domination des géants technologiques américains et chinois, comment s’assurer qu’une offre est véritablement “de confiance” et alignée avec les intérêts européens ? La circulaire Cloud au centre et la transposition de la directive NIS 2 obligent ces entités publiques à prendre des décisons souveraines en matière de Cloud. Etant obligé de composer avec les composants Cloud chinois et américains (Routeurs, OS, licences), à partir de quel niveau la souveraineté est en péri l? Pour répondre à cette question, la Commission européenne vient de dévoiler une initiative ambitieuse : un cadre de référence accompagné d’un “score de souveraineté” pour évaluer les fournisseurs de cloud. L’objectif est de fournir aux acheteurs publics un outil concret pour mesurer et comparer les offres. Cependant, loin de faire l’unanimité, cette solution a immédiatement déclenché une vive controverse. L’Europe veut quantifier la souveraineté C’est une approche cartésienne. On créé des critères et un indice pour aider le secteur public à prendre les bonnes décisions. C’est comme le nutri score pour les aliments. Pour les amateurs et connaisseurs, je vous ai fait la copie de la formule du score de souveraineté. #formule cloud souverain Si avec cela vous doutez encore… La Commission européenne a mis en place un cadre formel destiné aux autorités publiques pour mesurer la souveraineté des offres cloud. Cette démarche ne part pas de zéro ; elle s’appuie sur des initiatives reconnues comme Gaia-X et le référentiel du Cigref, sur des politiques nationales comme SecNumCloud en France et le standard C5 en Allemagne. Le tout dans un cadre européen de certification de cybersécurité (Enisa, NIS2, Dora). L’ambition est donc d’intégrer cette mesure dans l’arsenal réglementaire plus large de l’UE. Le cœur du système est un score basé sur huit “objectifs de souveraineté” (SOV). Pour chaque objectif, un niveau de service (SEAL) est attribué, allant de 0 à 4. Le niveau 0 signifie que le service, la technologie ou les opérations sont sous le contrôle exclusif d’entités non-européennes, Le niveau 4 garantit une technologie et des opérations sous contrôle total de l’UE, soumises uniquement au droit européen et sans dépendances critiques extérieures. La grille d’analyse se veut exhaustive, couvrant les aspects suivants : Le degré d’ancrage du fournisseur au sein de l’écosystème juridique, financier et industriel de l’UE. L’exposition juridique à des autorités étrangères. La protection et le contrôle des données et des services IA. La souveraineté opérationnelle (continuité, disponibilité des compétences, résilience). La résilience de la supply chain (chaîne d’approvisionnement). La dépendance technologique. La sécurité et la conformité. Les efforts en termes de développement durable. Critique de la méthode L’association CISPE, qui regroupe les fournisseurs de cloud européens, est la première à monter au créneau. Selon elle, le cadre proposé est opaque et, dans sa forme actuelle, il favoriserait les “hyperscalers étrangers” (AWS, Microsoft, Google Cloud) au détriment des acteurs purement européens. On constate bien en lisant certains annonces que prétendre faire du Cloud souverain avec AWS ou GOOGLE, c’est normalement pas compatible. Pourtant des entreprises publiques communiquent dessus et contractualisent. Regardons l’exemple de EDF qui a annoncé la semaine dernière avoir confié ses données à Sens L’association va plus loin, accusant la démarche d’être intentionnelle. Elle suggère que ce cadre pourrait servir de prétexte aux organismes du secteur public pour ne pas résilier leurs contrats existants avec les géants américains. CISPE juge également certains objectifs, comme “le contrôle total de l’UE sur chaque composant matériel”, comme étant tout simplement irréalisables en pratique pour la majorité des acteurs. Pour avoir visité le centre de production de OVHCloud. Certains hébergeurs produisent eux-mêmes leurs matériels. C’est ce qui est étonnant chez OVHcloud, la visite commence par l’usine de production des serveurs. Voici ce qui est publié sur le site OVHcloud au sujet de leur capacité industrielle à produire leurs serveurs: Un cloud durable by design Nous produisons nos propres serveurs et les désassemblons à 100% afin qu’ils vivent jusqu’à 3 vies Grâce à 20 ans d’innovation, nous utilisons 7 fois moins d’eau que nos concurrents pour refroidir nos serveurs   Notre efficacité énergétique (PUE) est de 1,28 vs. 1,57 pour la moyenne du marché 25 de nos 43 datacenters sont installés dans des bâtiments réhabilités 100% énergies bas carbone d’ici 2025 0% mise en décharge d’ici 2025 Enfin, la méthode de calcul du score elle-même est critiquée. En se basant sur “une moyenne de moyennes pondérées”, la Commission européenne créerait, selon CISPE, un système qui manque cruellement de transparence. Cette critique est d’autant plus vive lorsque l’on examine la pondération des critères, Une pondération qui interroge Pour calculer la note finale, la Commission européenne a attribué une pondération différente à chaque famille de critères. Cette répartition des poids est au cœur des débats et révèle des choix politiques forts. Les pourcentages attribués aux principaux piliers sont les suivants : Supply chain : 20% Les volets opérationnels, stratégiques et technologiques comptent collectivement pour : 15% Parties juridiques et conformité : 10% Le point le plus frappant est la pondération de la supply chain à 20 %, la plus élevée de toutes. Or, c’est précisément ce critère que les fournisseurs européens, via CISPE, jugent “irréalisable”, car il implique un contrôle sur des chaînes d’approvisionnement matérielles mondialisées et largement dominées par des acteurs non-européens. Cette pondération semble ainsi renforcer l’argument selon lequel le score est taillé pour les hyperscalers qui maîtrisent ces chaînes. À l’inverse, le poids relativement faible des aspects juridiques et de conformité (10 %) surprend. Ces critères sont pourtant cruciaux pour évaluer la protection d’un service face aux lois à portée extraterritoriale, l’une des menaces fondamentales pour la souveraineté des données européennes. Espérons que ces pondérations vont évoluer pour aller dans un autre sens. Un premier pas nécessaire Malgré les critiques , certains saluent l’initiative comme un “premier pas” indispensable pour enfin définir et mesurer objectivement la souveraineté d’une offre cloud. Il s’agit d’une tentative de standardisation attendue de longue date. Cette indice permet aussi de se positionner et de détecter les points faibles d’une stratégie Cloud. Des questions très concrètes émergent, notamment sur le cas des offres hybrides. Comment le score évaluera-t-il des offres comme Bleu ou S3NS, notamment sur les critères d’exposition juridique à des autorités étrangères et de dépendance technologique, alors que leur modèle repose précisément sur une technologie américaine opérée par une entité européenne ? Les Directeurs des Systèmes d’Information (DSI), les Responsables de la Sécurité des Systèmes d’Information (RSSI) et les fournisseurs eux-mêmes devront s’approprier rapidement cette méthodologie et l’intégrer dans leurs grilles d’analyse. Elle pourra aussi faire l’objet de critères techniques des appels d’offre (dans les CCTP). Conclusion L’initiative de la Commission européenne est une démarche conçue pour apporter clarté et promouvoir la souveraineté cloud. Comme souvent la commissions est accusée de complexité et de favoritisme envers les acteurs non-européens qu’elle était censée réguler. L’outil est sur la table, mais son calibrage et sa pondération pourraient bien déterminer son impact réel. Pour mesurer l’impact du score de souveraineté, il faudra mesurer son utilisation par les acheteurs publics et son exigence dans les dossiers de consultation. Pour le moment ce n’est pas le cas. On constate que la qualification SECNUMCLOUD est souvent demandée. C’est déjà un bon point. Par régis BAUDOUINThe post La commission européenne créé le score de souveraineté first
La souveraineté chinoise passe aussi par un BIOS Ce mois-ci la Chine a présenté son BIOS nommé UBIOS qui doit remplacer les BIOS actuels. Il sera présent dans les PC qui seront produits et utilisés en Chine. Cela fait partie de la guerre hybride que mènent les grandes puissances. Le ubios chinois Le BIOS (Basic Input/Output System) est un micrologiciel intégré à la carte mère d’un ordinateur qui joue un rôle fondamental lors du démarrage du système. Son principal objectif est d’assurer l’initialisation et le test des composants matériels essentiels, comme le processeur, la mémoire vive (RAM), les disques durs et les périphériques d’entrée/sortie.  Une fois ces vérifications terminées, le BIOS charge le système d’exploitation depuis un support de stockage (disque dur, clé USB, etc.). Stratégie de la Chine pour Bâtir son Autonomie Technologique Ubios La Fin de la domination américaine Pendant des décennies, le monde de la technologie a fonctionné sur un modèle d’interconnexion. Les géants américains comme Microsoft, Dell, IBM et Cisco étaient omniprésents en Chine, fournissant les infrastructures matérielles et logicielles qui ont alimenté une croissance industrielle fulgurante. Cette ère de collaboration, perçue comme une aubaine, masquait en réalité une dépendance stratégique que Pékin a jugé intolérable. Ceci d’autant plus que certains composants son soupçonnés de contenir des backdoor ou leur micologiciels de collecter des données. La Chine a déjà construit son propre réseau internet qui n’est pas celui que vous connaissez ici. Aujourd’hui, la Chine mène une campagne discrète mais massive pour démanteler cette dépendance. Loin de se limiter au remplacement de logiciels, cette stratégie s’attaque aux fondations mêmes de l’informatique. De la production jusqu’au cœur du matériel. Il ne s’agit plus de choisir une alternative locale, mais de bâtir un écosystème technologique entièrement souverain. Tout part du Document 79 : L’Ordre Secret pour Effacer l’Amérique Le point de départ de cette offensive est un ordre secret connu sous le nom de “Document 79”. Émise en septembre 2022 par la Commission de Supervision et d’Administration des Actifs de l’État, son objectif est radical : obliger les entreprises publiques des secteurs les plus critiques, comme la finance et l’énergie, à remplacer tous les logiciels étrangers. Ce document cible en particulier les américains. Tous ces composants doivent être remplacés par des alternatives locales d’ici 2027. La chine a décidé de cette stratégie suite à l’escalade des tensions technologiques et commerciales avec Washington. En particulier après l’intensification des restrictions à l’exportation de puces et des sanctions imposées par les États-Unis aux entreprises technologiques chinoise. Politique qui continue actuellement. Le niveau de confidentialité entourant cet ordre était extrême. Selon plusieurs sources, les hauts fonctionnaires et les dirigeants concernés n’étaient autorisés à consulter le document qu’en personne, sans jamais pouvoir en faire de copies. Dans certains cercles, cette directive a même été surnommée “Delete A” pour “Delete America”. Il s’agit d’un signal sans ambiguïté : la Chine ne négocie plus sa place dans l’écosystème existant, elle en bâtit un autre, à ses conditions. L’Impact Concret sur les Entreprises Américaines Cette politique n’est pas qu’un projet théorique ; ses conséquences sont déjà mesurables et impactantes pour les plus grands noms de la tech américaine. Les chiffres témoignent d’un changement de marché brutal et rapide. Hewlett Packard Enterprise (HPE) : Ses revenus en Chine, qui représentaient 14,1 % de son total chiffre d’affaires en 2018, ont chuté à seulement 4 % en 2023. Signe d’une retraite stratégique, HPE a annoncé en mai 2023 envisager la vente de sa participation de 49 % dans sa coentreprise chinoise. Dell : Sa part de marché des ordinateurs personnels en Chine a été presque divisée par deux au cours des cinq dernières années. Cisco : Dès 2019, l’entreprise signalait déjà perdre des contrats au profit de fournisseurs locaux, en raison d’une forte tendance à l’achat nationaliste. Microsoft : Les ventes du géant du logiciel en Chine ne représentent plus aujourd’hui que 1,5 % de ses ventes totales. Pour un marché de cette taille, ce chiffre est remarquablement bas et illustre l’érosion profonde de l’influence du géant du logiciel dans les ventes directes. IBM : Après avoir vu ses bénéfices diminuer de manière constante, la société a été contrainte de réduire ses opérations de recherche à Pékin en 2021. À cette liste s’ajoutent des entreprises de logiciels comme Adobe, Citrix et Salesforce, qui ont toutes réduit ou retiré leurs opérations directes en Chine. Ce point est particulièrement percutant car il traduit une stratégie politique abstraite en pertes de parts de marché réelles et massives pour des entreprises qui ont longtemps dominé le paysage technologique mondial. Vu de la France on ne se rend pas compte de la force de cette politique, ni de l’impact sur l’industrie de la tech. Car bientôt la Chine va venir en Europe avec ses solutions souveraines. Au-delà du Logiciel : UBIOS, une Révolution au Cœur du Démarrage des PC Si le remplacement des logiciels est une étape visible, la stratégie chinoise va beaucoup plus loin, jusqu’à la couche la plus fondamentale d’un ordinateur : le firmware de démarrage. La Chine a développé UBIOS (Unified Basic Input Output System), une alternative entièrement nationale à l’UEFI, le standard qui lance la quasi-totalité des PC dans le monde avant même le démarrage de Windows ou de Linux. Développé par le Global Computing Consortium (GCC),est un regroupement de 13 entreprises chinoises incluant Huawei. Ce nouveau standard (identifié par le code T/GCC 3007-2025) a été conçu à partir de zéro L’UEFI, historiquement lié à Intel et Microsoft, est jugé “lourd” et inefficace pour les nouvelles architectures informatiques hétérogènes et les “Chiplets” (puces modulaires) que la Chine développe activement. L’innovation majeure d’UBIOS réside dans son “Bus Virtuel Unifié” (UVB). Alors que les firmwares traditionnels ont des interactions complexes et rigides, l’UVB crée une interface de communication standardisée, simplifiant drastiquement les échanges entre tous les composants. En remplaçant l’UEFI, la Chine ne se contente pas de changer d’applications ; elle s’approprie la clé de contact de ses systèmes informatiques, garantissant une indépendance et une sécurité quasi totales. Alors que l’UEFI a dominé le marché en évoluant à partir du BIOS traditionnel pour surmonter des limitations historiques (comme la prise en charge de disques de plus de 2 To et des démarrages plus rapides), l’UBIOS est un cadre entièrement nouveau axé sur la sécurité nationale, la gestion de l’hétérogénéité des puces et l’établissement de la Chine comme fixateur de normes dans les technologies émergentes. Le UBIOS support d’autres plateformes que Intel, présente une expérience utilisateur bien plus simple et intimidante que les BIOS actuels. Actuellement les interface bios présentent souvent des options non documentées correctement ou obscures. L’utilisateur ne comprend pas leur fonction. Une Vision d’Avenir : Plus qu’une Simple Réponse aux Sanctions Il serait erroné de voir cette quête d’autonomie comme une simple réaction défensive aux sanctions américaines. Il s’agit en réalité d’une stratégie offensive et à long terme, connue sous le nom de “Xinchuang” (“innovation informatique”). Cette politique vise à garantir la sécurité et la fiabilité des technologies nationales. Cette initiative s’inscrit dans la vision économique plus large du président Xi Jinping, la “double circulation”, qui a pour but de réduire la vulnérabilité de la Chine aux chocs externes en s’appuyant sur la production et la consommation nationales. L’objectif n’est donc pas seulement défensif, mais vise à inverser les rôles : passer du statut de “preneur de standards” (standard-taker) à celui de “créateur de standards” (standard-setter). En établissant ses propres normes pour les technologies de nouvelle génération, Pékin ambitionne de transformer le reste du monde de fournisseur en simple client, voire en suiveur. Vers une guerre Numérique Mondiale ? Les faits sont sans équivoque : la Chine n’est pas seulement en train de remplacer la technologie occidentale. Elle construit brique par brique un écosystème technologique parallèle, complet et souverain, du logiciel le plus visible au firmware le plus enfoui. Cette démarche met fin à des décennies de standards technologiques partagés et annonce une nouvelle ère de compétition. La souveraineté chinoise est un objectif politique. Dès qu’elle aura complété son écosystème, elle commercialisera en Europe ses systèmes aux normes chinoises. En Europe des voix tirent la sonnette d’alarme pour constituer ici aussi un écosystème propre. Elle sont entendues mais, la volonté collective n’est pas là. Là ou les USA et la Chine sont une seule nation on est 27 pays. Sources de l’article : Blog convergia sur le document 79 WCCFTECH sur le lancement du BIOS uBIOS Par régis BAUDOUINThe post La souveraineté chinoise passe aussi par un BIOS first appeared on XY Magazine.
L’administration numérique est-elle vraiment plus accessible. C’est la promesse de la digitalisation des démarches administratives. Pourtant les études démontrent que la population préfère toujours avoir un fonctionnaire pour l’assister. Mais dans le même temps, le débat budgétaire et le discours politique est en faveur d’une baisse du nombre de fonctionnaires. L’administration numérique est-elle vraiment plus accessible ? La galère administrative : le nouveau mal français ? 4 chiffres chocs qui montrent que c’est l’affaire de tous Qui n’a jamais soupiré face à un formulaire à remplir ou à une démarche administrative à accomplir ? Ce sentiment, souvent frustrant et solitaire, est devenu une expérience universelle. Mais au-delà de l’anecdote, une nouvelle enquête du Défenseur des droits vient mettre des chiffres précis sur ce ressenti collectif. Publiée en octobre 2025, cette étude agit comme une évaluation grandeur nature des vastes chantiers de modernisation des services publics, notamment la dématérialisation promise par des programmes comme « Action publique 2022 ». Les constats sont aussi surprenants qu’alarmants. Cet article décrypte les quatre points les plus marquants et contre-intuitifs de cette enquête qui nous concerne tous. La dématérialisation des procédures facile-t-elle la vie L’enquête menée par le Défenseur des droits montre que, bien que la dématérialisation puisse représenter un progrès pour certains, elle est loin de faciliter les démarches pour l’ensemble de la population. Ce que montre le sondage c’est que la dématérialisation est même liée à une augmentation notable des difficultés générales. Voici une analyse détaillée basée sur les résultats de l’enquête : La Dématérialisation comme Source de Difficultés L’enquête s’est spécifiquement penchée sur le rôle du numérique afin d’évaluer les effets de la dématérialisation sur l’accessibilité des services publics. Il en ressort que la dématérialisation, lorsqu’elle est mise en œuvre trop rapidement et insuffisamment accompagnée, vient confirmer les difficultés. Constant : Autonomie réduite en ligne : Une part non négligeable de la population n’arrive pas à effectuer ses démarches administratives en ligne seule. Moins d’une personne sur deux (49%) parvient à réaliser seule ses démarches administratives en ligne. 36% des répondants déclarent avoir besoin d’une aide ponctuelle. 8% n’y arrivent pas seuls et ont besoin d’être accompagnés. 7% évitent les démarches en ligne par choix personnel. (ceux qui veulent des humains) Difficultés pour tous les âges : Les difficultés liées aux démarches en ligne touchent autant les plus jeunes que les plus âgés. Par exemple, 51% des 18-34 ans et 53% des 55-79 ans déclarent rencontrer des difficultés. Surement pas pour les même raisons. Les premiers car ils ne comprennent pas la démarché, les seconds car ils ne sont pas familiers avec les formulaires en ligne. Augmentation des difficultés générales : La dématérialisation croissante des services publics est liée à un élargissement du nombre et des profils des usagers en difficulté pour réaliser leurs démarches administratives. En 2024, 61% des usagers rencontrent des difficultés (ponctuelles ou régulières) pour réaliser leurs démarches administratives, contre 39% en 2016. Cette hausse est significative y compris pour les populations considérées comme favorisées, telles que les cadres ou professions intermédiaires (+86 %) ou les diplômés de master et plus (+75 %). Il s’agit ici d’une hause par d’une part de cette population. Conséquences sur l’accès aux droits : La complexité des démarches est le motif principal de renoncement à un droit (dans 70% des cas). La conclusion est bien que la société est complexe. En ligne ou pas les démarches nécessitent du conseil et assistance. Soit on fait appels à un expert (avocat, expert comptable notaire…) avec un cout associé. soit on veut des fonctionnaires pour aider mais il faut accepter des impôts et des effectifs. Le fait que les démarches soient réalisables uniquement en ligne et le manque d’accès à un ordinateur ou à internet ont été la raison du renoncement pour 7% des personnes concernées. Les Ambivalences : Facilitation pour certains, Obstacle pour d’autres La dématérialisation peut avoir des effets contradictoires. Simplification potentielle pour les usagers aguerris : Pour les personnes à l’aise avec le numérique, la dématérialisation simplifie la résolution de problèmes avec les services publics (possibilité de réaliser les démarches à distance, de se renseigner plus rapidement en ligne, transmission de documents par voie numérique, etc.). D’ailleurs, l’enquête observe une baisse de la proportion de personnes déclarant avoir rencontré des problèmes dans la résolution d’un problème avec un service public (passant de 54% en 2016 à 42% en 2024). Cette facilitation potentielle dépend fortement de la capacité à rechercher l’information en ligne. Le maintien du contact humain comme facteur d’efficacité : Malgré la tendance au “tout numérique”, le contact humain reste l’outil privilégié par les usagers en cas de problème, et il est jugé plus efficace. Le principal problème rencontré est la difficulté à contacter quelqu’un pour obtenir des informations ou un rendez-vous (citée dans 72% des cas), ce qui est presque deux fois plus qu’en 2016 et concorde avec la dématérialisation des administrations qui ne prévoient pas toujours de canaux alternatifs. C’est normal, beaucoup de service en ligne ne prévoient pas d’alternatives humaines. En cas de problème, les contacts physiques ou téléphoniques sont plus fructueux que les démarches à distance ou dématérialisées. Le succès est de 72% pour ceux qui se sont rendus sur place, et de 67% pour ceux qui ont appelé, contre seulement 56% pour ceux qui ont envoyé un courrier. Recommandations en faveur d’un accès universel Face à ces constats, le Défenseur des droits insiste sur l’impératif de garantir un accès « omnicanal » aux services publics. Les recommandations incluent notamment de : Renforcer les procédures alternatives aux démarches dématérialisées, notamment l’accueil au guichet et l’accueil téléphonique, pour permettre à l’usager de choisir le mode de communication le plus approprié à sa situation. C’est facile de la demander. La mise ne place d’un service numérique c’est un cout qui doit s’amortir en remplaçant le cout humain antérieur. Si on cumule les deux couts. c’est l’usager qui paie. Simplifier les interfaces numériques et veiller à ce que l’information soit claire, compréhensible et ergonomiquement adaptée à tous (par exemple en utilisant le langage « facile à lire et à comprendre » – FALC). On peut aussi demander que les lois soient plus simples que l’on demande moins de données. Renforcer l’accompagnement numérique des usagers qui rencontrent des difficultés spécifiques face à l’administration numérique. La galère administrative n’est plus réservée aux autres : elle est devenue l’affaire de tous. Le premier constat choc de l’enquête est l’explosion du nombre de personnes rencontrant des difficultés administratives. En 2024, 61 % des sondés déclarent rencontrer des difficultés, qu’elles soient ponctuelles ou régulières, contre seulement 39 % en 2016. Ce qui rend cette évolution particulièrement surprenante, c’est qu’elle touche absolument toutes les catégories de la population, y compris celles que l’on pensait à l’abri. Les chiffres sont sans appel : le nombre de personnes en difficulté a augmenté de +86 % chez les cadres et professions intermédiaires, et de +75 % chez les diplômés de niveau master et plus. Ce chiffre suggère que la complexité n’est plus un symptôme d’inégalité sociale mais est devenue une caractéristique systémique de l’administration elle-même. Cette augmentation généralisée contribue paradoxalement à réduire les écarts entre les groupes sociaux, non pas par le haut, mais en universalisant la difficulté. La complexité administrative n’est plus un problème marginal affectant quelques-uns ; c’est devenu un phénomène de société. Cette généralisation s’explique en grande partie par une transformation majeure de l’action publique : la dématérialisation, dont les effets se font sentir y compris chez ceux que l’on croyait immunisés. Le mythe du « natif du numérique » : les jeunes aussi peinent avec les démarches en ligne. L’un des enseignements les plus contre-intuitifs de l’étude est que les difficultés avec le numérique ne sont pas qu’une question de génération. On imagine souvent les jeunes, agiles avec leurs smartphones, naviguer sans effort sur les plateformes administratives. La réalité est bien différente. Moins d’une personne sur deux (49 %) parvient à faire ses démarches en ligne sans aide. Plus frappant encore, les jeunes de 18-34 ans sont presque aussi nombreux (51 %) à rencontrer des difficultés en ligne que les 55-79 ans (53 %). Ce constat remet en cause le postulat au cœur de nombreuses réformes : l’idée qu’une simple transition numérique suffirait à moderniser l’accès aux services publics. Il brise le mythe du “natif du numérique” en montrant que la maîtrise des outils du quotidien ne se traduit pas par une aisance face à la logique propre des procédures dématérialisées. Cette difficulté, qui transcende les générations, explique pourquoi, face à un blocage, le réflexe des usagers n’est pas de persister en ligne, mais de chercher une solution humaine. Le renoncement aux droits : la conséquence la plus grave de la complexité. Lorsque la complexité est généralisée, que les obstacles numériques sont là et qu’il est impossible de joindre un interlocuteur, la conséquence la plus grave se matérialise : le renoncement pur et simple à ses droits. Près d’un quart des usagers (23 %) déclarent avoir déjà renoncé à un droit (une allocation, une prestation, un statut) auquel ils pouvaient
Le bio-ordinateur fusionne neurones et silicium. Cet ordinateur existe et vous pouvez l’acheter en ligne. c’est la société Cortical Lab qui l’a créé. Le bio-ordinateur fusionne neurones et silicium On avait évoqué l’ordinateur quantique dans un précédent article. Le bio ordinateur c’est un autre domaine d’applications. Le bio-ordinateur Cortical Lab Cortical Labs est une start-up australienne fondée en 2019. Elle est basée à Melbourne. Son objectif est de révolutionner l’informatique en intégrant des neurones vivants dans des puces de silicium.  L’entreprise a lancé, en mars 2025, son premier ordinateur biologique commercial, le CL1, décrit comme la première « intelligence biologique synthétique » (Synthetic Biological Intelligence – SBI) au monde. Ce système hybride combine des neurones humains cultivés à partir de cellules souches pluripotentes induites (iPSCs) avec une infrastructure de silicium équipée d’électrodes pour permettre une communication bidirectionnelle. Le CL1, fonctionne grâce à un système d’exploitation biologique (biOS) qui transmet des signaux électriques aux neurones et convertit leur activité en actions dans un monde numérique simulé. Les neurones, qui se connectent entre eux sur la puce, sont maintenus en vie dans un environnement contrôlé comprenant des systèmes de filtration, de régulation de la température, de mélange de gaz et de distribution de nutriments. Ces cultures peuvent survivre six mois ou plus, avec des expériences ayant démontré une survie jusqu’à un an. Notez que l’ordinateur a une coque transparente qui permet de voir les neurones travailler. Enfin on voit pas grand chose en vrai. Au-delà de l’IA que nous connaissons L’intelligence artificielle est synonyme de processeurs en silicium, de centres de données et d’une consommation d’énergie colossale. Une alternative révolutionnaire émerge, fusionnant le vivant et la machine : des neurones humains, cultivés en laboratoire, intégrés directement à des puces électroniques. L’entreprise australienne Cortical Labs est à la pointe de ce domaine, baptisé Intelligence Biologique Synthétique (SBI), avec son nouveau dispositif, le CL1. Cette technologie promet une intelligence plus dynamique, fondamentalement plus évolutive et plus économe en énergie. Cette technologie rappelle le dessin animé Capitaine FLAM qui avait avec lui le cerveaux du Professeur Simon Wright. On n’est pas encore parvenu à ce résultat. Professeur Simon Wright dans Capitaine FLAM ——————————————————————————– Les neurones en boîte apprennent plus vite qu’une IA de pointe La découverte la plus contre-intuitive est sans doute l’efficacité d’apprentissage de ces systèmes biologiques. Dans une expérience fondatrice nommée “DishBrain”, une culture d’environ 800 000 neurones humains a été intégrée à une simulation du jeu d’arcade Pong. De manière stupéfiante, ce réseau neuronal biologique a appris à jouer au jeu en seulement 5 minutes. C’est une réalisation majeure de Cortical LAB. Pour quantifier cette performance, une étude comparative a opposé ces réseaux neuronaux biologiques (BNN) à trois algorithmes d’apprentissage par renforcement profond (RL) de pointe (Intelligence Artificielle traditionnelle). Lorsque le nombre de sessions d’entraînement était limité à environ 70 épisodes (l’équivalent d’une session de 20 minutes pour le système biologique), les BNN ont systématiquement surpassé les algorithmes d’IA. Ce résultat est remarquable : un système biologique , recevant une quantité d’informations très limitée, s’est montré plus efficace pour apprendre une tâche spécifique que des algorithmes complexes et gourmands en ressources. Il est crucial de noter que cette supériorité réside dans l’efficacité d’échantillonnage ; avec des milliers de sessions d’entraînement supplémentaires, les algorithmes d’IA finissent par apprendre la tâche. La véritable percée est donc la vitesse à laquelle l’intelligence biologique s’adapte avec un minimum de données, un exploit qui reste hors de portée des systèmes en silicium. Un “ordinateur” vivant sur une simple puce de verre et de métal Au cœur du CL1 se trouvent des neurones humains cultivés en laboratoire, dérivés de cellules souches, qui sont ensuite placés sur une puce en silicium dotée d’un réseau de micro-électrodes. Le développement de ce matériel a nécessité de surmonter des obstacles importants. Les anciennes puces de type CMOS, bien que permettant une lecture à haute densité, présentaient des limites majeures : elles étaient opaques, empêchant l’observation directe des connexions neuronales, et provoquaient une accumulation de charge électrique qui finissait par endommager les cellules. Le nouveau matériel résout ce problème en permettant un équilibrage de charge stable. Le dispositif complet, le CL1, se présente sous la forme d’un boîtier autonome qui fournit tout le support vital nécessaire aux cellules. Il intègre un système de filtration, un contrôle de la température, un mélangeur de gaz et des pompes pour maintenir les cellules en bonne santé. Un rack de serveur contenant 30 de ces unités ne consomme qu’entre 850 et 1000 watts, une fraction de l’énergie requise par les infrastructures d’IA conventionnelles. Contrôle et Interface : Les neurones sont placés sur un réseau de 59 électrodes planaires (principalement composées de métal et de verre) qui optimisent la connexion électrodes-neurones et offrent une plus grande stabilité de charge. L’ensemble est connecté à un système de logiciel pour une exploitation en temps réel. Stimulation et Lecture Bidirectionnelles : Le CL1 fournit une “interface de stimulation et de lecture bidirectionnelle” conçue spécifiquement pour permettre la communication neuronale et l’apprentissage en réseau. Autonomie : Ces bio-ordinateurs sont conçus pour être entièrement programmables et ne nécessitent pas d’ordinateurs externes pour fonctionner. Le Mécanisme d’Apprentissage : La quête de prévisibilité, pas de code Contrairement aux algorithmes d’IA qui reposent sur des mécanismes mathématiques comme la rétropropagation de l’erreur, ces réseaux de neurones apprennent en suivant un principe biologique fondamental : la recherche de la prévisibilité. Le système d’apprentissage fonctionne sur un modèle de “récompense et punition”. La récompense n’est pas un score, mais un signal prévisible et économe en énergie. Lorsque les neurones réussissaient à “frapper” la balle dans Pong, ils recevaient une stimulation électrique structurée et prévisible : un signal de 100 Hz délivré simultanément sur l’ensemble des huit électrodes sensorielles pendant 100 millisecondes. La punition, quant à elle, était un signal imprévisible et chaotique. Lorsqu’ils “manquaient” la balle, les neurones recevaient une stimulation électrique aléatoire et chaotique : un signal de 5 Hz délivré à des moments et sur des électrodes imprévisibles pendant quatre secondes, créant un environnement sensoriel désordonné. En réponse à ces stimuli, les neurones réorganisent spontanément leurs connexions pour maximiser les signaux prévisibles (la récompense) et éviter les signaux chaotiques (la punition). C’est de cette adaptation auto-organisée qu’émergent l’apprentissage et l’amélioration des performances. Un accès via le cloud et une révolution pour la recherche Cortical Labs ne se contente pas de développer une technologie de pointe ; l’entreprise la rend également accessible. Les premières unités CL1 sont commercialisées avec un prix de départ d’environ 35 000 dollars américains. Plus innovant encore est le modèle commercial de “Wetware-as-a-Service” (WaaS). Cette approche permettra aux chercheurs et aux innovateurs du monde entier d’accéder à distance aux bio-ordinateurs via le cloud, sans avoir à acheter et à entretenir le matériel physique. Les applications potentielles de cette plateforme sont révolutionnaires. Elles incluent : • La découverte de médicaments et la modélisation de maladies, en particulier pour des conditions neurologiques comme l’épilepsie et la maladie d’Alzheimer. • La réduction, voire le remplacement, des tests sur les animaux, offrant une alternative éthique et potentiellement plus pertinente. • L’exploration de questions biologiques fondamentales, comme la définition du “Cerveau Minimal Viable”, c’est-à-dire le réseau neuronal le plus simple capable de fonctions cognitives. • Le développement de nouvelles intelligences robotiques, permettant la création de systèmes d’apprentissage plus organiques et adaptatifs. Vers une nouvelle intelligence ? L’Intelligence Biologique Synthétique ne représente pas simplement une amélioration de l’IA existante, mais un changement de paradigme. Nous ne codons plus l’intelligence ; nous créons les conditions pour qu’elle émerge. C’est un passage de l’architecture à l’horticulture cognitive, exploitant la capacité innée des neurones à s’adapter pour ouvrir des horizons jusqu’ici réservés à la science-fiction. Le développement ou la programmation avec un ordinateur neurologique comme le CL1 de Cortical Labs, qui combine des processeurs en silicium avec des neurones humains, s’articule autour de l’accès à la technologie et de l’exploitation de ses capacités d’intelligence biologique synthétique (SBI). Le CL1 est conçu pour être un bio-ordinateur fonctionnel et entièrement programmable. Le dispositif offre un degré de contrôle élevé sur les réseaux de neurones, qui interagissent avec les puces. Cette avancée nous place également face à une nouvelle frontière éthique. Cette perspective soulève des questions profondes sur la conscience et le statut moral de ces systèmes vivants, mais aussi des questions plus pragmatiques et urgentes concernant la confidentialité, le consentement et la sécurité des données biologiques. Qui possède l’information traitée par ces neurones ? Comment la protéger contre les cyberattaques ou l’usage abusif ? A ch
La France veut être un leader de l’intelligence artificielle. En avons nous les moyens, quels sont les défis à relever. Voyons ensemble les différents enjeux et solutions pour parvenir à cet objectif. La France veut être un leader de l’intelligence artificielle Le débat sur l’intelligence artificielle est omniprésent, mais dans le flot continu d’annonces et de promesses, il devient de plus en plus difficile de distinguer le battage médiatique de la réalité économique. Comment savoir où se situent véritablement la France et l’Europe dans cette course technologique qui redessine le monde ? Le paradoxe français : champion des talents, mais poids plume de l’investissement La France excelle dans la création de talents et de start-ups en intelligence artificielle, mais peine dramatiquement à financer leur croissance. Le pays est un leader en Europe, avec 781 start-ups en Intelligence artificielle, dépassant l’Allemagne (687). Mieux encore, la France abrite Mistral AI, le seul champion européen développant des modèles de langage d’usage général à cette échelle, qui se trouve en “situation d’hégémonie sur le marché européen”. A la date de la rédaction de cet article Mistal a été acquis par ASML qui détient 11% du capital. Quelques chiffes concernant la France : 81 Nombre de laboratoires d’intelligence artificielle en France en 2021. C’est le plus grand nombre parmi les pays européens. 600 Nombre de startups spécialisées en IA en 2023, soit une hausse de 24 % depuis 2021 13 500 Nombre de personnes qui travaillent dans les startups de l’IA en 2021 (pour 70 000 emplois indirects générés). Source : Stratégie nationale IA, ministère de l’économie Cependant, ce succès entrepreneurial masque une faiblesse structurelle massive. Entre 2013 et 2023, le secteur privé américain a investi 335 milliards de dollars dans l’Intelligence artificielle. Pour la même période, la France n’a mobilisé que 8 milliards de dollars. Cet écart abyssal s’explique par un déficit de capital-risque, particulièrement visible pour les entreprises en phase de croissance (“late stage gap”). C’est aussi que comparer la France et les USA c’est un problème d’échelle. Il faut comparer l’Europe et les USA pour être cohérent. Source : Financial Times, Has Europe’s great hope for AI missed its moment?, 30 janvier 2025. Si on veut comparer, il faut passer à l’echelle de l’europe et des USA. Initiative InvestAI : la Commission européenne a annoncé l’initiative InvestAI visant à mobiliser 200 milliards d’euros pour le développement de l’Intelligence artificielle en Europe. Ce montant ambitieux provient en grande partie d’une initiative privée, l’« AI Champions Initiative », qui rassemble plus de 60 entreprises européennes s’engageant sur 150 milliards d’euros, complétée par une contribution de 50 milliards d’euros de la Commission. 200 contre 300 ont est pas encore au même montant, mais c’est plus cohérent. Pour mobiliser des capitaux, le France a ses handicaps. Une fragmentation des marchés de capitaux européens et la frilosité des investisseurs institutionnels, contraints par des règles prudentielles comme Solvabilité II. En conséquence, il freine l’émergence de géants technologiques et pousse de nombreuses pépites prometteuses à se financer, voire à se délocaliser, aux États-Unis. Pas de fond souverains ou de retraite qui peuvent mobiliser des montants en milliard d’Euro comme les USA en disposent. Une économie morcelée entre plus de 20 pays qui ne parlent pas le même langue et n’ont pas les mêmes règles sur l’investissement. La France possède le génie créatif et la capacité d’innovation, mais elle ne parvient pas à leur donner les moyens financiers de leurs ambitions mondiales. Mais si le capital est le nerf de la guerre, l’impact sur le capital humain est tout aussi fondamental. L’IA, un surprenant levier d’égalité ? L’une des craintes les plus répandues concernant l’Intelligence artificielle est qu’elle creuse les inégalités en remplaçant massivement les travailleurs les moins qualifiés. Or, le rapport parlementaire met en lumière des études dont les premières conclusions vont à l’encontre de cette idée reçue. Loin de se substituer à l’humain, l’IA agit pour l’instant davantage comme un “copilote”. Les données chiffrées sont particulièrement éloquentes. Dans le secteur du support client, l’intelligence artificielle augmente la productivité des employés les moins expérimentés de 34 %. Pour la même tâche, l’augmentation moyenne de la productivité pour l’ensemble des employés n’est que de 14 %. Autrement dit, l’IA bénéficie de manière disproportionnée aux novices. Cette découverte est fondamentale : plutôt que d’accentuer les inégalités de compétences, l’IA pourrait agir comme un outil de formation en temps réel, permettant aux débutants de rattraper plus rapidement les experts. Le rapport apporte toutefois une nuance importante : les gains marginaux semblent décroissants, ce qui suggère que les premiers usages de l’IA ont concerné les tâches où son potentiel était le plus fort. Cette approche positive aura aussi ces cotées sombres. Création de nouvelles inégalités, polarisation de secteurs plus ou moins impactés. Le législateur va intervenir pour protéger et orienter. L’Europe est déjà intervenue avec la régulation RIA. Le mythe de l’IA “frugale” : la course à la puissance a un coût Récemment, un “coup de froid” a secoué l’écosystème mondial de l’Intelligence artificielle. Une start-up chinoise jusqu’alors méconnue, DeepSeek, a affirmé avoir développé un modèle de langage de pointe pour le “coût dérisoire de 5,6 millions de dollars”. Cette annonce a semblé fragiliser la stratégie de Mistral AI, dont le positionnement est précisément fondé sur l’efficacité et la capacité à faire mieux avec moins de moyens que les géants américains. Mais l’histoire ne s’arrête pas là. Une analyse approfondie du cabinet SemiAnalysis, citée dans le rapport, a révélé une tout autre réalité. Derrière la communication officielle, DeepSeek aurait en réalité investi 1,6 milliard de dollars en matériel, incluant un parc de cinquante mille GPUs Nvidia. L’image d’une IA chinoise frugale s’est alors fissurée. Cette révélation confirme que la communication initiale relevait davantage d’une “stratégie d’influence” que d’une véritable rupture technologique. Le développement d’IA de pointe reste une course aux investissements colossaux, dont les coûts ne cessent de grimper, comme le souligne le rapport : L’entraînement du modèle GPT-4 d’OpenAI aurait coûté de l’ordre de 78 millions de dollars, et celui du modèle Gemini Ultra de Google près de 191 millions. Les USA ont clairement vu que l’IA n’est pas sobre. Leur plan stratégie pour IA prévoit la construction de nombreux datacenter, de lancer la production d’usine électriques utilisant des énergies fossiles ou pas. Pour cette économie de plateforme IA et Cloud. Il faut des usines à GPU (processeurs de calcul). C’est un point faible de la stratégie européenne qui veut bloquer l’artificialisation des sols et réduire la production d’énergie. La souveraineté en danger : quand les règles européennes freinent l’innovation La souveraineté européenne en matière d’Intelligence artificielle ne dépend pas seulement de sa capacité à produire des technologies. Elle est aussi conditionnée par un environnement réglementaire et économique qui, paradoxalement, peut se transformer en obstacle. On peut pointer du doigt plusieurs “rigidités institutionnelles et réglementaires” qui ralentissent l’adoption de l’IA sur le continent. Des législations du travail en Allemagne, en Espagne ou en Italie, par exemple, rendent plus complexe la réorganisation des entreprises, pourtant nécessaire pour intégrer pleinement les gains de productivité de l’IA. De plus, le principe du “human in the loop” (supervision humaine), bien qu’essentiel pour des raisons éthiques, crée des “goulots d’étranglement humains”. Pour analyser ce phénomène, le rapport s’appuie sur la “théorie de l’O-ring” de l’économiste Michael Kremer, qui explique que la performance d’un système complexe reste limitée par la performance de son maillon le plus faible. L’Europe se trouve face à un dilemme complexe. Elle doit trouver un équilibre délicat entre la protection de ses valeurs sociales et de ses citoyens d’une part, et la nécessité de rester compétitive face à des régions du monde qui opèrent avec beaucoup moins de contraintes. Les risques de sur règlementation IA par rapport aux USA et à la Chine Le coût total de la mise en conformité des entreprises aux exigences réglementaires pourrait représenter environ 17 % du coût total de l’investissement dans l’IA. L’évaluation de la conformité représenterait 13 % du coût d’investissement dans les systèmes. Le respect du dispositif initial (RIA) pourrait engendrer des dépenses comprises entre 131 M€ et 345 M€ pour l’économie de l’Union européenne. Ces coûts pourraient peser sur la diffusion de la technologie. L’approche par les risques du RIA (systèmes à haut risque, systèmes à usage général) est jugée complexe et source d’incertitudes pour les entreprises. Les opérateurs économiques expriment un attentisme et des préoccupations face à l’absence d’actes délégués et de lignes directrices qui devraient clarifier et stabiliser le classement des systèmes d’IA (SIA). Charges administratives : La coexistence du RGPD (Règlement général sur la protection des données) et du RIA pourrait se traduire par des contraintes et des exigences croisées, générant des procédures de documentation fastidieuses, voire décourageantes, en l’absence de coordination des formalités. La législation comme levier et condition de la souveraineté Malgré les obstacles, le cadre législatif européen (et français) est en cours d’adaptation pour soutenir l’innovation et la souveraineté en matière d’IA. Le RIA vise à établir un régime juridique uniforme à l’échelle d
La guerre hybride qui menace notre souveraineté se caractérise par des attaque contre notre base industrielle et technologique. L’assemble nationale a publié un rapport du député Christophe PLASSARD (parti Horizon), que vous pouvez lire sur ce lien. Je m’en suis inspire pour dresser un panorama de la menace. Même si on parle de guerre aucun coup de feu ne sera tiré dans cet article. C’est bien la nature silencieuse de cet affrontement qui le rend particulièrement dangereux. La guerre hybride qui menace notre souveraineté La guerre hybride qui menace notre souveraineté La France est confrontée à une intensification sans précédent de la guerre économique. Cette menace vise particulièrement la base industrielle et technologique de défense (BITD) et cherche à capter, contrôler et s’approprier des richesses pour accroître la puissance des compétiteurs stratégiques de la France. La menace est décrite comme étant à la fois élevée, croissante et multiformes. Quelles sont les formes de la menace ? Les attaques contre les intérêts économiques et stratégiques français prennent plusieurs formes qui peuvent se combiner : Atteintes humaines : Celles-ci représentent plus d’un tiers des menaces et sont en hausse. Elles incluent l’espionnage, les indiscrétions internes de salariés, le chantage, ou encore le recrutement ciblé de compétences. Atteintes physiques : Elles représentent près d’une attaque sur cinq et ont quasiment doublé en un an. Il s’agit d’intrusions, de sabotages, de cambriolages, de dégradations ou de survols de sites sensibles par des drones. Cyberattaques : Leur nombre “explose”. En 2024, l’ANSSI a traité 4 386 “événements de sécurité”, soit une augmentation de 15 % par rapport à 2023. Ces attaques peuvent paralyser l’activité d’une entreprise, voire entraîner sa disparition. Menaces capitalistiques : Représentant 15 à 30 % des menaces, elles visent les entreprises financièrement fragiles par des prises de contrôle hostiles ou des investissements étrangers indirects. Le risque est la délocalisation, le transfert de technologies et la perte de souveraineté. Sans aller chercher du coté de nos ennemis, on voit bien que les USA ciblent des industries stratégiques en France. Ces acquissions se font dans le domaine des logiciels, de l’intelligence artificielle, du quantique. Menaces juridiques (Lawfare) : Certains États instrumentalisent le droit, notamment via des normes à portée extraterritoriale, pour entraver le développement d’entreprises concurrentes ou capter des données stratégiques. La politique actuelle de TRUMP le fait très officiellement. Menaces informationnelles et réputationnelles : Elles sont en augmentation et prennent la forme de campagnes de désinformation, de dénigrement ou de boycott pour déstabiliser les entreprises, souvent au moment où elles sont sur le point de remporter un marché à l’export. Lisez mon article sur TIKTOK, service chinois qui utilise son succès Qui sont les cibles principales ? La cible principale est la base industrielle et technologique de défense (BITD) française, qui compte 4 000 entreprises. Au sein de la BITD, les menaces se concentrent sur : Les PME (Petites et Moyennes Entreprises) : 80 % des atteintes visent les PME, qui sont considérées comme le “maillon le plus faible” de la chaîne de valeur car elles sont moins bien dotées que les grands groupes pour se défendre. Mais surtout détiennent des savoir faire utilisés dans les grands groupes. Les organismes de recherche : Les universités, écoles et laboratoires sont également des cibles de convoitise pour leur excellence et leur savoir-faire, et sont particulièrement vulnérables aux tentatives d’espionnage et d’ingérence. Du fait de leur ouverture et de leur mode de fonctionnement, elles sont moins prudentes. Les secteurs stratégiques : Les domaines où la France possède une expertise reconnue, comme l’aéronautique et le spatial (un tiers des attaques), les logiciels de gestion, sont particulièrement visés. D’où vient la menace ? Les menaces proviennent de tous les compétiteurs stratégiques de la France. Ceci concerne aussi bien les alliées comme les USA que des adversaires comme la Russie ou la chine. La Russie et la Chine sont identifiées comme les principales sources d’ingérences graves. La Russie reste très active en matière de cyberattaques et de désinformation, tandis que la Chine mène une stratégie de “pillage technologique”. Des alliés stratégiques : La menace peut aussi émaner de pays alliés. Les États-Unis sont explicitement cités comme menant une “véritable guerre économique contre l’Europe” en utilisant des outils juridiques comme la réglementation “Itar” ou le Cloud Act pour favoriser leurs propres entreprises. D’autres concurrents : Tous les États dotés d’une industrie de défense concurrente (Iran, Turquie, Israël, Corée…) ou cherchant à imposer des rapports de force économiques plus favorables sont des menaces potentielles. La guerre économique généralisée, utilise tous les moyens disponibles pour affaiblir les entreprises stratégiques françaises, en particulier les PME de la défense, avec des attaques provenant aussi bien d’adversaires que d’alliés. Les moyens mis en oeuvre pour contrer la menace Face à l’intensification de la guerre économique, la France a mis en œuvre et renforcé une série de moyens pour protéger ses actifs stratégiques, en particulier sa base industrielle et technologique de défense (BITD). La France a longtemps fait preuve de naïveté. Les moyens mis en œuvre couvrent plusieurs domaines : le renforcement des services de l’État, la modernisation des outils juridiques, des mesures de financement et une nécessaire évolution des mentalités. Le stockage numérique de données et l’utilisation des outils de messagerie représentent un enjeu crucial de cybersécurité et de souveraineté pour la France, en particulier pour la Base Industrielle et Technologique de Défense (BITD). Voici les observations et recommandations principales concernant le stockage numérique, tirées des sources, notamment du rapport d’information sur la guerre économique de M. Christophe Plassard: Menaces et Vulnérabilités liées au Stockage Numérique La question de la cybersécurité est particulièrement aiguë en ce qui concerne le stockage numérique de données et les outils de messagerie. La domination incontestée des grandes plateformes numériques étrangères crée de fortes externalités négatives et maintient un voile d’opacité sur l’utilisation des données sensibles des entreprises de la BITD. Ces entreprises stockent leurs données soit sur des serveurs situés à l’étranger, soit les confient à des prestataires (banques, cabinets de conseil, avocats, etc.) qui utilisent eux-mêmes des solutions étrangères. Le droit américain, notamment le Patriot Act et le Cloud Act, autorise le FBI à obliger les entreprises, y compris les fournisseurs de services d’accès à internet ou de stockage de données, à communiquer toutes les données qu’ils ont pu collecter, même celles concernant des entreprises situées en dehors du territoire américain. La possibilité que des entreprises comme Microsoft soient juridiquement tenues de communiquer des données confidentielles de leurs clients aux autorités américaines ne peut être exclue. Cela a été reconnu lors de l’audition de sont directeur à l’assemblée nationale. Nécessité de Solutions Souveraines Le devoir de l’État est de protéger les données confidentielles qu’il partage avec les entreprises, et de la responsabilité de ces entreprises de protéger les données qui leur sont confiées. Les données sensibles doivent être identifiées, transiter par des outils de télécommunications ou de messagerie sécurisés, et ne plus être stockées sur des serveurs situés à l’étranger (sans cloisonnement ni chiffrage). Ces données doivent être stockées sur des serveurs situés en France ou en Europe, afin d’être soumises à la réglementation européenne et à l’abri des atteintes étrangères, qu’elles soient légales ou illégales. Une évolution progressive vers des solutions souveraines et sécurisées est considérée comme possible, car la France dispose des ressources technologiques et des compétences humaines nécessaires pour rehausser son niveau de sécurité. Accepter cette évolution implique toutefois d’accepter un certain niveau de surcoût, qui est une condition indispensable à la pleine souveraineté. L’État, notamment via Bpifrance, a mis en place des dispositifs pour favoriser le développement d’une filière de stockage des données, permettant à des hébergeurs français d’émerger. Cependant, les acteurs français, qui constituent une alternative crédible, ne pourront se développer et acquérir une taille critique que s’ils reçoivent des commandes. La réglementation doit imposer aux entreprises, y compris celles de la BITD, d’utiliser des solutions françaises ou européennes offrant un niveau de sécurité équivalent, et d’éviter certains prestataires lorsqu’il y a une incertitude sur la confidentialité des données. Cela renforcera la protection des données tout en favorisant le développement d’entreprises capables de concurrencer les grandes plateformes étrangères. able. Le renforcement général des moyens de cyberdéfense, notamment par l’ANSSI pour les grands groupes et la DRSD (Direction du renseignement et de la sécurité de la défense) pour les PME de la BITD, vise également à mieux protéger les systèmes d’information et les données. La DGA a d’ailleurs mis en place un référentiel de maturité cyber pour accompagner les entreprises dans l’élévation de leur niveau de cybersécurité. Renforcement des moyens et de l’organisation de l’État L’État a consolidé les moyens budgétaires et humains alloués à l’intelligence et à la sécurité économiques, en se réorganisant pour mieux assurer ses missions. Au sein du Ministère des Armées : La Direction Générale de l’Armement (DGA) a renforcé son rôle.
Plusieurs rapports de commissions d’enquête parlementaire françaises, l’une du Sénat et l’autre de l’Assemblée Nationale, ont formulé de nombreuses préconisations visant à réguler l’utilisation de TikTok et d’autres réseaux sociaux. En particulier pour protéger les mineurs. Ces recommandations s’articulent autour de plusieurs axes majeurs, allant de la sécurité nationale à la santé publique, en passant par la régulation des contenus et la transparence des plateformes. TIKTOK l’application qui drogue la jeunesse TIKTOK et la Chine Concernant se réseau social, c’est une société contrôlée par la Chine. Même si l’entreprise présente un visage international. Au bout du bout c’est un contrôle politique. Structure de l’entreprise et contrôle chinois Malgré les efforts de l’entreprise ByteDance pour présenter une séparation totale avec la Chine, les enquêtes parlementaires établissent que des liens étroits persistent à plusieurs niveaux. TikTok appartient à ByteDance Ltd, une société enregistrée aux îles Caïmans pour des raisons d’opacité. Bien que le PDG de TikTok, Shou Zi Chew, ait affirmé devant le Congrès américain que ByteDance est une entreprise internationale détenue par des investisseurs américains, la commission d’enquête française souligne que son fondateur chinois, Zhang Yiming, détient 20 % du capital et exercerait en réalité le contrôle. Ceci serait possible grâce à une structure de type “variable interest entities” (VIE), courante pour les entreprises chinoises, qui permet à un actionnaire minoritaire de contrôler la société. Zhang Yiming est lui-même soumis à un contrôle renforcé des autorités chinoises. Les représentants de TikTok nient systématiquement tout lien avec la Chine, en présentant ByteDance comme une entreprise internationale et en affirmant une “séparation totale” entre TikTok et la branche chinoise de ByteDance (nommée Douyin). Cependant, les commissions d’enquête françaises jugent que ces “deux axes de défense ne tiennent pas”. Compte tenu de la nature du régime chinois, il est évident que ces déclarations sont trompeuses. Dépendance technologique et opérationnelle Les sources indiquent une forte dépendance de TikTok envers les ressources et les technologies basées en Chine. Le rapport de la commission d’enquête du Sénat montre que TikTok dépend des technologies, des brevets et des ingénieurs de sa branche à Pékin. Cette branche chinoise est décrite comme le “véritable cœur de la société ByteDance” et est soumise au contrôle direct des autorités chinoises via une “golden share” (une action spécifique qui donne des droits de vote importants à son détenteur, ici l’État chinois). Lorsque les autorités américaines ont envisagé de forcer ByteDance à vendre TikTok à un concurrent, le gouvernement chinois a vivement réagi, arguant que des “technologies nationales essentielles sont en jeu”. Le rôle du Parti Communiste Chinois et les stratégies d’influence Les entreprises numériques chinoises, y compris TikTok, sont considérées comme des acteurs clés dans les stratégies d’influence menées par la Chine. C’est le soft power à la chinoise. Plus fin que les USA, il présentent des entreprises internationales comme indépendance du pouvoir dans un pays qui ne fait pas de différence entre le politique et l’économique. Le PCC exerce un “contrôle étroit” sur ces entreprises via divers moyens, comme la création de cellules du parti au sein des sociétés ou l’acquisition de “golden shares”. Le développement de ces entreprises ne peut se faire sans un “soutien affirmé des autorités chinoises”. La Chine a développé une stratégie de “guerre cognitive”, et le succès mondial de TikTok (plus d’un milliard d’utilisateurs) la rend particulièrement vulnérable aux pressions de Pékin pour relayer sa propagande ou censurer des contenus. L’algorithme de TikTok pourrait être paramétré pour défendre un agenda politique, en mettant en avant des contenus radicaux ou en censurant des sujets sensibles pour la Chine. Tiktok fait la promotion de contenus équivoques et polémiques selon les pays. Principalement à destination de la jeunesse. Collecte, transfert et utilisation des données La gestion des données des utilisateurs européens constitue une préoccupation majeure, notamment en ce qui concerne leur transfert vers la Chine. Les enquêtes ont mis en évidence des “transferts de données d’utilisateurs de TikTok vers la Chine et vers des ingénieurs basés en Chine”. Ces partages de données avec des entités du groupe situées en Chine sont justifiés de manière opaque pour “assurer certaines fonctions”. Pour rassurer les utilisateurs européens, TikTok a annoncé le projet “Clover”, visant à stocker leurs données en Europe. Cependant, ce projet est jugé insuffisant car il maintient la possibilité de transférer des données vers la Chine et d’y autoriser des accès à distance pour les ingénieurs et salariés. Attention la législation chinoise est extraterritoriale dans ce domaine. L’accès des autorités chinoises aux données collectées par TikTok pourrait leur permettre d’initier des actions d’espionnage, de collecter des informations sur des individus en vue d’une cyberattaque, ou de lancer des campagnes de désinformation. Des faits avérés d’espionnage et de géolocalisation de journalistes enquêtant sur TikTok ont déjà été rapportés. Danger pour la jeunesse Plusieurs préoccupations majeures émergent concernant les effets psychologiques et la sécurité des mineurs sur TikTok. Ces inquiétudes sont alimentées par la conception même de la plateforme, la nature des contenus qui y sont diffusés et les mécanismes algorithmiques qui les amplifient. L’exposition à une multitude de contenus néfastes Une préoccupation centrale est la large diffusion de contenus dangereux qui mettent directement en péril la santé physique et mentale des jeunes utilisateurs. La plateforme regorge de vidéos, musiques et images qui banalisent, voire glorifient le suicide et l’automutilation, les présentant parfois comme une solution ou une libération. Des témoignages poignants rapportent des publications telles que « la nuit porte conseil. Moi, elle m’a conseillé de prendre un tabouret et une corde ». Pire encore, TikTok se transforme en un véritable « manuel d’autodestruction », fournissant des tutoriels détaillés sur les techniques de scarification (par exemple, avec une lame de taille-crayon), les médicaments à utiliser pour mettre fin à ses jours, ou encore des astuces pour dissimuler ses blessures aux parents. TikTok diffuse massivement des normes physiques inatteignables et maladives, faisant la propagande de la maigreur excessive. Des discours culpabilisants comme « Tu n’es pas moche, tu es juste grosse » ou « Si tu ressens la faim, c’est que tu es sur la bonne voie » y sont courants, normalisant des comportements alimentaires dangereux. Des régimes drastiques et des astuces pour se faire vomir sont également partagés, contribuant directement à l’apparition ou à l’aggravation des TCA. Le hashtag #SkinnyTok a notamment inondé la plateforme de contenus valorisant la maigreur extrême, atteignant 97 millions de vues en un mois avant d’être finalement bloqué sous la pression publique. L’application est un terreau fertile pour les « charlatans » et la désinformation. Des non-professionnels de santé y prodiguent des conseils douteux, parfois complotistes. La psychologie et la psychiatrie y sont souvent caricaturées, avec des conseils absurdes (« manger une orange sous la douche pour réduire l’anxiété ») ou dangereux, comme l’incitation à l’abstention thérapeutique. Cela mène à de nombreux autodiagnostics douteux basés sur les contenus vus en ligne. Les mineurs sont exposés à une violence verbale décomplexée (insultes, harcèlement) et à des images de violence physique crue et morbide (torture, accidents mortels, tueries de masse). Des contenus antisémites, racistes, prosélytismes prolifèrent. Les mécanismes de dépendance et d’enfermement algorithmique Le modèle économique et la conception technique de TikTok sont au cœur des préoccupations, car ils sont pensés pour créer une dépendance et enfermer les utilisateurs, particulièrement les plus vulnérables. L’algorithme de TikTok est particulièrement efficace pour cerner rapidement les intérêts des utilisateurs et les maintenir sur la plateforme le plus longtemps possible. Le format de vidéos très courtes, le défilement infini et la personnalisation accrue créent un « cocktail détonant ». Certains psychologues parlent d’« addictivité » voire d’« abrutissement ». Ce modèle, basé sur l’économie de l’attention, a pour finalité unique le profit, sans considérations éthiques pour la santé des utilisateurs. L’algorithme a tendance à enfermer les utilisateurs dans des « bulles de filtre » dangereuses. Une étude a montré que les profils marquant un intérêt pour la santé mentale se voient proposer 12 fois plus de vidéos liées au suicide que des profils standards. Ce phénomène, connu sous le nom d’« effet terrier de lapin » (rabbit hole effect), est particulièrement puissant sur TikTok : un adolescent peut passer d’une vidéo de danse à des contenus anxiogènes sur le suicide et s’y retrouver piégé. Cela donne le sentiment que le monde se construit selon ce standard et que toutes le contenus parlent de ce sujet. La plateforme exploite les vulnérabilités psychologiques des jeunes pour maximiser leur engagement et ses profits. Elle collecte massivement des données pour deviner leur état émotionnel et leur niveau de bien-être, afin de leur proposer des contenus ultrapersonnalisés. Ainsi, TikTok ne se contente pas d’aggraver des troubles préexistants ; il peut également contribuer à en faire naître chez des mineurs qui allaient bien auparavant. L’insuffisance de la protection et de la sécurité des mineurs Malgré un cadre légal et des règles communautaires en apparence protectrices, la sécurité des mineurs est en pratiq
Les USA veulent garder leur leadership en intelligence artificielle Les USA veulent garder leur leadership en intelligence artificielle. On a la chance qu’ils publient un document sur le sujet. On peut l’analyser ensemble. Vous allez voir que tous les coups sont permis. Le plan d’action pour l’IA des Etats unis, intitulé “Winning the Race: AMERICA’S AI ACTION PLAN” et publié en juillet 2025, a pour objectifs principaux de garantir la domination technologique mondiale des États-Unis dans le domaine de l’intelligence artificielle. Face à la Chine mais aussi à l’Europe, il est impératif pour les États-Unis et leurs alliés de gagner cette course à l’IA. Celui qui possédera le plus grand écosystème d’IA établira les normes mondiales et en tirera d’importants avantages économiques et militaires. La victoire dans cette course devrait également inaugurer un “âge d’or” de prospérité humaine, de compétitivité économique et de sécurité nationale pour le peuple américain, déclenchant une révolution industrielle, une révolution de l’information et une renaissance simultanées. J’ai repris ici l’esprit de ce document, on voit bien la nature un peu messianique du texte. Le plan d’action repose sur trois piliers stratégiques Pilier I : Accélérer l’innovation en IA Ce pilier vise à faire en sorte que l’Amérique dispose des systèmes d’IA les plus puissants au monde et qu’elle soit le leader mondial dans l’application créative et transformative de ces systèmes. Pour ce faire, le gouvernement fédéral doit créer les conditions propices à l’épanouissement de l’innovation menée par le secteur privé. Il s’agit de soutenir l’IA open-source, de faciliter l’adoption de l’IA dans l’industrie et le gouvernement. Coté humain, il faut développer des compétences de main-d’œuvre américaine. Il faudra investir dans la fabrication de puces nouvelle génération et la science basée sur l’IA. Construire des data center scientifiques de classe mondiale, Enfin, lutter contre les médias synthétiques (deepfakes). En lisant cela, on voit mieux ce qui se passe actuellement avec la politique douanière et migratoire aux Etats unis. Finalement c’est cohérent. En résumé protéger l’industrie américaine de pointe et lui donner les moyens de dominer les autres. Rapatrier le savoir faire de conception et production aux Etats unis. Mettre les compétences humaines des américains sur ces sujets. Pilier II : Construire l’infrastructure américaine de l’IA Ce pilier met l’accent sur la nécessité de construire et de maintenir une vaste infrastructure d’IA ainsi que l’énergie nécessaire pour l’alimenter. Cela inclut la multiplication les centres de données, des installations de fabrication de semi-conducteurs et l’infrastructure énergétique. Il faut donc simplifier les procédures d’installation de de fonctionnement par les législations favorables. Cela ne va pas dans le sens de la sobriété numérique. Les enjeux environnementaux vont passer au second plan. Il est également essentiel de développer un réseau de production électrique capable de suivre le rythme de l’innovation en IA. La préoccupation des USA sur l’énergie s’explique par les besoins à venir en électricité. Pilier III : Mener la diplomatie et la sécurité internationales en matière d’IA Pour réussir la compétition mondiale en IA, les États-Unis doivent non seulement promouvoir l’IA au niveau national, mais aussi stimuler l’adoption des systèmes, du matériel informatique et des normes d’IA américains dans le monde entier. Ce pilier vise à exporter l’IA américaine vers les alliés et partenaires, à contrer l’influence chinoise dans les organismes de gouvernance internationale, à renforcer l’application du contrôle des exportations de calcul d’IA. C’est en cours de mise en place avec les taxes sur les ventes de NVIDIA à la chine. Cette taxe de 15% est complétement inédite. Les USA posent aussi des conditions de puissance aux puces vendues en Chine. Légiférer pour réduire les contraintes règlementaires à l’IA Le plan prévoit des mesures significatives concernant la réglementation de l’intelligence artificielle (IA), axées principalement sur la réduction des obstacles et l’accélération de l’innovation. Voici les points clés concernant la réglementation ou la non règlementation : Suppression de la bureaucratie et des réglementations contraignantes : Le plan vise à supprimer la bureaucratie et les réglementations pour permettre au secteur privé de maintenir le leadership mondial en matière d’IA. L’IA est jugée trop importante pour être étouffée par la bureaucratie Le président Trump a déjà pris des mesures en ce sens, notamment en annulant le décret exécutif 14110 l’IA, qui laissait présager un régime réglementaire contraignant. Promotion de la liberté d’expression et des valeurs américaines dans l’IA : Le plan souligne la nécessité que les systèmes d’IA soient exempts de préjugés idéologiques et conçus pour rechercher la vérité objective, plutôt que des programmes d’ingénierie sociale. Le ministère du Commerce (DOC), par l’intermédiaire du National Institute of Standards and Technology (NIST), révisera le cadre de gestion des risques de l’IA du NIST pour éliminer les références à la désinformation, à la diversité, à l’équité et à l’inclusion, et au changement climatique. Les directives d’approvisionnement fédérales seront mises à jour pour s’assurer que le gouvernement ne conclut des contrats qu’avec des développeurs de modèles de langage de grande taille (LLM) de pointe qui garantissent que leurs systèmes sont objectifs et exempts de biais idéologiques . Infrastructures et énergie Le plan vise à simplifier les permis pour les centres de données, les installations de fabrication de semi-conducteurs et les infrastructures énergétiques. Le plan prévoit également de rendre les terres fédérales disponibles pour la construction de centres de données et d’infrastructures de production d’énergie. Volet industriel du plan Le plan américain sur l’intelligence artificielle (IA) prévoit un volet industriel ambitieux, visant à faire des États-Unis le leader mondial de l’IA et à en récolter les bénéfices économiques et militaires. Ce volet se caractérise par une déréglementation, un soutien à l’innovation, un développement massif des infrastructures et un renforcement de la fabrication nationale. Soutenir la Fabrication de Nouvelle Génération de devices : L’IA permettra des innovations majeures dans le monde physique, telles que les drones autonomes, les voitures auto-conduites et la robotique. Il est crucial que les États-Unis et leurs alliés soient des fabricants de premier ordre de ces technologies et de ces produits. Ce soutien est en ligne avec les droits de douanes pour re industrialiser les USA et les exigences d’investissements des entreprises étrangère sur le sol américain. Dans le même temps le gouvernement US a pris une participation de 10% dans le concepteur de puces Intel Construire les Infrastructures Américaines de l’IA : L’IA nécessitera de nouvelles infrastructures massives, notamment des usines pour produire des puces, des centres de données pour faire fonctionner ces puces et de nouvelles sources d’énergie pour alimenter le tout. Ce plan va nécessiter de supprimer une bonne partie de la législation écologique. Ce type d’infrastructure combine un énorme besoin ,d’eau, de surface d’énergie et de terres rares. Tout ce que la législation européenne préconise à sens inverse. Restaurer la Fabrication Américaine de Semi-conducteurs : Le plan insiste sur la nécessité de ramener la fabrication de semi-conducteurs sur le sol américain. Une industrie de puces américaine revitalisée créera des milliers d’emplois bien rémunérés, renforcera le leadership technologique et protégera les chaînes d’approvisionnement. Cet objectif peut prendre plus de 10 ans tant l’industrie des puces est actuellement en Asie. Des mesures seront prises pour renforcer l’application des contrôles à l’exportation pour les capacités de calcul de l’IA et pour combler les lacunes des contrôles existants sur l’exportation de semi-conducteurs, notamment en développant de nouveaux contrôles sur les sous-systèmes de fabrication de semi-conducteurs. Les USA veulent maitriser à la fois la production et l’usage qui sera fait des puces GPU. C’est déjà le cas avec les contraintes qu’ils ont imposé à NVIDIA. Développer le Réseau Électrique pour l’IA : Le réseau électrique américain sera modernisé pour soutenir les centres de données et d’autres industries énergivores du futur. Cela implique de stabiliser le réseau existant, d’optimiser les ressources et de privilégier l’interconnexion de sources d’énergie fiables et pilotables, ainsi que d’adopter de nouvelles sources d’énergie à la pointe de la technologie (géothermie améliorée, fission et fusion nucléaires). On en vient au nucléaire qui a été abandonné par les USA et qui va redevenir une priorité. Laissant de cote le renouvelable qui ne permet pas de fournir un flux continu d’énergie à bas cout. Former une Main-d’œuvre Qualifiée pour les Infrastructures de l’IA : Le plan prévoit d’investir dans la main-d’œuvre qui construira, exploitera et entretiendra l’infrastructure de l’IA. Une initiative nationale sera lancée pour identifier les métiers prioritaires essentiels à la construction des infrastructures liées à l’IA, développer des cadres de compétences modernes et soutenir les programmes de formation axés sur l’industrie. Des programmes d’apprentissage seront développés. Avec ce document les USA ont le mérite de bine poser leurs ambitions. Privilégier le leadership au delà de toute autre considération. L’écologie ne doit pas entraver le progrès ni le profit. La croissance se fera au dépend des autres compétiteurs. Le libéralisme est assisté par la politique fédérale. Source Plan USA pour gagner la course à l’IA The post
Les ados et le numérique alimentent beaucoup de fantasmes. Les intervenants son nombreux. Les parents en premier lieu veulent le meilleur pour leurs enfants. L’éducation nationale doit les instruire en intégrant les innovations. Les publicitaires savent que ce sont des proies faciles et qu’ils peuvent les influencer pour toute leur vie. Il faut compter aussi avec les autres ado car on ne se fait pas de cadeau à cet Age. Les ados et le numérique Au milieu de tout cela on trouve les smartphones, les consoles et les PC. Les ado et le numérique Les usages numériques des adolescents, particulièrement ceux âgés de 11 à 15 ans, sont bien plus complexes et divers que les clichés habituels d’abêtissement et d’addiction ne le suggèrent. En particulier les jeunes sont bien plus actifs et conscients que victimes. Une étude française récente, intitulée “Numérique adolescent et vie privée“, menée par Mehdi Arfaoui et Jennifer Elbaz de la CNIL, a éclairé cette entrée dans le monde numérique, se basant sur une revue de littérature scientifique, 130 entretiens avec des collégiens et 600 questionnaires remplis par des parents. Une entrée progressive et diversifiée dans le numérique L’arrivée dans le monde numérique n’est pas brutale, comme souvent imaginé à l’entrée en 6ᵉ, mais se fait plutôt par étapes, souvent via la tablette ou l’ordinateur familial, ou le téléphone des parents, et toujours au sein du foyer. Les parents sont présents durant cette étape et en profitent pour instaurer les premières règles. Dès l’acquisition de leur premier terminal, souvent à l’entrée en 6ème, l’usage est avant tout pour rester en contact avec les copains. Coté parents, c’est pour pister et contacter le petit à tout moment Contrairement aux idées reçues, les enfants ne se précipitent pas sur des plateformes comme Instagram ou TikTok une fois équipés d’un appareil individuel. Ces réseaux sont perçus avec méfiance par les plus jeunes et leurs parents. De plus maintenant des limites d’âges existent pour ouvrir un compte. Autre usage majeur pour les jeunes en collège publique Pronote et environnements numériques de travail (ENT). Ce logiciel édité par DOCAPOSTE s’est imposé comme le doudou des enfants et des parents pour les rapport entre le collège et les familles. Les jeux vidéo en priorité Derrière les usages scolaires, les jeux vidéos sont très utilisés soit sur smartphone soit sur console. Les jeux ne sont pas les mêmes selon le sexe. En clair on reproduit les mêmes schémas que les jeux de la vraie vie (IRL). Les garçons et les filles n’ont pas les mêmes centres d’intérêts. Les jeux vidéo sont perçus par les adolescents et leurs parents comme un loisir moins risqué que les plateformes sociales. Les adolescents prêtent moins d’attention aux risques liés à l’exploitation commerciale de leurs données par les plateformes de jeux, car ils en ont rarement fait l’expérience concrète. Les jeux vidéo jouent un rôle primordial dans la vie sociale des adolescents. Ils agissent comme un « espace de vie sociale partagé avec les pairs », permettant de consolider les relations et de renouveler les expériences de sociabilité. Ils offrent également des opportunités techniques et culturelles pour l’invention et l’affirmation de soi à l’adolescence, une période d’expérimentation identitaire importante. L’orientation vers certains types de jeux vidéo est d’ailleurs fortement liée à des facteurs sociaux comme l’âge, le genre et la classe sociale. La musique en permanence Une caractéristique du numérique, c’est que l’écoute de la musique a été totalement modifiée. Avec le smartphone via le casque ou les écouteurs. Les ados sont connectés à leurs musiques en permanence. Les playlists sont celles de leur fournisseur de contenus (spotify, deezer, Amazon) ou des morceaux téléchargés. Les adolescents consomment de la musique en ligne principalement via le streaming. Environ 89 % des adolescents écoutent de la musique quotidiennement sur leurs smartphones. Le streaming musical est devenu un réflexe, particulièrement durant les déplacements. Les plateformes comme YouTube, Spotify et Deezer sont les plus fréquemment utilisées pour accéder à une grande variété de genres musicaux. Les jeunes consacrent en moyenne environ une heure et demie par jour, soit environ 8 heures par semaine, à l’écoute musicale. Une étude indique que 54 % des adolescents écoutent au moins deux heures de musique par jour, et 17,4 % écoutent jusqu’à cinq heures ou plus. La musique accompagne leurs activités quotidiennes, qu’il s’agisse de faire leurs devoirs, de se déplacer, ou même de s’endormir, puisque 52,2 % des adolescents s’endorment en écoutant de la musique. Les goûts musicaux des adolescents sont dominés par le rap, suivi de près par la pop, le rock et la musique électronique. Ils sont également très actifs sur les réseaux sociaux, qui influencent fortement leurs choix musicaux, avec plus de 90 % des jeunes visitant régulièrement ces plateformes. En outre, 70 % des jeunes créent des playlists en ligne, bien que seulement 10 % les partagent publiquement. L’écoute en casque est très répandue, avec 87,4 % des jeunes utilisant des écouteurs ou un casque, et un tiers d’entre eux écoutant deux heures ou plus par jour avec. L’acquisition des réseaux sociaux et la négociation parentale L’inscription sur les messageries (comme WhatsApp) et les réseaux sociaux (Snapchat, Instagram, tiktook) vient après. Ces outils sont principalement utilisés pour communiquer avec la famille, les amis ou la classe. Chaque ouverture de compte fait l’objet d’une négociation. Les usages et règles sont négociés. Cela à une telle valeur que c’est aussi l’objet de punitions de privation. L’usage de départ est de faire partie d’un groupe, pour échanger ou regarder ceux qui produisent des contenus. Peu de jeunes produisent eux même les contenus qu’ils regardent. C’est 1% des usagers qui sont actifs. L’environnement externe agit sur les réseaux autorisés. Tiktok est un réseau souvent mis en accusation et doit être négocié plus que les autres. Source de perte de temps et d’exposition à des contenus extrêmes, ce réseau est un vrai danger à cet âge. Un parcours non linéaire et en constante renégociation L’introduction au monde numérique n’est pas linéaire. A cette âge les ado changement et évoluent dans leurs pratiques et leurs gouts. Les choix et les introductions d’applications sont constamment remis en cause et renégociés, dans un parcours fait de “tâtonnements, de moments de désappropriation ou de réappropriation des outils numériques”. Déjà, les parents peuvent réévaluer leurs décisions. Ils exigent des contreparties aux réseaux, soit sous forme de résultats scolaires, ou sous forme d’obéissance. De leur côté, les adolescents remettent en question leurs comportements passés, effacent des publications anciennes et changent radicalement d’habitudes, illustrant une appropriation dynamique et exploratoire. La pratique amène la maitrise aussi par l’expérience et les déconvenues. La suppression de contenus passés est courante. La culture de l’historique et du souvenir n’est pas ancrée chez les ado. Les adolescents, loin d’être naïfs face à la vie privée Nous pensons que les ado sont insouciants et naïfs vis à vis des réseaux sociaux. Les adolescents déploient un véritable arsenal de stratégies pour limiter leur exposition et protéger leur vie privée en ligne. Ces stratégies incluent l’anonymisation des pseudonymes, l’utilisation de comptes privés, la multiplication des comptes, la suppression régulière de contenus, la préférence pour les “stories” éphémères, et la norme tacite du “no face” (absence de visage sur les photos de profil). Cette maîtrise ne s’acquiert pas par une éducation institutionnelle, mais principalement par un savoir circulant entre pairs, nourri par l’expérimentation et les retours d’expérience. Ils distinguent fortement les pratiques de “consommation” et de “production” de contenu, la majorité se détournant de la production active en raison des risques bien identifiés. Quand on dit qu’un ado est sur les réseaux, en fait il consomme des contenus. Très peu produisent. Ils sont plus exposés à des contenus qui peuvent jouer sur les opinion ou leurs informations. Avoir des idées et produire des contenus n’est pas leur préoccupation. Même, ils considèrent ceux qui le font comme plutôt anormaux. Concernant les risques sur les réseaux, leur vigilance repose sur les risques concrets (moqueries, harcèlement, vol de compte, pornodivulgation), plutôt que sur des risques perçus comme abstraits (collecte de données personnelles par les plateformes). C’est en ce sens qu’il sont de bon clients pour les annonceurs. La collecte de données se fait en douceur auprès d’une population qui est sensible à d’autres enjeux. Sources : Etude CNIL Numérique adolescent et vie privée Pause : Les jeux vidéo et votre ado: une passion harmonieuse ou obsessive? Emergence : Quelle musique écoutent les ados ? Une étude sur le genre musical préféré des jeunes et leur consommation musicale. The post Les ados et le numérique first appeared on XY Magazine.
Le processeur haute performance européen est annoncé en phase de production. Il est conçu en partie en France. Le projet Rhea1 est le nom donné au processeur hautes performances de première génération développé par la société française SiPearl. Il est conçu spécifiquement pour le calcul haute performance (HPC) et vise à équiper les supercalculateurs européens (dit exascale en anglais). Quelques mots sur SiPearl le concepteur du Rhea1 SiPearl est une entreprise basée en France. elle a été créée en juin 2019 par Philippe Notton pour donner vie au projet du consortium European Processor Initiative (EPI) dont l’objectif est de favoriser le déploiement en Europe de technologies microprocesseur haute performance et basse consommation. La société a été recapitalisée après une procédure de conciliation avec les créanciers. Elle vient de passer un cap difficile. Société à capitaux privés, SiPearl bénéficie du soutien de l’Europe et d’institutionnels que l’on retrouve dans sont conseil d’administration. Sont présents des représentants de EVIDEN (ATOS), la Banque Publique d’Investissement (BPI,) de ARM, le concepteur de processeurs (sur laquelle est basée la technologie), et la Banque Européenne d’Investissement (BEI) SiPearl développe les microprocesseurs européens qui accompagneront les supercalculateurs d’Europe pour atteindre la puissance exascale. Elle travaille en étroite collaboration avec ses 30 partenaires du consortium EPI  – communauté scientifique, centres de supercalcul, grands noms de l’informatique, l’électronique et l’automobile – qui sont ses parties prenantes, futurs clients et utilisateurs finaux. Le Conseil d’administration de SiPearl a été récemment réorganisé après une levée de fonds de 90 M€, et il est présidé par Ian Jenks.  Point clés du processeur RHEA1 Spécifications Techniques du processeur : Le processeur est développé sur une base ARM. Technologie RISc à faible consommation énergétique. Identique à ce que vous trouvez dans les smartphones et les PC Apple. Notez que cette technologie est plus performance que le technologie CISC Intel qui équipe les PC Windows. L’objectif principal de Rhea1 est de garantir la souveraineté européenne en matière de calcul intensif, réduisant ainsi la dépendance aux technologies étrangères pour des applications critiques, y compris la dissuasion nucléaire C’est pas moins de 80 cœurs ARM Neoverse qui sont associés pour constituer ce processeur. Il intègre 80 milliards de transistors. La puce est gravée et assemblée par le Taïwanais TSMC en utilisant le procédé N6 (6 nm). La souveraineté est surtout là pour la conception. Pour la fabrication et les technologies de base, l’Europe doit faire appels aux compétences de ARM (UK) et TSMC (Taiwan). Il n’existe pas de fondeur capable de le produire en Europe. La souveraineté est également là pour les applications militaires, et nucléaires. Logiciels et Programmation : Le CPU Rhea1 sera supporté par un large éventail de compilateurs, bibliothèques et outils, incluant des langages de programmation traditionnels comme C/C++, Go et Rust, ainsi que des frameworks d’intelligence artificielle modernes comme TensorFlow ou PyTorch. Calendrier de Disponibilité : Les premiers échantillons de Rhea1 sont désormais attendus pour 2025. Cela représente un retard par rapport aux prévisions antérieures qui tablaient sur une commercialisation début ou courant 2024. Le supercalculateur JUPITER, qui doit intégrer Rhea1, devait être accessible fin 2024, ce qui implique que son calendrier pourrait également être affecté par ce retard. Le premier client majeur de SiPearl sera le supercalculateur européen exascale JUPITER. Il sera construit en Allemagne par Eviden et exploité par le Forschungszentrum Jülich. JUPITER utilisera les processeurs Rhea1 pour son module Cluster à usage général, tandis que sa puissance principale proviendra de GPU Nvidia. Un partenariat a été mis en place avec Nvidia. C’est sur ce point que la souveraineté est un peu mise à mal. L’intégration des composants hardware repose sur une technologie NVIDIA autant que européenne. La version finale sera équipée de 24000 puces NVIDIA GH200. Tout cet équipement peut expliquer le prix de chaque unité de Jupiter à 500 million d’euros. On n’est clairement pas dans des budgets grand public. Un supercalculateur exaflopique ou exascale Ce sont des serveurs massivement parallèles dont la puissance de calcul est supérieure à 10 exposant 18 flops (Un intel core I7 à une puissance de 10 exposant 9 flops). Pour fonctionner ils sollicitent plusieurs processeurs en parallèles qui découpent les taches en sous taches et les exécutent simultanément. Les principales applications sont les calculs haute performance et l’analyse de données complexes. Les domaines d’applications se retrouvent dans la simulation pour l’automobile, la physique, le nucléaire, les prototypes virtuels, l’intelligence artificielle. Avec de tels besoins, les enjeux sont la course à la puissance et la course à l’énergie. Plus un processeur tourne vite plus il chauffe et consomme. L’enjeu est de maximiser la puissance sans chauffer et sans consommer trop. Retrouvez nos autres articles sur www.xymag.tvThe post Le processeur haute performance européen est annoncé first appeared on XY Magazine.
Stratégie cyber-sécurité de la France est bien définie. La France a élaboré et fait évoluer sa stratégie nationale en matière de cyber-sécurité face à l’amplification et à la sophistication des cyber-menaces, ainsi qu’en réponse au cadre réglementaire européen. Stratégie cyber-sécurité de la France Origine et Évolution La lutte contre les cyber-menaces a été organisée en France dès 2004, puis renforcée après l’attaque informatique subie par l’Estonie en 2007. La Nouvelle Stratégie Nationale de Cyber-sécurité (2024) La nouvelle stratégie nationale de cyber-sécurité a été définie fin 2024 et validée en novembre 2024 par le conseil de défense et de sécurité nationale. Elle s’inscrit dans un nouveau cadre défini par l’évolution de la menace et la réglementation européenne, notamment les directives NIS 2, REC et DORA. Son objectif est de définir une politique publique globale qui vise à développer l’expertise, à utiliser des technologies avancées, et à renforcer le pilotage pour répondre aux agressions et consolider la protection des systèmes d’information de l’État et des entités importantes. Elle vise également à construire une “société de confiance” cyber. La stratégie confirme le maintien d’un comité directeur cyber, présidé par le Premier ministre, qui abordera les trois volets de la sécurité numérique pour définir les grandes orientations de l’État en cybersécurité. Elle instaure un comité de pilotage des politiques publiques cyber (C3PC), de nature interministérielle, sous la responsabilité du SGDSN. Ce comité est chargé d’établir la planification interministérielle pluriannuelle des ressources de l’État, sa déclinaison annuelle, et le suivi des moyens dédiés dans les ministères. Mise en Œuvre et Recommandations Bien que finalisée, cette nouvelle stratégie n’a pas encore fait l’objet d’une publication officielle ni d’une déclinaison publique sous forme de plan d’action et de financements dédiés. C’est bien là un point faible du sujet. Pour garantir son effectivité, elle doit être adossée à un échéancier précis des actions à mener et à une programmation pluriannuelle des ressources à mettre en œuvre dans la sphère des services de l’État. Elle nécessite de préciser les missions de l’ANSSI et d’accompagner la construction de l’écosystème de cyber-sécurité ainsi que la diffusion de la culture de la sécurité numérique dans l’ensemble de la société, en rationalisant son financement et les dispositifs de soutien. Le rôle central de l’ANSSI L’Agence Nationale de la Sécurité des Systèmes d’Information (ANSSI) joue un rôle central et déterminant dans la cyber-sécurité civile en France. Créée par décret n° 2009-834 du 7 juillet 2009, l’ANSSI est un service à compétence nationale rattaché au Secrétariat Général de la Défense et de la Sécurité Nationale (SGDSN), placé auprès du Premier ministre. Ce positionnement stratégique souligne le haut niveau de prise en compte de la menace et la nécessité d’un traitement multisectoriel et interministériel. Voici les principales missions et fonctions de l’ANSSI, ainsi que son rôle dans la stratégie cyber-sécurité : Autorité nationale de sécurité et de défense des systèmes d’information (SSI): Elle est l’expert français de cybersécurité dans les relations internationales. Elle contribue à la sécurisation des systèmes d’information des organisations internationales dont la France est partie, notamment pour la protection des informations classifiées. Elle soutient les travaux relatifs à l’élaboration de la stratégie nationale de cybersécurité. Elle est chargée de la transposition de la directive européenne NIS 2 en droit français. Conseil et soutien: Elle assure une mission de conseil et de soutien technique aux administrations, aux Opérateurs d’Importance Vitale (OIV), aux Opérateurs de Services Essentiels (OSE), et aux Fournisseurs de Services Numériques (FSN) pour la conception et la mise en œuvre de leurs systèmes d’information les plus critiques. L’assistance technique est majoritairement dédiée aux services de l’État, mais aussi aux OIV/OSE et à des organismes internationaux. Centre de Réponse aux Incidents de Sécurité (CERT-FR): Elle est le centre de réponse aux incidents de sécurité gouvernemental et national français. Le CERT-FR répond aux demandes d’assistance suite à des incidents de sécurité, traite les alertes, détecte les attaques ciblant les systèmes d’information gouvernementaux, et identifie les vulnérabilités. Elle assure le suivi des incidents cyber et leur remédiation. La complexité des opérations d’endiguement et de gestion de crise est croissante. Elle a accompagné l’émergence et la structuration des CSIRT (Computer Security Incident Response Team) ministériels et territoriaux, et coordonne les réponses aux incidents. Contrôle et audit: Elle réalise des audits pour vérifier l’effectivité et la performance de la sécurité des systèmes d’information des entités régulées (OIV, OSE, administrations). La fonction de contrôle doit être plus fortement structurée et intensifiée, notamment avec l’élargissement du périmètre d’entités concernées par la directive NIS 2. L’ANSSI prévoit de distinguer clairement ses missions d’accompagnement et de contrôle pour maintenir la confiance. Qualification et certification de produits et services: L’ANSSI met en place des procédures de qualification et de certification (CSPN, CC) pour évaluer et approuver les produits, services et prestataires de cybersécurité qui répondent à ses normes. Ces qualifications sont obligatoires pour les solutions destinées aux OIV, aux autorités administratives relevant du Référentiel Général de Sécurité (RGS), et aux entités relevant du règlement eIDAS. Elle labellise également des formations (label SecNumedu). Formation et sensibilisation: Elle assure la formation des agents des entités régulées en cybersécurité via son Centre de Formation pour la Sécurité des Systèmes d’Information (CFSSI). Elle mène des actions de sensibilisation aux cybermenaces auprès du grand public (ex: Cybermoi/s, SecNumacadémie). Il est nécessaire d’adapter l’offre de formation aux besoins des organismes régulés et de développer l’observation et l’orientation de l’offre de formation en cybersécurité. Observation de la menace cyber: L’ANSSI centralise l’observation de la menace cyber, produisant des analyses et des synthèses (ex: panorama de la cybermenace). Il est recommandé de mettre en place à court terme un observatoire de la cybermenace au sein de l’ANSSI, centralisant les données et analyses à l’échelle nationale pour prévoir leur évolution. Contribution à la politique industrielle et à l’écosystème: L’ANSSI est un acteur clé dans la promotion des technologies de sécurité et a soutenu le développement d’une politique industrielle cyber. Elle est associée aux processus de sélection des projets financés par des stratégies comme France 2030. Elle est partenaire de plateformes comme Cybermalveillance.gouv.fr et du Campus Cyber, et il est recommandé de proposer un modèle économique pérenne pour ces entités. L’ANSSI est le pilier technique et réglementaire de la cybersécurité civile en France. Elle définit les normes, assiste les entités critiques, réagit aux incidents, forme les acteurs, et contribue à la politique industrielle, le tout sous l’autorité du SGDSN. Le cas des entités régulées En France, les entités régulées sont les organisations, publiques ou privées, soumises à des obligations spécifiques en matière de stratégie cyber-sécurité en raison de leur importance pour le fonctionnement de la Nation, la société, ou l’économie, et ce, face à l’évolution croissante et sophistiquée des cybermenaces. Le cadre de cette régulation a considérablement évolué, notamment sous l’impulsion du droit européen. 1. Origine et Évolution du Cadre Réglementaire Début de la régulation : La lutte contre les cybermenaces a été organisée en France dès 2004 et renforcée après l’attaque informatique massive subie par l’Estonie en 2007. Initialement, l’approche était axée sur la cyberdéfense, avec une focalisation sur la sécurisation des Opérateurs d’Importance Vitale (OIV), identifiés dès le Livre blanc sur la défense et la sécurité nationale de 2008 et 2013. La loi de programmation militaire de 2013 a introduit des mesures de sécurité obligatoires pour ces OIV. Les OIV sont des personnes morales publiques ou privées dont la destruction ou l’indisponibilité grave obéreraient gravement le potentiel militaire, la force économique, la sécurité ou la capacité de survie de l’État, ou mettraient en danger sa population. Extension par NIS 1 : La directive européenne “Network and Information System Security” (NIS 1) de 2016, transposée en droit français en 2018, a élargi le périmètre des entités concernées. Elle a introduit la catégorie des Opérateurs de Services Essentiels (OSE), qui produisent des services essentiels au bon fonctionnement de la société ou de l’économie, et a également concerné les Fournisseurs de Services Numériques (FSN). Le nombre d’organismes sous contrôle de NIS 1 ne dépassait pas 500. Nouvelle ère avec NIS 2 et au-delà : La directive NIS 2 (adoptée en décembre 2022 et à transposer d’ici octobre 2024), ainsi que les directives “Résilience des Entités Critiques” (REC) et “Digital Operational Resilience Act” (DORA) (pour le secteur financier), ont très significativement élargi et précisé le champ des organismes soumis à des obligations de cybersécurité. 2. Catégories d’Entités Régulées sous NIS 2 La directive NIS 2 (voir article précédent sur le site) modifie profondément le paysage de la régulation, en augmentant le nombre d’entités concernées d’environ 500 à 15 000 entités. Ces entités s’identifient désormais elles-mêmes. Les entités concernées par NIS 2 répondent à trois critères cumulatifs : Une activité fournie ou exercée au sein de
L’intelligence artificielle redéfini l’entreprise et les méthodes de travail. On a eu l’occasion de traiter du sujet avec la dernière étude de Microsoft sur le travail infini. Nous allons maintenant constater les impacts sur l’entreprise elle-même. L’intelligence artificielle (IA) est un facteur de transformation majeur qui redéfinit en profondeur l’organisation et la productivité des entreprises, marquant l’émergence d’une nouvelle ère professionnelle. Actuellement on commence à lire des articles sur les Entreprises frontières qui définissent la nouvelle organisation du travail. Ce sont des entreprises qui intègrent massivement l’intelligence artificielle pour leurs opérations courantes. Impacts sur l’Organisation des Entreprises Émergence des “Frontier Firms” et d’une Nouvelle Organisation Hybride : Elles représentent un nouveau type d’entreprises structurées autour de l’intelligence à la demande, fonctionnant avec des équipes “hybrides” composées d’humains et d’agents IA. Ces entreprises peuvent s’adapter et créer de la valeur plus rapidement. Des sociétés comme Accenture, Wells Fargo, Estée Lauder et Bayer sont pionnières dans ce modèle. Une Évolution en Trois Phases : La transition vers la “Frontier Firm” se fera sur plusieurs décennies, progressant par étapes. Phase 1 : L’IA agit comme un assistant, aidant les humains à accomplir des tâches plus rapidement et mieux. Phase 2 : Les agents IA rejoignent les équipes en tant que “collègues numériques”, prenant en charge des tâches spécifiques sous la direction humaine. Phase 3 : Les humains dirigent, tandis que les IA opèrent des processus et des flux de travail entiers. Transformation des Organigrammes en “Work Charts” Humain-IA : Les organigrammes traditionnels, basés sur l’expertise et les fonctions, sont remplacés par des “Work Charts” dynamiques et évolutifs. Ces nouveaux modèles d’organisation sont axés sur les objectifs plutôt que sur les fonctions, rappelant l’industrie cinématographique où des équipes se forment et se dissolvent selon les projets. Le ratio humain-IA deviendra une donnée stratégique clé pour optimiser la performance des équipes. Création de Nouveaux Départements : “Intelligent Resources” : Microsoft anticipe l’émergence de départements dédiés à l’hybridation des ressources humaines et artificielles. Ces divisions d'”Intelligent Resources” seront essentielles pour gérer l’interaction entre les humains et les agents IA, devenant une source d’avantage concurrentiel. Changement de Mentalité des Employés et Rôle de l'”Agent Boss” : Le “mindset” de l’employé est crucial : 46% des professionnels voient déjà l’IA comme un partenaire de pensée (“Thought Partner”). Pour travailler efficacement avec l’IA, les employés devront adopter cette mentalité, apprenant à itérer, déléguer et affiner les résultats de l’IA. L’ère de l'”Agent Boss” débute, où chaque employé devient celui qui construit, délègue à, et gère des agents pour amplifier son impact. Nouvelles Fonctions et Compétences : De nouveaux rôles spécifiques à l’IA émergent, tels que formateurs en IA, spécialistes des données IA, spécialistes de la sécurité IA, et stratèges IA dans divers domaines. L’alphabétisation en IA est la compétence la plus recherchée en 2025. Les compétences humaines comme la médiation des conflits, l’adaptabilité et la pensée innovante sont également en hausse, soulignant l’importance d’associer les capacités de l’IA avec les compétences humaines irremplaçables. Impacts sur la Productivité des Entreprises Atténuation du “Gap de Productivité” / “Capacité de Travail” : L’IA est perçue comme une solution clé pour augmenter la productivité. Les professionnels en entreprise atteignent un point de saturation, étant interrompus près de 275 fois par jour et confrontés à une augmentation de 16% des réunions après 20h en un an. 82% des leaders considèrent l’IA comme la solution pour augmenter la capacité de travail sans surcharger les équipes. L’IA offre une intelligence à la demande, abondante et abordable, permettant aux entreprises d’augmenter leur capacité selon les besoins. Libération des Humains pour des Tâches à Forte Valeur Ajoutée : L’IA contribue à séparer les travailleurs du savoir du travail du savoir, libérant les humains pour des tâches nécessitant créativité, jugement et construction de liens. Il est plus efficace de faire travailler l’IA et les humains en tandem, compte tenu de la connaissance des préférences humaines et de la capacité de jugement moral des humains. Les employés se tournent vers l’IA pour sa disponibilité 24h/24 et 7j/7 (42%), sa rapidité et sa qualité (30%), et ses idées illimitées (28%). Accélération et Automatisation des Flux de Travail : L’IA permet d’automatiser des flux de travail ou des processus dans le service client, le marketing, le développement de produits, les communications internes et la science des données. Les “Frontier Firms” sont plus susceptibles d’utiliser l’IA pour le marketing (73% contre 55% globalement), la réussite client (66% contre 44%), les communications internes (68% contre 46%) et la science des données (72% contre 54%). L’IA agit comme un moteur pour la mise à l’échelle des entreprises, des grandes structures aux petites. Amélioration de la Prise de Décision et Réduction des Erreurs : L’IA génère des informations commerciales stratégiques en traitant rapidement de grandes quantités de données pour des prévisions précises ou des informations sur les besoins des clients. Elle peut également prédire les événements pouvant menacer la compétitivité d’une entreprise, comme la variation du mode de consommation ou l’émergence de concurrents, rendant les entreprises plus résilientes. De plus, l’IA est nettement plus précise que les humains, atteignant 99% à 100% de précision, notamment pour des tâches sujettes aux erreurs humaines comme la prévision des flux de trésorerie. Économie de Temps et d’Argent : Les machines IA sont plus efficaces que les humains, pouvant fonctionner 24h/24 et 7j/7 sans fatigue, et analyser de grandes quantités de données en quelques secondes. Cela se traduit par un gain de temps considérable et une rentabilité accrue des salariés, avec une augmentation moyenne de 21% selon une étude de 2018, et une projection de 38% d’ici 2035. 54% des dirigeants estiment que les solutions d’IA ont augmenté leur productivité de 54%. Amélioration de l’Expérience Client : L’IA permet aux entreprises de fournir une assistance client 24h/24 et 7j/7 via des chatbots et l’automatisation des communications par e-mails et chats en ligne. Cela permet une interaction simultanée avec de nombreux clients, répondant de manière pertinente à leurs requêtes en temps réel, comme dans le secteur du tourisme. Considérations et Défis Bien que l’IA offre des avantages considérables, elle présente également des défis importants : Coûts de mise en place élevés : La maintenance et les mises à jour régulières des matériels et logiciels IA peuvent être onéreuses. Risque de paresse et de dépendance humaine : L’automatisation excessive pourrait inciter à une dépendance néfaste et potentiellement réduire certaines compétences humaines. Manque de créativité et réflexion limitée : Les algorithmes ne peuvent que simuler l’intelligence humaine et sont limités aux données sur lesquelles ils ont été entraînés, ce qui peut brider l’innovation et la capacité à gérer l’inattendu. Impact sur l’emploi : L’automatisation des tâches répétitives par l’IA peut entraîner une diminution des interférences humaines et, par conséquent, une participation à la hausse du chômage. Diminution de la connexion humaine : Les machines ne peuvent pas remplacer les liens humains essentiels à la gestion d’équipe et à l’image de marque, notamment dans les services à forte interaction client. Menaces extérieures : L’IA, étant programmée et pilotée par l’humain, reste vulnérable aux dangers extérieurs comme le piratage, l’hameçonnage ou l’exploitation non désirée des données. Evolution des compétences L’intégration de l’intelligence artificielle (IA) transforme en profondeur les rôles professionnels et les compétences requises au sein des entreprises, marquant un passage vers une ère de collaboration hybride entre l’humain et la machine. Cette évolution est particulièrement observable au sein des “Frontier Firms”, des entreprises pionnières qui combinent intelligence humaine et artificielle pour opérer et créer de la valeur de manière inédite. Renforcement des Compétences Humaines Uniques : Malgré l’automatisation par l’IA, les compétences humaines irremplaçables deviennent encore plus cruciales. Celles-ci incluent : La créativité et la capacité à innover. L’IA ne peut que simuler l’intelligence humaine et est limitée aux données sur lesquelles elle a été entraînée, ce qui signifie qu’elle ne propose rien en matière d’innovations qui changent la face de la société. Le jugement moral et éthique. Le travail humain persiste même lorsque l’IA gagne en capacité, notamment en raison de la capacité humaine de jugement moral, comme dans le droit ou la finance. La construction de liens et la connexion humaine. Les machines ne peuvent pas remplacer les liens humains essentiels à la gestion d’équipe et à l’image de marque. La médiation des conflits. L’adaptabilité. La pensée innovante. Ces compétences soulignent que l’avenir appartient à ceux qui peuvent associer de profondes capacités en IA avec des compétences que les machines ne peuvent pas reproduire. Impact sur les Carrières et la Sécurité de l’Emploi : 79 % des dirigeants estiment que l’IA accélérera leur carrière. L’IA permet aux employés, y compris ceux en début de carrière, d’assumer des tâches plus complexes et stratégiques plus tôt. Cependant, 52 % des employés et 57 % des dirigeants reconnaissent que la sécurité de l’emploi n’est plus une certitude dans leur secteur. L’IA ne
Nous allons découvrir ensemble le concept de la journée de travail infinie, un phénomène où les frontières entre le travail et la vie personnelle s’estompent en raison d’une surcharge de communication numérique et d’un manque de temps de concentration. Ce concept est développé par Microsoft sur la base des données télémétriques de Microsoft 365 et une enquête Work Trend Index. Il révèle comment les employés sont constamment interrompus par les e-mails, les messages et les réunions, même en dehors des heures de travail traditionnelles et le week-end. Microsoft propose des solutions par une refonte des méthodes de travail. Regardons cela en détail. Le concept de la journée de travail infinie Microsoft a mené une étude en analysant les usages de Office 365. Le travail infinie est un épuisement des salariés qui sont connectés en permanence et prennent des habitudes de travail nocives pour eux et les autres. Début de journée précoce et surcharge d’informations: La journée de travail commence souvent avant même que les gens ne soient levés. Les notifications commencent sur le smartphone. Comme il sert de réveil, il est a coté du lit. Dès 6h du matin, 40% des utilisateurs de Microsoft 365 consultent déjà leurs courriels. C’est la première activité de la journée. Le phénomène de stress commence. Stress des sujets à traiter dès la matin et quantité d’informations à prendre en compte au réveil. Un employé reçoit en moyenne 117 courriels par jour, la plupart étant survolés en moins de 60 secondes. Mais surtout les plupart de ces mails ne sont pas clair sur leurs intentions. Les mails de masse (avec plus de 20 destinataires) ont augmenté de 7% en un an (2024), tandis que les échanges individuels ont diminué de 5%. Quand on part à la cantonade, personne n’intervient. tout le monde pense qu’un autre va le faire. A partir de 8h du matin, Microsoft Teams devient le canal de communication dominant. soit par chat soit par call. Un employé moyen reçoit 153 messages Teams par jour. Le volume de messages par personne a augmenté de 6% à l’échelle mondiale. Entre Outlook et Teams on est à 270 messages par jour juste pour le travail. Ces notifications créent un rythme frénétique pour la journée. entre les bip de la messagerie, de Teams et du Whatsapp de l’école. La perturbations sont constantes. Temps de concentration fragmenté La conséquence de cet afflux de messages c’est une fractionnent des temps de concentration. Quelle est le planning type d’un employé en journée de travail infinie. Les heures les plus productives de la journée (entre 9h et 11h, et entre 13h et 15h) sont accaparées par les réunions, laissant peu de place au travail en profondeur. Le mardi est le jour avec la plus forte charge de réunions (23%). J’aurais parié pour le lundi. Mais avec la télétravail le lundi et le vendredi. Le mardi devient le jour ou le plus sont présents au bureau À 11h, l’activité de messagerie atteint son pic, faisant de cette heure la plus surchargée en raison de la convergence des messages en temps réel, des réunions et du changement constant d’applications, rendant la concentration presque impossible. Les employés sont interrompus en moyenne toutes les 2 minutes par une réunion, un courriel ou une notification, ce qui n’apparaît pas sur les calendriers mais est fortement ressenti. Près de la moitié des employés (48%) et plus de la moitié des dirigeants (52%) affirment que leur travail est chaotique et fragmenté. Le problème n’est pas seulement le volume, mais aussi l’étalement (“sprawl”), la complexité croissante de la coordination et la charge mentale plus lourde. Même si l’employé est organisé et gère sont temps. Il a se sentiment de désorganisation et de stress Désorganisation et stress Le numérique affranchi des règles de politesse. On peut déranger tout le monde quand on veut. La prise de rendez-vous est une option. Les chiffres font peur 57% des réunions sont des appels ad hoc, non planifiés, sans invitation calendrier. Une réunion planifiée sur dix est réservée à la dernière minute. Les grandes réunions (65 participants ou plus) sont le type de réunion qui connaît la plus forte croissance, entraînant une dilution des responsabilités, un flou décisionnel et une fatigue liée à l’écoute passive. Près d’un tiers des réunions s’étendent sur plusieurs fuseaux horaires, une augmentation de 35% depuis 2021. Autre tendance, finir au dernier moment. Les modifications de dernière minute dans PowerPoint augmentent de 122% dans les 10 minutes précédant une réunion, le signe d’un stress organisationnel permanent et d’un fonctionnement réactif plutôt que proactif. Érosion des frontières entre travail et vie personnelle Microsoft défini le phénomène du “triple pic” (matin, après-midi, soir), introduit pendant la pandémie, s’est normalisé. Le travail de nuit et le week end progresse. Les réunions après 20h ont augmenté de 16% d’une année sur l’autre, en grande partie à cause des équipes mondiales et flexibles. L’employé moyen envoie ou reçoit plus de 50 messages en dehors des heures de bureau. Près d’un tiers (29%) des travailleurs actifs se replongent dans leur boîte de réception après 22h. L’activité le week-end progresse, avec près de 20% des employés consultant leurs courriels dès le samedi matin. Plus de 5% sont de retour sur leurs courriels le dimanche soir (à partir de 18h). Le concept même de “temps de repos” est remis en question. Un tiers des employés estiment que le rythme de travail est devenu insoutenable au cours des cinq dernières années. A tout ce chaos, Microsoft apporte de solutions. Si le rapport est statistique et donc peu contestable. Les solution sont issues de la stratégie de Microsoft et discutables. Pour faire face au concept de “journée de travail infinie” et briser ce cycle, le rapport de Microsoft propose un changement de culture radical. En premier lieu, l’intelligence artificielle est vue comme un levier pour alléger le poids mental et libérer du temps pour un travail plus significatif, à condition de repenser les outils et les façons de travailler. quatre solution sont proposées. Adopter l’état d’esprit des “Frontier Firms” : Il ne suffit pas d’adopter l’IA. Il faut un état d’esprit qui remet en question la manière dont le temps est dépensé, dont le travail est effectué et ce qui génère réellement de l’impact. Les “Frontier Firms” sont des entreprises pionnières qui réorganisent leur structure autour de l’IA et des agents intelligents pour évoluer rapidement, fonctionner avec agilité et générer de la valeur plus vite que les entreprises traditionnelles. Appliquer la règle du 80/20 (Principe de Pareto) : Dans un contexte de budgets contraints et d’attention limitée, l’activité ne signifie pas nécessairement le progrès. Les organisations les plus efficaces se concentrent sur les 20 % du travail qui génèrent 80 % des résultats. L’IA rend cela possible et évolutif en permettant aux dirigeants d’automatiser les tâches à faible valeur ajoutée, comme les réunions de statut, les rapports de routine et les tâches administratives, afin de récupérer du temps pour le travail en profondeur, les décisions rapides et l’exécution ciblée. Les entreprises gagnantes à l’ère de l’IA ne travailleront pas seulement plus dur, mais plus intelligemment et plus précisément. Redéfinir l’organisation autour du “Work Chart” : Il s’agit de passer d’un organigramme rigide et basé sur des fonctions statiques (finances, marketing, ingénierie) à un “Work Chart” agile et axé sur les objectifs. Dans ce modèle, des équipes légères se forment autour d’un objectif et utilisent l’IA pour combler les lacunes en matière de compétences et avancer rapidement, réduisant ainsi la friction inutile des structures rigides. Par exemple, pour un lancement de produit, au lieu que le contenu soit chez le marketing, les données chez l’analytique, le budget chez les finances, et la communication chez les équipes de communication, l’IA peut fournir des informations instantanément, réduisant le besoin de réunions multiples pour des ajustements simples. Devenir un “agent boss” (former des duos humain-agent IA) : Le rapport propose de former des duos humain-agent pour accroître l’impact sans allonger la journée. Il s’agit d’une nouvelle génération de professionnels qui naviguent dans le chaos non pas en travaillant plus, mais plus intelligemment. Ces “agent bosses” utilisent des agents IA pour supercharger leur travail, par exemple en collectant des recherches, en effectuant des analyses statistiques ou en rédigeant des synthèses, ce qui leur permet de se concentrer sur l’essentiel : des informations rapides et de haute qualité qui bénéficient à toute l’équipe. C’est l’avenir du travail : des équipes humain-agent conçues pour s’adapter et évoluer. Vous le constatez tout est construit sur l’usage de l’IA. Cela se règlera pas le problèmes des consultations et sollicitations en dehors des heures de travail. cela ne règlera pas les interruptions permanentes. Pour ma part je suis plutôt en faveur d’un meilleur maitrise des outils et usages de communications; Comme pour tout dans le vie se donner des règles. Ne plus consulter ses mail à la maison, soit volontairement, soit en utilisant les fonctionnalités ne pas déranger de son smartphone. Réserver son week end aux activités personnelles et familiales. Réserver du temps ne pas déranger dans son agenda. C’est une fonctionnalité de Outlook. Cela bloque les appels et chat Teams. Concernant l’utilisation de l’intelligence artificielle. C’est un complément. Elle peut répondre à pas mal de messages sont nous mais surtout elle peut aider à synthétiser la quantité d’information reçue ou produite. Avoir des synthèses et des résumés, c’est un vrai gain de temps. Au final la promesse de Microsoft office était de faire gagner du temps et de s’organiser. La réalisé est
L’intelligence artificielle n’est pas une technologie. C’est un service. Je lis tous les jours des rapports ou des articles sur l’IA et comment il faudra s’en servir. Il existe des gourous qui vous initient. Ils présentent l’IA comme une technologie qu’il faut maitriser et dompter pour avoir les meilleurs résultats. Parler le langage de l’IA comme on apprend une langue étrangère. Ce qu’il faut intégrer avec l’IA, c’est que le mode commande ou les prompts, vont disparaitre. Comme pour les langages de programmation aujourd’hui. Il ne faut pas savoir programmer pour utiliser l’informatique. Comme il ne faut pas connaitre le langage Morse pour les télécommunications. Apple à d’ailleurs fait une bonne publicité pour le Mac en comparant ceux qui apprenaient le morse avec ceux qui utilisent le MAC. Avec le Mac depuis le début pas de mode commande. On ne fait pas d’informatique quand on a un MAC. Alors que dans les années 90 avec un PC, il fallait connaitre les commande MS/DOS. Actuellement qui taperait DIR pour avoir le contenu d’un dossier ? J’insiste sur ce point car actuellement une bonne partie des usage IA, c’est des prompts ou des questions en texte. Pour gérer cette compétence, on a des prompt alchimistes qui donnent des formations. C’est la partie archaïque de l’IA. L’IA moderne va se fondre dans les applications et les services. Elle va devenir invisible. Comme les bits ne se voient pas dans l’informatique moderne. Cette introduction pour poser le sujet et ne pas se tromper sur les enjeux de l’IA. L’IA va disparaitre tout en étant totalement intégrée à tous les services en ligne. Elle va se rendre invisible pour l’utilisateur mais indispensable pour ses usages. Elle va passer d’une technologie, à un service, avec la maturité. L’IA devenant partie prenante de tous les services, et une partie des logiciels qui le pilotent, il faut prendre conscience de son impact. Impact de l’Intelligence Artificielle sur la démocratie L’intelligence artificielle est un levier de remodelage profond des sociétés européennes. Le manque remise en cause des réponses apportées par le IA aura un impact sur le savoir, la démocratie, le libre arbitre et la critique. 1. Remodelage des Sociétés et Données Personnelles L’IA démultiplie les capacités d’analyse et de traitement des données, facilitant l’aide à la décision et l’automatisation de tâches complexes. Cependant, elle a permis un processus massif d’extraction de données personnelles, formant des profils ultra-détaillés sur les utilisateurs, y compris leurs comportements, préférences, et même des données sensibles comme l’orientation sexuelle, les convictions politiques, avec une grande précision. Ce “surplus comportemental” est utilisé pour le microciblage publicitaire et politique. Les entreprises sont passées de modèles “productivistes” à “extractivistes”, visant à collecter le plus de données possible. Cette capacité à tracker les personnes et leur donner une note sociale est particulièrement risqué. Cette politique est en place en Chine. 2. Menaces sur les Libertés Fondamentales et la Démocratie L’IA pose de nouveaux défis aux libertés fondamentales et aux régimes politiques. On peut voir les aspects négatifs ou positifs avec le même recul. Vie privée et manipulation : L’analyse des données permet de “deviner” les pensées et convictions des individus. Des expériences sont menées pour capter les émotions et réactions physiologiques directement du cerveau. Des applications peuvent avoir des causes justes. Information et manipulations politiques : Les technologies d’IA, associées aux réseaux sociaux, remettent en cause l’information nécessaire à l’exercice du libre arbitre des citoyens. Elles facilitent la création de “deepfakes”, la coordination de mouvements d’opinion artificiels (“astroturfing”), et l’envoi de messages ciblés. L’IA générative permet de créer et personnaliser des messages à moindre coût pour des millions d’utilisateurs, rendant la désinformation accessible même à des acteurs privés ou isolés. Elle abaisse aussi le cout de production de contenus et les rendent accessibles au plus grand nombre. Vulnérabilités démocratiques : L’IA peut saper les fondements de la démocratie, inutile de donner son avis si l’IA a tout compris. La tendance à l’autocratie ou faire confiance au algorithmes est établie avec les outils mis à disposition du public. L’IA peut également induire une “fatigue de soi” qui inciterait les sociétés à se reposer entièrement sur ces “nouveaux oracles” pour l’organisation des débats démocratiques et les processus électoraux. L’implication de chacun dans la vie publique devient encore plus important. 3. Visions radicales de l’humain : Transhumanisme et Eugénisme Les technologies d’IA peuvent être inspirées par des conceptions philosophiques et religieuses, et à leur tour, transmettre ces conceptions. Le transhumanisme, qui vise à “augmenter” les capacités humaines par des moyens biologiques ou artificiels, est une idéologie influente dans la Silicon Valley. Cette vision pourrait mener à une surveillance mondiale intrusive au nom de l’intérêt supérieur de l’espèce humaine. À l’extrême, la fusion homme-machine via des modifications génétiques ou des implants cérébraux pourrait redéfinir ce que signifie être humain, soulevant des questions éthiques similaires à celles de la bioéthique. 4. Conséquences sur les Services Publics. L’IA offre une opportunité unique de repenser l’action de l’État et d’améliorer ses services aux citoyens. Elle est perçue comme un moyen de réduire la fracture dans l’accès aux services publics et d’améliorer le “dernier kilomètre” de l’action publique, en adaptant et personnalisant les services pour divers publics. Des outils comme les voix intelligentes, la traduction automatique, la simplification du langage, et la reconnaissance vocale sont envisagés. L’objectif est d’étendre les bénéfices de l’innovation à l’ensemble du territoire, en maintenant le contact humain essentiel à la qualité du service public. Impact de L’intelligence artificielle sur la création L’intelligence artificielle a un impact profond sur la création intellectuelle, transformant la manière dont les savoirs sont transmis, les œuvres culturelles sont produites et les inventions sont développées. Cet impact soulève de nouvelles questions éthiques, juridiques et sociétales. 1. Transformation de la Transmission des Savoirs et de la Culture L’IA modifie radicalement le rapport de nos sociétés à la création culturelle et à la transmission des connaissances. Historiquement, l’oubli était la norme et la mémoire l’exception; avec les technologies numériques et l’IA, la mémoire est devenue la norme, car l’archivage et le traitement des données de masse sont devenus très peu coûteux. L’IA occupe une place sans équivalent dans le recueil, le remodelage et la transmission des connaissances humaines. L’IA pourrait s’emparer de la culture et commencer à produire des histoires, des mélodies, des lois et des religions, créant des “cultures” entièrement nouvelles. Contrairement aux outils précédents comme l’imprimerie ou la radio qui aidaient à diffuser les idées humaines, l’IA peut créer ses propres idées culturelles. Cela pourrait mener à une situation où les humains vivraient dans les “rêves d’une intelligence extrahumaine”, colonisant les esprits et modifiant les pensées et les rêves humains. L’IA pourrait même être à l’origine de nouveaux dogmes ou cultes. Déjà que beaucoup se fans de star Wars se disent de religion JEDI!! 2. Impact sur les Professions Créatives et le Contenu L’essor des IA génératives, comme les grands modèles de langage (LLM) tels que ChatGPT ou Gemini, ou les IA de création d’images/vidéos (Midjourney, Stable Diffusion, DALL·E 3), est perçu comme une “déflagration” pour l’ensemble des secteurs culturels. Ces technologies menacent certaines professions créatives, comme les scénaristes, les doubleurs et les acteurs, qui craignent d’être remplacés. Cela permet aussi a un plus grand nom de créer des contenus sans grandes compétences ou apprentissage. 3. Biais et Valeurs Transmises L’imprévisibilité des IA, même pour leurs concepteurs, rend leur utilisation délicate dans des situations critiques. Les systèmes d’apprentissage automatique peuvent non seulement exprimer des préjugés, mais aussi les “perpétuer de manière subtile et silencieuse”. La question des valeurs humaines et politiques qui seront transmises aux IA est centrale. Certains concepteurs d’IA pourraient même remettre en question le bien-fondé des valeurs morales de nos sociétés, estimant qu’elles ne sont “pas assez bonnes”. C’est déjà la cas actuellement, sans IA. 5. L’IA dans la Recherche Scientifique L’IA est de plus en plus associée aux travaux de recherche dans toutes les disciplines scientifiques. Par exemple, le prix Nobel de chimie 2024 a été attribué aux créateurs de l’outil d’IA AlphaFold, qui prédit la conformation des protéines. La question de savoir si un prix Nobel pourrait un jour être attribué à une IA a même été posée. Surtout l’IA va accélérer les capacités à innover comme l’informatique quantique à calculer. L’IA sou forme de service, donc invisible est-elle déjà là ? Le mouvement est déjà en marche avec l’intégration d’IA dans les services de messageries, la presse, les services publics. La législation pourrait demander à tout service de préciser si une IA est intégrée ou pas. C’est un point important pour ne pas tromper les utilisateurs. Dans tous les domaines les concepteurs vont utiliser des services IA car cela remplace du code et la gestion de cas. L’IA s’adapte mieux et peut prendre des décisions basées sur les modèles alors que pour le code il faut les prévoir. Sources : ISN (Institut de la Souveraineté Numérique), Enjeux et perspectives pour les droits humains en Europe, Juin 2025 Eurocloud, FEUILLE DE ROUTE IA MINISTÉRIELLES 2025 The post L’intel
La cryptologie post quantique est un ensemble de techniques de cryptologie bien plus puissantes que les techniques actuelles basées sur l’informatique classique. A terme ces techniques pourraient décrypter tous les messages actuels ce qui mets en risque les échanges. La cryptologie post quantique définitions Le terme cryptologie post quantique est une abréviation pour “Post-Quantum Cryptography”. Son objectif principal est de remplacer les équipements ou logiciels des systèmes cryptographiques actuels pour protéger vos données ou informations contre une attaque quantique éventuelle. Les algorithmes PQC reposent sur des équations mathématiques (telles que la cryptographie basée sur un réseau ou multivariée) considérées comme trop difficiles à résoudre pour les ordinateurs quantiques. Elle protège les données contre les tentatives de déchiffrement effectuées via des ordinateurs classiques et quantiques. La PQC entend sécuriser les données tant face aux futurs ordinateurs quantiques qu’aux protocoles et systèmes réseau actuels. Elle repose sur des équations mathématiques très complexes, exploitant les avantages des propriétés quantiques pour créer des équations si difficiles à résoudre que même les ordinateurs quantiques ne peuvent “sauter” des étapes pour aboutir directement à la solution correcte. Sa structure de base étant la même que celle du chiffrement classique, la PQC peut être déployée à l’aide de méthodes similaires et elle peut protéger les systèmes actuels. La transition post-quantique concerne en premier lieu la cryptographie asymétrique, notamment pour les usages en confidentialité et échanges de clé pour se prémunir contre des attaques rétroactives. Cela inclut également les signatures numériques. Ce sont des méthodes pour se protéger maintenant des futures systèmes quantiques tout en utilisant des technologies accessibles. Définir des normes de cryptage L’enjeu de la normalisation dans le domaine de la cryptographie post-quantique (PQC) est multifacette et crucial pour anticiper et contrer la menace posée par les futurs ordinateurs quantiques capables de briser les algorithmes cryptographiques actuels. Garantir la sécurité future des communications et des données sensibles : Les algorithmes de chiffrement actuels, comme RSA et ECC, reposent sur des problèmes mathématiques difficiles à résoudre pour les ordinateurs classiques, mais qui deviendront vulnérables face aux ordinateurs quantiques dotés d’algorithmes comme celui de Shor. La normalisation vise à sélectionner et valider de nouveaux algorithmes PQC basés sur des problèmes mathématiques réputés insolubles, même pour les ordinateurs quantiques. Ces normes sont essentielles pour protéger l’ensemble des communications numériques sécurisées, des transactions bancaires aux échanges gouvernementaux. Lutter contre la menace “récolter maintenant, déchiffrer plus tard” (Harvest Now, Decrypt Later – HNDL) : Des acteurs malveillants stockent déjà des données chiffrées aujourd’hui, dans l’espoir de pouvoir les déchiffrer plus tard lorsque des ordinateurs quantiques puissants seront disponibles. La normalisation de la PQC fournit les outils nécessaires pour commencer à protéger les données dès maintenant contre cette menace future. Faciliter une transition coordonnée et harmonisée : Le passage à la PQC est un processus complexe qui prendra plusieurs années et nécessite la mise à jour non seulement des algorithmes, mais aussi des protocoles et des appareils. Une approche harmonisée et coordonnée, encouragée notamment par la Commission européenne pour les États membres de l’UE, est nécessaire pour assurer l’interopérabilité entre les pays, les secteurs et les systèmes. La normalisation, comme celle menée par le NIST, fournit un ensemble commun d’algorithmes sur lesquels la communauté peut s’appuyer. Guider les organisations dans leur préparation et leur migration : De nombreuses organisations, y compris les bénéficiaires de l’ANSSI, manquent de compréhension des enjeux, de moyens et de planification pour la transition. La normalisation apporte des recommandations claires et un cadre technique pour l’élaboration de feuilles de route de préparation, l’inventaire des actifs cryptographiques, l’identification des cas d’usage prioritaires et la migration. Stimuler l’émergence et le déploiement de solutions PQC : L’absence d’offre de services et de solutions d’accompagnement à la transition est un frein majeur. En définissant des standards validés, les organismes de normalisation soutiennent l’émergence de produits et solutions permettant de faciliter la transition. Cela encourage les fournisseurs à développer des offres et les acheteurs (organisations) à considérer le sujet comme d’actualité. Fournir une base pour d’éventuelles obligations réglementaires : L’absence d’obligation réglementaire est parfois le seul levier efficace pour faire avancer les entités régulées. La normalisation, en rendant la menace concrète et en définissant les contre-mesures, peut servir de fondement à de futures réglementations qui prioriseront la prise en compte de la menace quantique. Aborder les défis techniques de l’implémentation : Les nouveaux algorithmes PQC ont des spécificités, notamment en termes de performances et de résistance aux attaques (comme les attaques par canaux auxiliaires ou par injection de fautes), particulièrement pour les systèmes embarqués ou contraints. Le processus de normalisation et les travaux associés (comme ceux d’IDEMIA Secure Transactions) sont essentiels pour développer les méthodes d’implémentation sécurisées et optimisées nécessaires pour des applications concrètes. Permettre l’adoption d’approches transitoires comme l’hybride et la crypto-agilité : Compte tenu du temps nécessaire pour évaluer pleinement la robustesse des nouveaux algorithmes (10 à 20 ans), la normalisation recommande souvent des approches hybrides (combinant algorithmes classiques et PQC). De plus, elle souligne la nécessité de la crypto-agilité, la capacité de mettre à jour les solutions cryptographiques déployées à distance, pour s’adapter aux évolutions futures des standards et aux découvertes de vulnérabilités. Quelle est la stratégie de la France La France, notamment par l’intermédiaire de l’ANSSI, et l’Union Européenne (UE), préparent activement la transition vers la cryptographie post-quantique (PQC) en s’appuyant sur plusieurs axes stratégiques. Au niveau de l’Union Européenne : La Commission Européenne a publié une recommandation le 11 avril 2024 pour encourager les États membres à élaborer et mettre en œuvre une approche harmonisée dans le cadre de la transition vers la cryptographie post-quantique. L’objectif principal est de garantir la sécurité future des infrastructures et services numériques de l’UE face aux progrès de l’informatique quantique qui menacent les algorithmes cryptographiques actuels. La PQC est perçue comme une solution compatible avec les infrastructures existantes, permettant un déploiement relativement rapide. Un point crucial de cette approche harmonisée est de favoriser l’interopérabilité entre les pays membres, assurant le fonctionnement fluide des systèmes et services au-delà des frontières nationales. Au niveau de la France (via l’ANSSI et ses acteurs) : L’ANSSI mène un travail de long terme pour accompagner les acteurs publics et économiques dans la préparation à la menace quantique et faciliter l’émergence de solutions technologiques innovantes. L’ANSSI a mené une enquête (juillet-septembre 2023) auprès de ses bénéficiaires (entités soumises à exigences réglementaires de cybersécurité comme les OIV) pour évaluer leur état de préparation et les freins à la transition. Cette enquête a révélé qu’une majorité des bénéficiaires est potentiellement à risque vis-à-vis des attaques rétroactives (HNDL – “récolter maintenant, déchiffrer plus tard”), notamment en raison de l’usage de VPN ou de certificats avec une longue durée de vie (>10 ans). Les travaux d’analyse de risque quantique, la planification, le budget, et l’identification des cas d’usage prioritaires sont largement absents. Aucun plan de transition post-quantique n’existe pour la quasi-totalité des enquêtés. Des chercheurs français (ex: Inria, ENS Lyon) participent activement à la compétition de normalisation du NIST en proposant des algorithmes pour le chiffrement et la signature basés sur différentes approches mathématiques (réseaux euclidiens, codes correcteurs, systèmes multivariés, fonctions de hachage). Des acteurs industriels basés en France et en Europe, comme IDEMIA Secure Transactions, sont également impliqués dans la préparation. Ils contribuent aux efforts de normalisation (NIST, ETSI, GSMA, GlobalPlatform, FIDO) et mènent des recherches et développements pour l’implémentation concrète des algorithmes PQC, notamment pour les systèmes embarqués aux contraintes fortes (performances, résistance aux attaques par canaux auxiliaires/injection de fautes). IDEMIA Secure Transactions réalise des preuves de concepts pour protéger les données contre le HNDL et préparer la migration, impliquant l’intégration de PQC dans des cartes à puce, SIMs 5G, et appareils IoT. Ils dirigent également le consortium Hyperform, financé par France 2030 et l’UE, axé sur la protection de bout en bout des données dans des écosystèmes complexes en utilisant la crypto-agilité. Ils ont des partenariats de recherche en Europe avec l’INRIA et le CEA. La cryptologie post quantique est au cœur des risques cyber bien que moins médiatisée que d’autres sujets. L’arrivée proche et massive d’ordinateurs quantiques met en risque toute la sécurité des échanges et des protocoles. Sources : Cryptographie post quantique définitions Recommandations post quantique de l’Europe Qu’est ce que la cryptologie post quantiqueThe post La cryptologie post quantique first appeared on XY Magazine.
loading
Comments