DiscoverPropagations
Propagations
Claim Ownership

Propagations

Author: Guillaume Ledit

Subscribed: 26Played: 312
Share

Description

Autour de nous, des batailles silencieuses font rage. Pas de mouvements de troupes visibles, mais des récits propagés, des croyances fabriquées, des éléments de langage amplifiés. Ces attaques ont pour champs de bataille nos espaces publics numériques et pour terrain à conquérir nos esprits.


Propagation(s) propose une analyse systémique des conflits informationnels. Chaque mardi, Guillaume Ledit reçoit chercheurs et experts pour décoder les mécanismes de la désinformation, de l'ingénierie sociale et des ingérences étrangères.


Au programme : sociologie des réseaux, géopolitique numérique, psychologie cognitive, analyse des propagandes... Une approche interdisciplinaire pour comprendre la menace qui pèse sur nos démocraties.


L'objectif ? Outiller les citoyens pour résister aux tentatives de manipulation informationnelle et revivifier notre espace public commun.


Un podcast proposé & produit par Opsci.ai


Production : Justin Poncet

Animation : Guillaume Ledit

Réalisation son: Romane Mugnier

Réalisation vidéo : Choses Communes

Graphisme : Gautier Gevrey

Générique : Martin Commandeur


Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

26 Episodes
Reverse
Chine Labbé est vice-présidente Europe et Canada de NewsGuard, organisation spécialisée dans l'évaluation de la fiabilité des sources d'information à l'échelle mondiale. Journaliste de formation, diplômée de Sciences Po Paris et de Columbia University, elle a rejoint NewsGuard dès son lancement en France en 2019. Dix ans après la première vague d'ingérences numériques, elle dresse un bilan lucide de l'écosystème anti-désinformation, et de ses impasses.Le fact-checking a-t-il épuisé son modèle ? Face à une désinformation industrialisée par l'IA générative, où des deepfakes, des réseaux de faux sites et des chatbots corrompus s'alimentent mutuellement, l'enjeu n'est plus seulement de corriger les faits mais d'immuniser les citoyens contre les mécanismes de manipulation avant qu'ils n'opèrent.Au programme :Fact-checking vs. pre-bunking : pourquoi la vérification des faits, nécessaire mais pas suffisante, doit céder du terrain à l'explication des mécanismes de manipulationLe modèle NewsGuard : évaluer les sources plutôt que les articles, à partir de 9 critères de déontologie journalistique appliqués à l'échelle mondialeStorm-1516 et le cycle IA : comment une campagne d'influence russe enchaîne deepfake, réseau de faux sites générés par IA et chatbots pour produire et diffuser des narratifs à coût marginal quasi nulMatryoshka : l'objectif des opérations d'influence n'est pas toujours de convaincre, mais de brouiller — semer le doute sur tout pour amener à croire n'importe quoiLa convergence Kremlin / sphère MAGA : quand les mêmes narratifs de déstabilisation des démocraties occidentales circulent simultanément depuis Moscou et WashingtonFrench Response et la contre-propagande d'État : ce que le compte X du Quai d'Orsay révèle sur l'évolution des stratégies institutionnelles face à la guerre des récitsPartenariats public-privé : pourquoi l'État ne peut pas construire seul les capacités de détection et de réponse, et ce que cela implique pour l'écosystème anti-désinformationCe que vous pourrez entendre :"Les garde-fous des LLM ne sont pas suffisants pour distinguer le vrai du faux. Si de nombreuses sources tendent à valider une fake news, ils pourront reproduire cette fausse information avec autorité.""L'objectif des campagnes d'ingérence n'est pas forcément d'avoir un impact au moment des élections. Mais de tellement semer le trouble sur le long terme qu'on ne croira plus rien... et qu'on sera finalement amené à tout croire."Un podcast proposé & produit par Opsci.aiProduction : Justin PoncetAnimation : Guillaume Ledit Réalisation : Romane MugnierGraphisme : Gautier GevreyGénérique : Martin Commandeur Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Hervé Letoqueux est PDG de Check First, entreprise finlandaise spécialisée dans la détection des manipulations de l'information, et ancien chef de la division des opérations de Viginum, l'agence gouvernementale française de lutte contre les ingérences numériques étrangères. Dans cet épisode enregistré en public dans le cadre des Rencontres de l'innovation éditoriale de Samsa, il décortique les mécanismes concrets des campagnes de désinformation russes à l'approche des élections municipales françaises — et déplace progressivement le regard vers une menace plus diffuse, et peut-être plus difficile à circonscrire.Comment documente-t-on une opération d'influence sans pour autant la surestimer ? À quel moment le fact-checking amplifie-t-il ce qu'il prétend désamorcer ? Et si la menace informationnelle la plus sérieuse n'était plus celle qu'on traque depuis Moscou, mais celle qui opère au grand jour depuis Washington ou via les algorithmes de plateformes structurellement indifférentes à la vérité ?Au programme :Mode Opératoire Informationnel (MOI) : une couche d'abstraction permettant de caractériser des campagnes sans procéder à une attribution formelle, un impératif juridique et diplomatique que Viginum a contribué à standardiser à l'échelle européenneStorm 1516 : l'anatomie d'une campagne sophistiquée, de la planification des narratifs à la diffusion par deepfakes, en passant par le recrutement d'acteurs et l'utilisation de faux médias régionaux, vraisemblablement piloté sous l'égide du renseignement militaire russe (GRU)CopyCop et John Mark Dugan : le blanchiment informationnel à l'œuvre, avec plus de 140 sites de presse locale fictifs prépositionnés en France avant les municipales, conçus pour injecter des narratifs pro-russes au milieu de contenus anodinsL'économie des plateformes comme terrain favorable : des clusters de chaînes TikTok qui diffusent de la désinformation non par idéologie, mais par logique de monétisation — et qui peuvent être activés par des contenus polarisants suffisamment cliquablesLe dilemme du fact-checking : contextualiser une fausse information dans une campagne identifiée est plus efficace que de simplement la débunker, au risque sinon d'amplifier le narratif adverse sans en révéler l'origineLa menace qui change de forme : si les MOI russes sont aujourd'hui relativement bien détectés et cartographiés, c'est la désinformation ouverte (un tweet d'Elon Musk soutenant un parti lors des législatives allemandes) qui échappe aux dispositifs de réponse existantsLe financement comme maillon faible de la résilience démocratique : l'arrêt des subventions USAID a fragilisé un écosystème d'ONG difficilement remplaçable, dans un contexte où les financements européens restent majoritairement ponctuels et d'accès complexeCe que vous pourrez entendre :"Le grand danger, c'est lorsqu'un homme politique occidental reprend ce narratif et le diffuse sur ses réseaux sociaux. Là, on va toucher une population beaucoup plus large. Et ça, c'est déjà arrivé.""Quand Musk fait un tweet où il promeut un parti politique particulier avec le taux d'engagement qu'il a, ça, c'est de la menace. C'est une menace beaucoup plus ouverte, beaucoup plus franche, et qu'on a du mal aujourd'hui à traiter, à circonscrire."Un podcast proposé & produit par Opsci.aiProduction : Justin PoncetAnimation : Guillaume Ledit Réalisation : Romane MugnierGraphisme : Gautier GevreyGénérique : Martin Commandeur Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Dorothée Kopp, directrice de la recherche chez Uptowns et ethnographe digitale, analyse depuis des années les comportements humains tels qu'ils s'expriment sur les réseaux sociaux. Dans cet épisode, elle dissèque TikTok non comme simple plateforme de divertissement, mais comme terrain d'observation d'une transformation culturelle profonde : la façon dont une génération construit son rapport à l'identité, à l'autre, et à la réalité.TikTok a substitué la logique des communautés à celle des individus juxtaposés, façonnés par des algorithmes opaques. Comment cette "main character energy" (se percevoir comme le personnage principal de sa propre fiction ) redéfinit-elle les rapports sociaux, amplifie-t-elle le gender gap, et ouvre-t-elle des brèches exploitables par des acteurs de la désinformation ?Au programme :Ethnographie digitale : une méthodologie qui passe des forums communautaires des débuts d'Internet aux individus atomisés de TikTok, dont l'algorithme reconstitue des tribus sans que leurs membres se choisissentMain character energy : la romanticisation de soi comme personnage de fiction, avec ses étiquettes (Matcha Girl, Pilates Princess), ses artefacts et sa dimension stratégique de personal brandingGender gap algorithmique : une fracture entre jeunes hommes et jeunes femmes qui se construit dans des fils distincts, produisant des visions antagonistes du célibat, du couple et des rôles sociauxMasculinisme : une dynamique d'endoctrinement qui fonctionne comme une secte, exploitant la solitude masculine et le débordement des logiques vidéoludiques dans la perception du réelDésinformation en santé : l'exemple du régime anti-inflammatoire illustre comment les failles de la médecine institutionnelle post-Covid ouvrent un terrain fertile à des discours séducteurs, monétisés sur les insécurités des audiencesDéshumanisation et rupture anthropologique : lorsque les autres deviennent des "PNJ" — personnages non jouables — la déshumanisation prépare un terrain que des idéologies fondées sur la haine savent historiquement exploiterRéponses possibles : entre interdiction légale (le cas australien), éducation au média et valorisation paradoxale de la déconnexion, quelles voies de sortie d'un cycle potentiellement chaotique ?Ce que vous pourrez entendre :"C'est de l'ordre de la secte, en fait. N'importe qui qui a compris ça peut créer une communauté et entraîner des gens vers de la désinformation, voire des actions violentes liées à cette désinformation.""Quand les autres sont des PNJ, quand on est la seule réalité de sa réalité, le risque que je vois, c'est celui de la déshumanisation — et ça a déjà été fait pendant le colonialisme, pendant les grands génocides."Un podcast proposé & produit par Opsci.aiProduction : Justin PoncetAnimation : Guillaume Ledit Réalisation : Romane MugnierGraphisme : Gautier GevreyGénérique : Martin Commandeur Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Antoine de Gunzbourg a vécu toutes les mutations de l'intelligence en sources ouvertes : de WikiLeaks à Bellingcat, du journalisme au Liban aux méthodologies behaviors développées pour l'Union européenne. Chercheur et praticien, il théorise aujourd'hui une discipline coincée entre journalisme, activisme et renseignement: trois mondes qui ne s'entendent pas. L'affaire Jeffrey Epstein et ses 3 millions de pages déversées fin janvier 2026 illustre le défi central : comment transformer des données massives en renseignement citoyen sans sombrer dans le conspirationnisme ?Faut-il une théorie de l'OSINT pour éviter que l'analyste ne soit écrasé sous des concepts contradictoires ? Comment distinguer ce qui est vrai de ce qui est simplement authentique ? Et surtout : qui assume la responsabilité politique de l'attribution quand les comportements inauthentiques se mêlent aux narratifs toxiques ?Au programme :L'OSINT comme "vaccin démocratique" : lâcher ses secrets pour renforcer la résilience de la société civile, une idée aussi absurde que géniale héritée de la Seconde Guerre mondialeDe la BBC aux behaviors : comment les services de renseignement ont appris à analyser la propagande nazie, puis comment Facebook a créé les CIB pour éviter de modérer le contenuBellingcat et l'affaire Epstein : organisation organique sur Discord, règles méthodologiques collaboratives, et la nécessité de séparer le factuel de l'interprétation politiqueLe piège FIMI : pourquoi le concept de Foreign Information Manipulation and Interference rend les analystes fous en leur demandant d'attribuer ce qui relève de la décision politiqueRussia Today, entre deux mondes : entreprise française employant des journalistes français sur sol français, mais diffusant des narratifs pro-russes – l'impossible définition du "foreign"Viginum comme modèle : créé en pleine tempête politique post-Samuel Paty, le service français parvient à rester transparent, faire de la recherche OSINT et collaborer avec tous les acteurs sans se politiserL'agence de renseignement du peuple : former tout citoyen à l'OSINT, ouvrir les secrets d'État, et assurer la transmission entre renseignement et public – le rêve inachevé d'AssangeCe que vous pourrez entendre :"L'OSINT c'est un peu la théorie du vaccin : l'idée complètement absurde d'injecter un truc qui peut tuer dans l'idée que ça va protéger ton voisin. L'OSINT c'est pareil, c'est l'idée qu'en lâchant tes secrets, ça va aider ta société civile à être plus résiliente.""On se retrouve à devoir faire la différence entre ce qui est vrai et ce qui est authentique. Cette interview du type qui témoigne au FBI qu'il y a un corps enterré sous le trou numéro 19 du golf de Trump est authentique – est-elle vraie ?"Un podcast proposé & produit par Opsci.aiProduction : Justin PoncetAnimation : Guillaume Ledit Réalisation : Romane MugnierGraphisme : Gautier GevreyGénérique : Martin Commandeur Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Xavier Tytelman, consultant en aéronautique et ancien militaire, anime l'une des communautés OSINT les plus actives du conflit ukrainien. Fort de 575 000 abonnés sur YouTube, il mobilise des milliers de bénévoles pour cartographier les opérations, démonter les narratifs russes et livrer du matériel aux unités ukrainiennes. Portrait d'un "expert-militant" qui transforme les outils numériques en dispositifs de résistance informationnelle.Comment une communauté numérique peut-elle rivaliser avec les opérations d'influence étatiques ? Peut-on contrer les manipulations algorithmiques par l'intelligence collective ? Entre engagement humanitaire et bataille du récit, Xavier Tytelman incarne une figure hybride : celle de l'analyste qui refuse la neutralité axiologique face à l'agression russe.Au programme :OSINT et guerre informationnelle : comment le renseignement en source ouverte révèle les mensonges du Kremlin depuis le crash du MH17 (2014)Attaques russes sur les plateformes : signalements massifs, manipulation d'algorithmes, faux sites (doppelganger) pour faire taire les voix dissidentesIntelligence collective opérationnelle : cartes collaboratives d'évacuation, périscopes imprimés en 3D, remontées terrain via DiscordMasculinisme russe vs engagement concret : déconstruction du narratif viriliste promu par Moscou face à la réalité des combattants ukrainiensPropagande ou analyse factuelle ? : la frontière ténue entre influence et désinformation, quand les faits servent un narratif géopolitiqueRéserve OSINT et souveraineté européenne : propositions pour structurer l'engagement citoyen face aux menaces hybridesResponsabilité des plateformes : nécessité d'un rapport de force politique avec les GAFAM pour contrer les manipulations à grande échelleCe que vous pourrez entendre :"On n'abdique pas l'honneur d'être une cible. Je suis une cible pour ce qu'on a en face. C'est génial, ça veut dire que je sers à quelque chose." "Twitter, Facebook, YouTube doivent systématiquement supprimer tout lien qui pointe vers un faux site. C'est pas compliqué. Mais on ne joue pas à armes égales parce qu'on a face à nous des gens qui savent créer du buzz."Un podcast proposé & produit par Opsci.aiProduction : Justin PoncetAnimation : Guillaume Ledit Réalisation : Romane MugnierGraphisme : Gautier GevreyGénérique : Martin Commandeur Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Thomas Huchon, journaliste d'investigation et réalisateur spécialiste de la désinformation, a documenté de l'intérieur la mutation de l'écosystème complotiste depuis 2005. De son faux documentaire sur le SIDA créé par la CIA (2015) à son enquête pionnière sur Cambridge Analytica (2017), il dissèque les mécanismes par lesquels les plateformes numériques ont industrialisé la manipulation de l'opinion. Cet épisode retrace quinze ans d'évolution d'un phénomène marginal vers une architecture informationnelle au service d'intérêts politiques et économiques structurés.La question centrale : comment sommes-nous passés de Loose Change, documenteur amateur sur le 11 septembre, à un écosystème où l'homme le plus riche du monde fait des saluts nazis tout en contrôlant l'une des principales plateformes informationnelles mondiales ? Quels sont les ressorts techniques, économiques et politiques de cette mutation ? Et surtout : que faire face à des plateformes qui connaissent nos comportements mieux que nous-mêmes ?Au programme :L'archéologie du complotisme numérique : de Loose Change (2005) aux 500 ateliers d'éducation aux médias, retour sur quinze ans d'observation d'un phénomène en mutation accéléréeL'expérience du faux complot (2015) : comment un documentaire frauduleux sur le SIDA inventé par la CIA révèle les recettes de fabrication et de diffusion des fake news sur les réseaux sociauxCambridge Analytica démasquée : Robert Mercer, inventeur de l'IA et de la spéculation algorithmique, transforme ses innovations en machine à gagner les élections grâce à la psychométrie et aux données volées de FacebookLes 77 000 voix qui ont fait basculer l'Amérique : décryptage de la campagne Trump 2016 et du ciblage des "racistes secrets" dans trois États clés via des techniques de manipulation comportementaleL'architecture de la servitude : comment les plateformes ont transformé la liberté d'expression en surveillance de masse et les citoyens en produits, selon la thèse du "capitalisme de surveillance" de Shoshana ZuboffLe tournant 2024 : d'Elon Musk à la Roumanie, l'accélération d'une dynamique où les géants tech assument désormais ouvertement leurs orientations politiques d'extrême droiteSortir de l'impasse : trois leviers d'action - éduquer à la détection des mensonges (pas au fact-checking), exiger la transparence algorithmique, réguler les plateformes comme des médias responsablesCe que vous pourrez entendre :"Mark Zuckerberg sait que j'ai envie de pisser. Moi, je ne le sais pas encore. Je crois que les gens ne mesurent pas à quel point les données personnelles que nous fournissons leur permettent de mieux nous comprendre que nous savons nous-mêmes.""Pour Shoshana Zuboff, nous ne sommes même pas des sujets, nous sommes des esclaves. Il y a un péché originel dans la Silicon Valley : si nous avions su comment ils allaient gagner de l'argent, nous ne les aurions jamais laissé faire."Un podcast proposé & produit par Opsci.aiProduction : Justin PoncetAnimation : Guillaume Ledit Réalisation : Romane MugnierGraphisme : Gautier GevreyGénérique : Martin Commandeur Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Romain Badouard est chercheur en sciences de l'information et spécialiste des nouvelles formes de normativité du web. Concrètement ? Il analyse les mécanismes par lesquels l'architecture technique des plateformes numériques amplifie structurellement les conflits informationnels. Du design persuasif développé à Stanford dans les années 2000 aux algorithmes de recommandation contemporains, Romain déchiffre depuis des années comment ces infrastructures, conçues pour maximiser le temps d'attention à des fins publicitaires, créent une vulnérabilité systémique exploitable par les opérations d'influence.Si les campagnes de manipulation prospèrent sur nos réseaux, est-ce seulement parce que des acteurs malveillants les déploient, ou parce que les plateformes ont été délibérément conçues pour amplifier ce qui polarise ? Comment des innovations issues de la recherche académique en psychologie comportementale se sont-elles transformées en outils de captation massive de l'attention ? Et peut-on encore réguler des architectures devenues opaques par nature ?Au programme :La captologie et BJ Fogg (Stanford, années 1990) : genèse du design persuasif, initialement conçu pour encourager des comportements vertueux avant d'être récupéré par l'industrie techL'économie de l'attention : comment la métrique du "temps passé" est devenue le critère de réussite imposé par les fonds d'investissement, orientant toute l'industrie vers la manipulationScroll infini, autoplay, pull-to-refresh : décryptage des mécanismes techniques inspirés des machines à sous pour maintenir les utilisateurs captifsAlgorithmes de colère et engagement toxique : révélations de Frances Haugen sur Facebook, montrant comment les plateformes amplifient les contenus polarisants pour maximiser l'engagement publicitaireShadow banning et opacité stratégique : ces formes de censure invisible qui permettent aux plateformes de contrôler qui parle et qui est entendu, sans transparenceDigital Services Act et limites de la régulation par la transparence : pourquoi les audits européens se heurtent à la complexité technique et à la dépendance au bon vouloir des Big TechIntelligence artificielle et nouvelle asymétrie : comment la dépendance du régulateur aux entreprises tech s'aggrave avec l'IA, dont même les créateurs ne peuvent expliquer le fonctionnementCe que vous pourrez entendre :"Il y a ce mythe d'ouvrir la boîte noire, ça marche pas comme ça. C'est des architectures d'informations qui sont très complexes, qui n'ont pas été faites pour être transparentes, auditables.""La liberté d'expression absolue, c'est la liberté de ceux qui peuvent se faire entendre. Donc de ceux qui ont de l'argent pour posséder les médias, pour posséder les réseaux."Un podcast proposé & produit par Opsci.aiProduction : Justin PoncetAnimation : Guillaume Ledit Réalisation : Romane MugnierGraphisme : Gautier GevreyGénérique : Martin Commandeur Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Lumir Lapray, autrice de "Ces gens-là", Plongée dans la France qui pourrait tout faire basculer (Payot, 2024), activiste de gauche et ancienne candidate aux législatives, analyse l'hégémonie du Rassemblement national dans les zones rurales comme le produit d'une guerre des récits et des représentations. Entre immersion ethnographique dans son village natal de l'Ain et comparaison avec les zones rurales américaines, elle dissèque les mécanismes par lesquels l'extrême droite a su capitaliser sur les frustrations générées par le néolibéralisme pour construire un récit de substitution.À partir de son expérience de terrain (campagne électorale intensive, passage sur RMC, observation des dynamiques locales) Lumir Lapray démonte l'écosystème qui transforme la honte de classe en ressentiment xénophobe, et interroge les stratégies de repolitisation possibles face à une infrastructure médiatique polarisante.Au programme :La "fierté" comme enjeu politique central : comment l'impossibilité d'accéder à une fierté statutaire (diplôme, CDI, propriété) pousse à chercher une fierté différentielle en se distinguant de ceux "encore plus bas"L'individualisation néolibérale : le passage de "c'est ma faute" à "c'est la faute aux migrants" sans jamais nommer le système comme responsableL'écosystème Bolloré : analyse de la machine RMC/CNews comme dispositif de cadrage systématique des enjeux, avec témoignage direct sur les contraintes du plateauLe Gilets jaunes comme moment manqué : quand la colère individualisée s'est brièvement transformée en conscience collective avant d'être récupérée par l'extrême droiteCommunity organizing à la française : les enseignements d'une campagne législative en territoire "ingagnable" fondée sur le porte-à-porte massif et l'organisation collectiveLa comparaison États-Unis/France : ce que les milices ICE et la répression trumpiste révèlent sur la fragilité des démocraties libérales"Démocratiser la politique" : pourquoi l'absence de représentants des classes populaires dans les instances de gauche constitue un handicap stratégique majeurCe que vous pourrez entendre :"Le vote RN, c'est une résultante. La vraie victoire du RN aujourd'hui, c'est la victoire du capitalisme il y a quelques dizaines d'années. C'est le fait d'avoir colonisé nos esprits avec ces explications.""Il faut à un moment accepter que le moment de la neutralité, du confort, c'est fini. Et c'est un deuil, c'est un deuil immense à faire."Un podcast proposé & produit par Opsci.aiProduction : Justin PoncetAnimation : Guillaume Ledit Réalisation : Romane MugnierGraphisme : Gautier GevreyGénérique : Martin Commandeur Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Laurent François a passé 15 ans à concevoir des stratégies d'influence pour de grandes marques de luxe, observant de l'intérieur l'évolution des mécaniques d'attention sur les réseaux sociaux. Dans son ouvrage Cracker l'algorithme (éditions de l'Aube,2025), cet ancien "Creative Strategist" analyse la mutation fondamentale de notre rapport à l'information et propose une critique éclairée de ce qu'il nomme "l'ère de l'algofluence".Entre désagrégation du lien social et hypnose algorithmique, ce praticien devenu critique du numérique décortique les mécanismes qui transforment les réseaux sociaux en machines à fragmenter l'attention collective. Mais au-delà du diagnostic, il explore des pistes concrètes pour réenchanter ces espaces et retrouver une forme de souveraineté numérique personnelle et collective. Au programme :Du navigateur à l'algofluence : le passage d'un web exploratoire où l'utilisateur naviguait librement entre sites à un environnement où l'algorithme dicte le parcours informationnel et fragmente l'attentionLes paracommunautés : ces fausses communautés créées artificiellement par les algorithmes qui donnent l'illusion du lien social tout en isolant les individus dans des bulles informationnellesL'hypnocratie des plateformes : comment les interfaces et les mécaniques d'engagement exercent une forme d'hypnose collective en exploitant nos biais cognitifs et nos besoins de validation socialeDe l'influence au luxe : les stratégies développées par les grandes marques pour exploiter les mécanismes de viralité, et ce qu'elles révèlent sur le fonctionnement des écosystèmes numériquesLes sanctuaires de conversation : initiatives concrètes pour recréer des espaces de dialogue authentique, des bancs de l'amitié dans les écoles aux téléphones du vent japonaisPratiquer l'heuristique : réapprendre la découverte et la curiosité comme antidote à la captation algorithmique, valoriser le sourcing et le lien hypertexte contre la verticalité des fluxCe que vous pourrez entendre :"L'audience n'est plus agrégée autour d'un contenu. C'est le contenu qui est ajusté autour de micro clusters d'audience.""Les plateformes ont une forme d'articulation hyper logique entre l'économique et la projection d'influence culturelle. Celui qui va pouvoir contrôler l'espace où se réunissent les gens va contrôler aussi une capacité de polarisation, de vecteur d'information et surtout de nouveaux types de réalité, de nouveaux clivages."Un podcast proposé & produit par Opsci.aiProduction : Justin PoncetAnimation : Guillaume Ledit Réalisation : Romane MugnierGraphisme : Gautier GevreyGénérique : Martin Commandeur Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Fred Turner, historien de la communication à Stanford et auteur d'Aux sources de l'utopie numérique, retrace la trajectoire qui mène de la contre-culture californienne des années 60 aux oligarques autoritaires d'aujourd'hui. Du "Democratic Surround" d'après-guerre à l'alliance entre extraction capitaliste et fondamentalisme religieux, cet épisode analyse les racines profondes du technofascisme américain et les mécanismes de résistance possibles.Internet devait émanciper les citoyens et sauver la démocratie. Trente ans plus tard, les plateformes numériques servent la surveillance généralisée et le chaos informationnel permanent. Comment les héritiers des hippies connectés sont-ils devenus des milliardaires barricadés au Texas ? Quel est le "péché originel" de la cybernétique qui explique cette dérive ? Et surtout : que faire face à cette bascule autoritaire ?Au programme :Le Democratic Surround : comment l'Amérique d'après-guerre a tenté de fabriquer des citoyens démocratiques par la technologie pour conjurer le fascismeLe péché originel de la cybernétique : la croyance mortifère que la technologie pourrait remplacer la politique et la délibération démocratiqueDes industries de réseau aux industries d'extraction : pourquoi l'IA le Texas devient le nouveau centre de gravité de la techL'idéologie texane : extraction pétrolière, christianisme conservateur, prédestination protestante et leadership masculin blanc comme nouveau paradigme"Flooding the zone" : saturation informationnelle + surveillance généralisée, le modèle chinois adopté par la droite américaineRésistance à trois niveaux : solidarité individuelle, riposte institutionnelle et mobilisation citoyenne face au technofascismeAaron Swartz et la bifurcation : deux visions d'Internet en lutte constante. A nous de déciderCe que vous pourrez entendre :"Le péché originel de la cybernétique, c'est de croire que grâce à la technologie, nous pourrions laisser la politique derrière nous. Leur mission était de construire des systèmes numériques capables de remplacer la politique.""Nous vivons en fait en plein fascisme. Trump fait ce que font les dirigeants fascistes : il évoque un passé mythique, détruit les sources d'information alternatives, réveille des animosités raciales, envoie des soldats dans les rues, bâtit une armée alternative sous la forme de l'ICE."Un podcast proposé & produit par Opsci.aiProduction : Justin PoncetAnimation : Guillaume Ledit Réalisation : Romane MugnierGraphisme : Gautier GevreyGénérique : Martin Commandeur Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Grégoire Lemarchand est directeur adjoint de l'information à l'AFP, où il dirige la stratégie numérique et l'investigation depuis 2017. Il a développé AFP Factuel, le plus vaste réseau mondial de vérification d'information avec 150 journalistes répartis dans plus de 30 pays. Début 2025, Meta annonçait l'abandon du fact-checking professionnel aux États-Unis, préférant les "community notes" au travail journalistique. Un séisme qui interroge la viabilité économique et éditoriale de la vérification d'information à l'ère de l'IA générative.Le fact-checking peut-il survivre sans les plateformes qui le financent ? Comment vérifier l'information quand les deepfakes se multiplient et que le coût marginal de production de la désinformation s'effondre ? Entre saturation cognitive, fatigue professionnelle et course permanente à l'innovation imposée, quelles infrastructures de résistance informationnelle les médias peuvent-ils encore construire ?Au programme :Genèse du fact-checking industriel : de la stupéfaction post-Brexit/Trump (2016-2017) au déploiement d'AFP Factuel dans 26 languesLe contrat avec Meta : anatomie d'un partenariat controversé où les plateformes financent la vérification de leurs propres contenusCommunity notes vs journalisme professionnel : pourquoi la modération participative échoue sur les sujets polarisants et complexesL'explosion de l'IA générative : Vo3 et Sora transforment le volume de production de faux contenus, des scams médicaux aux deepfakes politiquesC2PA et metadata inviolable : la stratégie du "taguage du vrai" pour identifier les contenus professionnels dans un océan de généré artificiellementFatigue cognitive collective : quand la saturation informationnelle pourrait devenir le meilleur antidote à la désinformationWhole of society approach : peut-on construire une résilience collective sans que le politique ne s'arroge le monopole de la vérité ?Ce que vous pourrez entendre :"Le fact-checking, ce n'est pas oui ou non. La plupart du temps on explique que c'est plus compliqué que ça. Expliquer que quelque chose est compliqué, de la nuance, ça réclame du temps. C'est compliqué de demander à des gens, de façon gratuite, sur leur temps libre, de faire ça.""On partait du principe qu'il fallait taguer le faux. Maintenant, est-ce qu'il ne faut pas renverser et dire : ce que vous voyez, il y a du vrai et du faux, mais nous on vous garantit que ce produit-là, il est vrai. Un peu comme une étiquette bio."Un podcast proposé & produit par Opsci.aiProduction : Justin PoncetAnimation : Guillaume Ledit Réalisation : Romane MugnierGraphisme : Gautier GevreyGénérique : Martin Commandeur Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Avec Laurent Cordonnier, docteur en sciences sociales et directeur de la recherche à la Fondation Descartes, nous plongeons dans la première étude française qui mesure empiriquement l'impact des récits étrangers sur l'opinion publique. À partir d'un sondage auprès de 4000 Français sur quatre conflits majeurs (Ukraine-Russie, Hamas-Israël, France-Mali, Chine-Taiwan), cette recherche révèle un paradoxe : si les mécanismes de la désinformation sont désormais bien documentés, leurs effets réels demeuraient largement inconnus. Depuis plusieurs années, nous savons comment fonctionnent les fermes à trolls, les campagnes coordonnées, les manipulations algorithmiques. Mais changent-elles vraiment nos représentations des conflits en cours ?Les résultats bousculent certaines idées reçues sur la vulnérabilité de nos démocraties. Contrairement aux craintes souvent exprimées d'une opinion publique facilement manipulable, les Français se montrent résilients face aux récits russes et chinois. Cette résistance s'explique notamment par le rôle structurant des médias traditionnels, qui demeurent de loin les plus consultés et les plus fiables aux yeux du public. Pourtant, l'étude identifie aussi des failles préoccupantes : les personnes qui s'informent principalement sur les réseaux sociaux, YouTube ou via les messageries instantanées sont significativement plus sensibles aux narratifs étrangers. Et surtout, si ces opérations d'ingérence peinent à modifier nos perceptions des conflits extérieurs, elles pourraient être bien plus efficaces pour polariser nos débats internes: là où les fractures préexistent et où les enjeux touchent directement les intérêt du pays.Au programme :L'étude Fondation Descartes : première mesure empirique de la pénétration de récits étrangers sur Ukraine-Russie, Hamas-Israël, France-Mali et Chine-Taiwan auprès de 4000 FrançaisAnatomie des récits testés : de la "guerre défensive" russe au "génocide" à Gaza, identification des éléments centraux de chaque propagande belligéranteRésilience française inattendue : moins de 20% d'adhésion aux récits russes et chinois, meilleure réception des narratifs ukrainien, taïwanais et israélienFacteurs de vulnérabilité : corrélation entre consommation d'information sur réseaux sociaux et sensibilité aux récits étrangers, indépendamment de l'âge et du diplômeCulture géopolitique comme bouclier : les connaissances factuelles protègent mieux que le niveau d'éducation général contre les manipulationsLe rôle-clé des super-spreaders locaux : pour réussir, les opérations d'ingérence doivent être relayées par des acteurs français légitimesMédias traditionnels, rempart sous-estimé : "prescripteurs" bien plus puissants qu'on ne le croit dans la formation de l'opinionLa vraie menace : la polarisation interne : appuyer sur les fractures existantes (antisémitisme, passé colonial, grogne sociale) fonctionne mieux que changer les représentations de conflits lointainsCe que vous pourrez entendre :"Ça montre qu'en France, les médias traditionnels restent extrêmement prescripteurs ou formateurs des opinions de la population. Bien plus qu'ils ne pensent eux-mêmes.""Les réseaux sociaux, c'est un miroir déformant de notre réalité. Et c'est à la fois un miroir déformant et un miroir aux alouettes. J'avais l'impression que 50% de la population française était pro-russe. Je fais l'étude, je vois que l'item pro-russe arrive à peine à 20%. J'ai beau le savoir, ça ne m'empêche pas de me mettre dans un état un peu d'assiégé."Un podcast proposé & produit par Opsci.aiProduction : Justin PoncetAnimation : Guillaume Ledit Réalisation : Romane MugnierGraphisme : Gautier GevreyGénérique : Martin Commandeur Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Avec Amélie Férey, chercheuse à l'IFRI et spécialiste de la légitimation de la force armée, nous analysons deux années de stratégies informationnelles déployées depuis le 7 octobre 2023. Au-delà du conflit sur le terrain, une guerre d'un autre genre mobilise IA générative, amplification algorithmique, doxing et des milliers de relais à travers le monde. Cette analyse documentée cartographie l'écosystème complet d'un affrontement qui préfigure les conflits futurs.Du National Public Diplomacy Directorate israélien aux vidéos d'Abu Obaïda sur Telegram, comment les deux camps ont-ils structuré leurs appareils de communication ? Pourquoi la guerre informationnelle produit-elle une polarisation où chaque camp estime avoir perdu ? Et surtout : que révèle ce laboratoire géant sur notre rapport collectif à l'intégrité des faits ?Au programme :Guerre informationnelle totale : pourquoi le coût prohibitif des conflits armés impose la légitimation permanente des opérations militaires auprès des alliésAsymétrie institutionnelle : l'Hasbara israélienne et le National Public Diplomacy Directorate face à la communication décentralisée du Hamas via TelegramIA générative et contre-factualité : des modélisations 3D des tunnels d'Al-Shifa aux 47 millions de vues d'"All Eyes on Rafah", comment l'image brouille réalité et fabricationCiblage des prescripteurs : pourquoi les chercheurs européens sont devenus des objectifs stratégiques pour l'Israel Defense and Security ForumDoxing et raids numériques : du collectif Shiryon qui liste les étudiants pro-palestiniens aux campagnes d'intimidation visant les employeursFatigue informationnelle et bulles cognitives : quand la saturation produit le retrait, la suspension du jugement et la radicalisation des intimes convictionsPropositions pour l'Europe : batteries anti-désinformation, réseaux sociaux européens et marketing des arméesCe que vous pourrez entendre :"La guerre de l'information polarise les sociétés et fait croire que la vérité n'est plus de ce monde. Les deux camps se replient sur leurs intimes convictions. Résultat : tout le monde est perdant.""La liberté, ce n'est pas la licence. Je me demande si la société française est plus libre avec des gens qui expliquent que la terre est plate qu'avec des gens qui expliquent scientifiquement qu'elle est ronde."Un podcast proposé & produit par Opsci.aiProduction : Justin PoncetAnimation : Guillaume Ledit Réalisation : Romane MugnierGraphisme : Gautier GevreyGénérique : Martin Commandeur Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Avec Rémy Gerbet, directeur exécutif de Wikimedia France, nous explorons les menaces existentielles qui pèsent sur Wikipédia. Vingt-cinq ans après sa création, l'encyclopédie collaborative est devenue l'un des derniers bastions d'un web où l'information n'appartient pas à des milliardaires et où les algorithmes ne décident pas de ce que vous devez voir. Mais ce modèle est désormais sous pression.Des campagnes politiques qui tentent de manipuler les contenus aux LLM qui aspirent l'encyclopédie sans la citer, en passant par les menaces directes contre les contributeurs : Wikipédia est devenue une cible stratégique dans ce que Gerbet qualifie de "guerre culturelle". Comment l'encyclopédie résiste-t-elle aux opérations d'influence ? Quels mécanismes communautaires permettent de préserver la neutralité de point de vue ? Et pourquoi cette bataille dépasse largement Wikipédia pour concerner l'ensemble de l'espace public numérique ?Au programme :Guerre culturelle : de la conquête de la légitimité (2001-2020) à la bataille pour le contrôle de l'information (post-Covid)Triple menace de l'IA générative : baisse de trafic, érosion épistémologique par absence de sources, et injection de faux contenus dans l'encyclopédie elle-mêmeAffaire Le Point : quand un magazine menace des contributeurs anonymes pour modifier sa pageNeutralité de point de vue : Wikipédia n'est pas neutre, mais applique un principe de représentation proportionnée des perspectivesGrokipédia d'Elon Musk : analyse de cette "encyclopédie d'opinion" entraînée sur X, où les émeutes de Black Lives Matter sont réduites à leur "coût pour les assurances"Projet PROMPT : consortium européen (Opsci, Wikimedia, médias, universités) développant des outils d'IA pour tracer l'origine des narratifs de désinformation et protéger les sources de l'encyclopédieEspace public numérique : pourquoi préserver Wikipédia relève d'un enjeu démocratique face à la fragmentation algorithmique de l'informationCe que vous pourrez entendre :"Les attaques contre Wikipédia ou contre les grands sites de médias d'information, c'est la même philosophie derrière que les attaques contre les universités. Contre une connaissance que l'on ne veut pas voir et une lutte pour prendre le contrôle de l'information, de ce qui est dit et comment c'est dit.""Wikipédia n'est pas neutre. Par contre, Wikipédia a la neutralité de point de vue comme un de ses principes. C'est essayer de représenter à juste proportion tous les points de vue et opinions qui s'expriment sur ce sujet-là."Un podcast proposé & produit par Opsci.aiProduction : Justin PoncetAnimation : Guillaume Ledit Réalisation : Romane MugnierGraphisme : Gautier GevreyGénérique : Martin Commandeur Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Emmanuel Vincent dirige Science Feedback, une organisation de fact-checking qui coordonne SIMODS, la première tentative européenne de mesure structurelle de la désinformation sur les grandes plateformes numériques. En collectant 2,6 millions de posts dans quatre pays et en les faisant vérifier par des fact-checkers, son équipe met des chiffres robustes sur ce que beaucoup ne percevaient qu’intuitivement. L’épisode dissèque ce que ces indicateurs disent (et ne disent pas) de notre écologie informationnelle, et ce qu’ils impliquent pour la régulation au titre du Digital Services Act.Dans un environnement où TikTok peut compter un contenu trompeur sur cinq parmi les posts « d’information », où les comptes les moins crédibles sur YouTube génèrent jusqu’à huit fois plus d’interactions que les autres, peut-on encore se contenter de discours vagues sur la « lutte contre les fake news » ? Comment quantifier la désinformation sans accès réel aux données, quand les plateformes invoquent le DSA tout en en contournant l’esprit ? Et que change le fait que des propriétaires comme Elon Musk assument désormais un usage politique de leurs plateformes ?Au programme :Indicateurs structurels: comment un consortium européen passe des cas isolés à une mesure comparable de la désinformation sur six plateformes, quatre pays et cinq grands thèmes (santé, climat, Ukraine, élections, migrations).Plateformes : 20 % de contenus trompeurs parmi les posts d’info sur TikTok, faible part d’informations crédibles sur X, et exception relative de LinkedIn où la désinformation reste marginale.Prime à la mésinformation : pourquoi, à audience équivalente, les comptes qui publient régulièrement de la désinformation obtiennent jusqu’à 7 à 8 fois plus d’interactions sur Facebook et YouTube.Algorithmes et émotions: comment une simple pondération (un « angry » qui vaut cinq fois un « like ») illustre la manière dont les plateformes privilégient les contenus qui divisent et énervent.Politique et désinformation: la sur-exposition des comptes politiques qui partagent des fausses informations, et ce que cela dit de la polarisation de l’espace public européen.Régulation et transparence : l’accès aux données comme condition minimale pour mesurer les risques systémiques, les angles morts sur la monétisation des contenus trompeurs, et les marges de manœuvre de la Commission européenne.Ce que vous pourrez entendre :« Quand on parle vraiment d’information sur ces sujets-là, sur TikTok, on est à peu près à 20 % de contenus de mésinformation. Je pense que ça veut surtout dire qu’il n’y a pas beaucoup d’information, et donc relativement beaucoup d’informations trompeuses. »« Si vous postez quelque chose qui énerve les gens, c’est cinq fois mieux pour Facebook que si vous postez quelque chose qui les fait aimer. Tant qu’on garde ce type de mécanisme, c’est bon pour leur business, mais c’est très mauvais pour la société. »Un podcast proposé & produit par Opsci.aiProduction : Justin PoncetAnimation : Guillaume Ledit Réalisation : Romane MugnierGraphisme : Gautier GevreyGénérique : Martin Commandeur Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Avec Jean-Yves Dormagen, professeur de science politique et président-fondateur de Cluster 17, on interroge le rôle des sondages dans un environnement saturé de désinformation. À l'heure où les opinions mutent à la vitesse des algorithmes, comment mesurer ce qu'on appelle encore "l'opinion publique"? Entre outil démocratique et instrument potentiel de manipulation, l'art sondagier doit se méfier des propagations, et s'adapter aux mutations en cours.Avec sa méthodologie fondée sur des "clusters" d'opinion, l'institut observe une radicalisation symétrique : les pôles opposés se renforcent, les positions intermédiaires s'effritent. Comment cette dynamique s'articule-t-elle avec les narratifs qui circulent dans nos espaces publics numériques ? Quelle part attribuer aux bulles algorithmiques, aux médias militants, aux structures sociales profondes ?Au programme :Les clusters d'opinion : cartographier la société française à partir de 30 questions sur les enjeux clivants (redistribution, immigration, écologie, élites)Polarisation en temps réel : comment un tiers des Français se concentre désormais aux deux extrêmes (multiculturalistes vs identitaires)Radicalisation symétrique : les conservateurs plus conservateurs, les progressistes plus progressistes, et l'effritement des positions intermédiairesInterconnexion des clivages : l'alignement quasi parfait entre positions identitaires et climato-scepticisme comme symptôme d'une guerre informationnelle interneCNews et bulles algorithmiques : mesurer les effets de renforcement sans sombrer dans le déterminisme médiatiquePanels synthétiques et IA : distinguer les vraies études des produits pirates générés par des machinesMéthodologie et transparence : pourquoi les sondages en ligne offrent une meilleure qualité de données que le téléphoneCe que vous pourrez entendre :"Les individus ne sont pas des pages blanches : ils interprètent l'information à travers leurs valeurs profondes. Mais il serait tout aussi naïf de penser que l'écosystème informationnel n'a aucun effet.""Le risque, c'est que certains préfèrent croire les sondages les plus confortables plutôt que les plus rigoureux. Et c'est précisément pour cela qu'il faut continuer à parler méthodologie, transparence et esprit critique."Un podcast proposé & produit par Opsci.aiProduction : Justin PoncetAnimation : Guillaume Ledit Réalisation : Romane MugnierGraphisme : Gautier GevreyGénérique : Martin Commandeur Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Avec Arnaud Mercier, professeur en sciences de l'information et de la communication à l'IFP et à l'Université Paris-Panthéon-Assas, on analyse comment les réseaux sociaux ont transformé la nature même de la désinformation. Au-delà de la simple accélération des phénomènes anciens, les plateformes numériques ont créé un écosystème où la propagande peut se diffuser sans intermédiation journalistique, activée par des algorithmes et amplifiée par des "idiots utiles" qui relaient sans conscience. De l'émergence de la "démoqueratie" à la fragilisation des figures d'autorité, le directeur du programme européen De facto déchiffre dans cet épisode les ressorts d'une mutation profonde de l'espace public.Les réseaux sociaux n'ont pas seulement accéléré la désinformation : ils ont démocratisé l'accès à un contre-espace public qui échappe au gatekeeping médiatique traditionnel. Comment cette horizontalité revendiquée fragilise-t-elle les fondements de la délibération démocratique ? Quels outils mobiliser face à l'instrumentalisation des biais cognitifs ? Et comment réguler sans tomber dans l'accusation de censure ?Au programme :L'effondrement du gatekeeping – Comment les plateformes ont contourné les "fourches caudines" des journalistes pour créer un accès direct au publicLe référendum de 2005 comme point de bascule – Étienne Chouard, les blogs et l'émergence d'un contre-espace public face à "l'élite politico-médiatique"La "démoqueratie" : culture du LOL et contestation par la dérision – Des hashtags détournés (#MoiPrésidentDeLaRépublique) aux mèmes comme affirmation citoyenne du "nous ne sommes pas dupes"Stratégies d'adaptation politique – De Macron avec McFly et Carlito à Gavin Newsom "newsomisant" les tweets de Trump : comment les élus épousent (ou singent) les codes de l'horizontalitéArmer cognitivement les citoyens – Le "kit de débiaisement" et les "semiots check" : outiller le regard pour repérer les manipulations par l'imageRégulation sans censure – Du Digital Services Act européen à Viginum : comment structurer une réponse institutionnelle face aux ingérences étrangèresCe que vous pourrez entendre :"Vous n'avez pas besoin de construire votre propre réseau : vous mettez un input dans une machine et après, ça marche. C'est un peu comme le ricochet, s'il y a le premier coup. Et après, c'est fini.""La démoqueratie, c'est une affirmation citoyenne de 'nous ne sommes pas dupes'. Arrêtez de nous prendre pour des jambons parce qu'on est capable de détourner, de décrypter vos ambitions d'influence."Un podcast proposé & produit par Opsci.aiProduction : Justin PoncetAnimation : Guillaume Ledit Réalisation : Romane MugnierGraphisme : Gautier GevreyGénérique : Martin Commandeur Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Épisode spécial depuis Ljubljana : on vous emmène au cœur du sommet Disinfo25, grand rendez-vous annuel de plus de 600 acteurs européens mobilisés contre la désinformation. Chercheurs, journalistes, entrepreneurs de la tech, représentants d'ONG et d'institutions se réunissent grâce à EU DisinfoLab pour faire le point sur l'état de la lutte.Depuis le Cankarjev Dom, ce reportage dresse la cartographie d'un écosystème qui se structure, se professionnalise et tente de tenir face à des menaces qui s'intensifient. De Paris à Bucarest, de Bratislava à Nairobi, quelles sont les forces et failles de cette résistance collective ?Au programme :Hervé Letoqueux (Check First) : du service public au privé, portrait d'un secteur qui se professionnaliseGénéral Bruno Courtois (Cercle Pégase) : comment l'industrie française se structure pour répondre à la menaceSasha Morinière (Conspiracy Watch) : internationaliser la lutte contre le complotismeAndréa Nistor (Roumanie) : course contre la montre avant les élections de 2028 après l'annulation du scrutin 2024Sara Solarova (AI Auditology) : forcer les plateformes à la transparence par l'audit algorithmiqueElodie Ho (OMS Afrique) : coordonner 47 pays africains contre la désinformation en santé publiqueCe que vous pourrez entendre :"C'est un écosystème qui s'est beaucoup professionnalisé, beaucoup structuré et qui s'apparente à ce qui a pu se passer autour de la cyber il y a une quinzaine d'années.""L'eau ne bout jamais à 99°, elle bout à 100°. Si nous ne voulons pas rater notre chance aux prochaines élections, nous devons explorer toutes les pistes.""Nous sommes en crise. L'ère de la désinformation est là. Et c'est particulièrement problématique avec les systèmes de recommandation."Un podcast proposé & produit par Opsci.aiProduction : Justin PoncetAnimation : Guillaume Ledit Réalisation : Romane MugnierGraphisme : Gautier GevreyGénérique : Martin Commandeur Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Avec Kevin Limonier, professeur à l'Institut français de géopolitique et spécialiste de la Russie, nous plongeons dans l'univers méconnu des "entrepreneurs d'influence" russes. Grâce à l'analyse exclusive d'une fuite massive de données, il nous révèle les coulisses de la Social Design Agency, cette "usine à fake" qui opère depuis les périphéries russes pour déstabiliser l'Europe.De Gambashidze, docteur en science politique devenu chef d'orchestre de la désinformation, aux opérations Doppelganger qui visent nos médias, comment fonctionne cette machine artisanale mais systématique ? Quels liens entre les commentaires trolls sur les réseaux sociaux et les têtes de cochons devant les mosquées françaises ?Une conversation qui démystifie la puissance russe tout en révélant ses méthodes, pour mieux comprendre les ressorts de cette guerre informationnelle qui se joue aux portes de l'Europe.Au programme :Portrait d'Ilya Gambashidze : du petit entrepreneur provincial au stratège de la désinformationLa culture soviétique du rapport : comment la bureaucratisation nourrit la propagandeOpération Doppelganger : cloner les médias français pour saturer l'espace informationnelDe la Transnistrie aux rues de Paris : les réseaux opaques des opérations hybridesCartographier la déstabilisation : pourquoi la géographie est un savoir émancipateur"Nous sommes plus résilients que nous le croyons" : plaidoyer pour l'optimisme démocratiqueCe que vous pourrez entendre :"Se placer sur le même plan que les agresseurs quand on est agressé est une erreur absolument fondamentale.""Quand vous regardez dans le détail de la SDA, c'est d'un amateurisme absolument crasse. Et c'est d'ailleurs ce qui nous sauve."Un podcast proposé & produit par Opsci.aiProduction : Justin PoncetAnimation : Guillaume Ledit Réalisation : Romane MugnierGraphisme : Gautier GevreyGénérique : Martin Commandeur Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Avec Julien Nocetti, chercheur associé à l'IFRI et spécialiste de la géopolitique de l'IA, on déchiffre un phénomène essentiel : la militarisation de l'intelligence artificielle et l'émergence des géants technologiques comme acteurs géopolitiques de premier plan. De Gaza à l'Ukraine, l'IA redessine en effet les contours de la guerre contemporaine.Comment les entreprises privées sont-elles devenues capables d'agir plus vite (et parfois plus fort) que les diplomaties traditionnelles ? Pourquoi Google est-il revenu sur l'interdiction de travailler avec le Pentagone ? Comment Elon Musk peut-il peser sur l'issue d'un conflit armé ? Et que révèlent ces mutations sur l'instrumentalisation des interdépendances technologiques ? Autant de questions auxquelles on tente de répondre (en parlant vite) ! Au programme :L'IA comme facteur de recomposition géopolitique : au-delà du champ de batailleUkraine et Gaza : terrains d'expérimentation de l'automatisation militaireLe "moment Maven" : quand Google fait volte-face et lève son interdiction militairePalantir, Anduril, Clearview AI : les pure players de la guerre algorithmiqueStarlink en Ukraine : quand Elon Musk devient acteur géopolitiqueLa collusion Big Tech / appareils d'État : États-Unis, Chine, RussieDeepfakes et opérations d'influence : l'IA dans la guerre informationnelleL'Europe face au "complexe techno-industriel" : quelle souveraineté possible ?Ce que vous pourrez entendre :"L'IA, ce n'est pas une arme à part entière. C'est une technologie duale qui présente des usages divers et variés, des applications possibles y compris dans le domaine militaire qui sont très nombreuses.""L'Ukraine est devenue dépendante d'acteurs technologiques extra-européens pour sa propre survie. Un contrepoint rarement analysé dans cette guerre.""Nous, Européens, devons être en mesure de lutter en même temps contre des menaces informationnelles qui viennent de Russie, de Chine, et en même temps, des États-Unis via toute la sphère MAGA."Un podcast proposé & produit par Opsci.aiProduction : Justin PoncetAnimation : Guillaume Ledit Réalisation : Romane MugnierGraphisme : Gautier GevreyGénérique : Martin Commandeur Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
loading
Comments 
loading