DiscoverPropagations
Propagations
Claim Ownership

Propagations

Author: Guillaume Ledit

Subscribed: 12Played: 138
Share

Description

Autour de nous, des batailles silencieuses font rage. Pas de mouvements de troupes visibles, mais des récits propagés, des croyances fabriquées, des éléments de langage amplifiés. Ces attaques ont pour champs de bataille nos espaces publics numériques et pour terrain à conquérir nos esprits.


Propagation(s) propose une analyse systémique des conflits informationnels. Chaque mardi, Guillaume Ledit reçoit chercheurs et experts pour décoder les mécanismes de la désinformation, de l'ingénierie sociale et des ingérences étrangères.


Au programme : sociologie des réseaux, géopolitique numérique, psychologie cognitive, analyse des propagandes... Une approche interdisciplinaire pour comprendre la menace qui pèse sur nos démocraties.


L'objectif ? Outiller les citoyens pour résister aux tentatives de manipulation informationnelle et revivifier notre espace public commun.


Un podcast proposé & produit par Opsci.ai


Production : Justin Poncet

Animation : Guillaume Ledit

Réalisation : Romane Mugnier

Graphisme : Gautier Gevrey

Générique : Martin Commandeur


Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

15 Episodes
Reverse
Avec Laurent Cordonnier, docteur en sciences sociales et directeur de la recherche à la Fondation Descartes, nous plongeons dans la première étude française qui mesure empiriquement l'impact des récits étrangers sur l'opinion publique. À partir d'un sondage auprès de 4000 Français sur quatre conflits majeurs (Ukraine-Russie, Hamas-Israël, France-Mali, Chine-Taiwan), cette recherche révèle un paradoxe : si les mécanismes de la désinformation sont désormais bien documentés, leurs effets réels demeuraient largement inconnus. Depuis plusieurs années, nous savons comment fonctionnent les fermes à trolls, les campagnes coordonnées, les manipulations algorithmiques. Mais changent-elles vraiment nos représentations des conflits en cours ?Les résultats bousculent certaines idées reçues sur la vulnérabilité de nos démocraties. Contrairement aux craintes souvent exprimées d'une opinion publique facilement manipulable, les Français se montrent résilients face aux récits russes et chinois. Cette résistance s'explique notamment par le rôle structurant des médias traditionnels, qui demeurent de loin les plus consultés et les plus fiables aux yeux du public. Pourtant, l'étude identifie aussi des failles préoccupantes : les personnes qui s'informent principalement sur les réseaux sociaux, YouTube ou via les messageries instantanées sont significativement plus sensibles aux narratifs étrangers. Et surtout, si ces opérations d'ingérence peinent à modifier nos perceptions des conflits extérieurs, elles pourraient être bien plus efficaces pour polariser nos débats internes: là où les fractures préexistent et où les enjeux touchent directement les intérêt du pays.Au programme :L'étude Fondation Descartes : première mesure empirique de la pénétration de récits étrangers sur Ukraine-Russie, Hamas-Israël, France-Mali et Chine-Taiwan auprès de 4000 FrançaisAnatomie des récits testés : de la "guerre défensive" russe au "génocide" à Gaza, identification des éléments centraux de chaque propagande belligéranteRésilience française inattendue : moins de 20% d'adhésion aux récits russes et chinois, meilleure réception des narratifs ukrainien, taïwanais et israélienFacteurs de vulnérabilité : corrélation entre consommation d'information sur réseaux sociaux et sensibilité aux récits étrangers, indépendamment de l'âge et du diplômeCulture géopolitique comme bouclier : les connaissances factuelles protègent mieux que le niveau d'éducation général contre les manipulationsLe rôle-clé des super-spreaders locaux : pour réussir, les opérations d'ingérence doivent être relayées par des acteurs français légitimesMédias traditionnels, rempart sous-estimé : "prescripteurs" bien plus puissants qu'on ne le croit dans la formation de l'opinionLa vraie menace : la polarisation interne : appuyer sur les fractures existantes (antisémitisme, passé colonial, grogne sociale) fonctionne mieux que changer les représentations de conflits lointainsCe que vous pourrez entendre :"Ça montre qu'en France, les médias traditionnels restent extrêmement prescripteurs ou formateurs des opinions de la population. Bien plus qu'ils ne pensent eux-mêmes.""Les réseaux sociaux, c'est un miroir déformant de notre réalité. Et c'est à la fois un miroir déformant et un miroir aux alouettes. J'avais l'impression que 50% de la population française était pro-russe. Je fais l'étude, je vois que l'item pro-russe arrive à peine à 20%. J'ai beau le savoir, ça ne m'empêche pas de me mettre dans un état un peu d'assiégé."Un podcast proposé & produit par Opsci.aiProduction : Justin PoncetAnimation : Guillaume Ledit Réalisation : Romane MugnierGraphisme : Gautier GevreyGénérique : Martin Commandeur Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Avec Amélie Férey, chercheuse à l'IFRI et spécialiste de la légitimation de la force armée, nous analysons deux années de stratégies informationnelles déployées depuis le 7 octobre 2023. Au-delà du conflit sur le terrain, une guerre d'un autre genre mobilise IA générative, amplification algorithmique, doxing et des milliers de relais à travers le monde. Cette analyse documentée cartographie l'écosystème complet d'un affrontement qui préfigure les conflits futurs.Du National Public Diplomacy Directorate israélien aux vidéos d'Abu Obaïda sur Telegram, comment les deux camps ont-ils structuré leurs appareils de communication ? Pourquoi la guerre informationnelle produit-elle une polarisation où chaque camp estime avoir perdu ? Et surtout : que révèle ce laboratoire géant sur notre rapport collectif à l'intégrité des faits ?Au programme :Guerre informationnelle totale : pourquoi le coût prohibitif des conflits armés impose la légitimation permanente des opérations militaires auprès des alliésAsymétrie institutionnelle : l'Hasbara israélienne et le National Public Diplomacy Directorate face à la communication décentralisée du Hamas via TelegramIA générative et contre-factualité : des modélisations 3D des tunnels d'Al-Shifa aux 47 millions de vues d'"All Eyes on Rafah", comment l'image brouille réalité et fabricationCiblage des prescripteurs : pourquoi les chercheurs européens sont devenus des objectifs stratégiques pour l'Israel Defense and Security ForumDoxing et raids numériques : du collectif Shiryon qui liste les étudiants pro-palestiniens aux campagnes d'intimidation visant les employeursFatigue informationnelle et bulles cognitives : quand la saturation produit le retrait, la suspension du jugement et la radicalisation des intimes convictionsPropositions pour l'Europe : batteries anti-désinformation, réseaux sociaux européens et marketing des arméesCe que vous pourrez entendre :"La guerre de l'information polarise les sociétés et fait croire que la vérité n'est plus de ce monde. Les deux camps se replient sur leurs intimes convictions. Résultat : tout le monde est perdant.""La liberté, ce n'est pas la licence. Je me demande si la société française est plus libre avec des gens qui expliquent que la terre est plate qu'avec des gens qui expliquent scientifiquement qu'elle est ronde."Un podcast proposé & produit par Opsci.aiProduction : Justin PoncetAnimation : Guillaume Ledit Réalisation : Romane MugnierGraphisme : Gautier GevreyGénérique : Martin Commandeur Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Avec Rémy Gerbet, directeur exécutif de Wikimedia France, nous explorons les menaces existentielles qui pèsent sur Wikipédia. Vingt-cinq ans après sa création, l'encyclopédie collaborative est devenue l'un des derniers bastions d'un web où l'information n'appartient pas à des milliardaires et où les algorithmes ne décident pas de ce que vous devez voir. Mais ce modèle est désormais sous pression.Des campagnes politiques qui tentent de manipuler les contenus aux LLM qui aspirent l'encyclopédie sans la citer, en passant par les menaces directes contre les contributeurs : Wikipédia est devenue une cible stratégique dans ce que Gerbet qualifie de "guerre culturelle". Comment l'encyclopédie résiste-t-elle aux opérations d'influence ? Quels mécanismes communautaires permettent de préserver la neutralité de point de vue ? Et pourquoi cette bataille dépasse largement Wikipédia pour concerner l'ensemble de l'espace public numérique ?Au programme :Guerre culturelle : de la conquête de la légitimité (2001-2020) à la bataille pour le contrôle de l'information (post-Covid)Triple menace de l'IA générative : baisse de trafic, érosion épistémologique par absence de sources, et injection de faux contenus dans l'encyclopédie elle-mêmeAffaire Le Point : quand un magazine menace des contributeurs anonymes pour modifier sa pageNeutralité de point de vue : Wikipédia n'est pas neutre, mais applique un principe de représentation proportionnée des perspectivesGrokipédia d'Elon Musk : analyse de cette "encyclopédie d'opinion" entraînée sur X, où les émeutes de Black Lives Matter sont réduites à leur "coût pour les assurances"Projet PROMPT : consortium européen (Opsci, Wikimedia, médias, universités) développant des outils d'IA pour tracer l'origine des narratifs de désinformation et protéger les sources de l'encyclopédieEspace public numérique : pourquoi préserver Wikipédia relève d'un enjeu démocratique face à la fragmentation algorithmique de l'informationCe que vous pourrez entendre :"Les attaques contre Wikipédia ou contre les grands sites de médias d'information, c'est la même philosophie derrière que les attaques contre les universités. Contre une connaissance que l'on ne veut pas voir et une lutte pour prendre le contrôle de l'information, de ce qui est dit et comment c'est dit.""Wikipédia n'est pas neutre. Par contre, Wikipédia a la neutralité de point de vue comme un de ses principes. C'est essayer de représenter à juste proportion tous les points de vue et opinions qui s'expriment sur ce sujet-là."Un podcast proposé & produit par Opsci.aiProduction : Justin PoncetAnimation : Guillaume Ledit Réalisation : Romane MugnierGraphisme : Gautier GevreyGénérique : Martin Commandeur Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Emmanuel Vincent dirige Science Feedback, une organisation de fact-checking qui coordonne SIMODS, la première tentative européenne de mesure structurelle de la désinformation sur les grandes plateformes numériques. En collectant 2,6 millions de posts dans quatre pays et en les faisant vérifier par des fact-checkers, son équipe met des chiffres robustes sur ce que beaucoup ne percevaient qu’intuitivement. L’épisode dissèque ce que ces indicateurs disent (et ne disent pas) de notre écologie informationnelle, et ce qu’ils impliquent pour la régulation au titre du Digital Services Act.Dans un environnement où TikTok peut compter un contenu trompeur sur cinq parmi les posts « d’information », où les comptes les moins crédibles sur YouTube génèrent jusqu’à huit fois plus d’interactions que les autres, peut-on encore se contenter de discours vagues sur la « lutte contre les fake news » ? Comment quantifier la désinformation sans accès réel aux données, quand les plateformes invoquent le DSA tout en en contournant l’esprit ? Et que change le fait que des propriétaires comme Elon Musk assument désormais un usage politique de leurs plateformes ?Au programme :Indicateurs structurels: comment un consortium européen passe des cas isolés à une mesure comparable de la désinformation sur six plateformes, quatre pays et cinq grands thèmes (santé, climat, Ukraine, élections, migrations).Plateformes : 20 % de contenus trompeurs parmi les posts d’info sur TikTok, faible part d’informations crédibles sur X, et exception relative de LinkedIn où la désinformation reste marginale.Prime à la mésinformation : pourquoi, à audience équivalente, les comptes qui publient régulièrement de la désinformation obtiennent jusqu’à 7 à 8 fois plus d’interactions sur Facebook et YouTube.Algorithmes et émotions: comment une simple pondération (un « angry » qui vaut cinq fois un « like ») illustre la manière dont les plateformes privilégient les contenus qui divisent et énervent.Politique et désinformation: la sur-exposition des comptes politiques qui partagent des fausses informations, et ce que cela dit de la polarisation de l’espace public européen.Régulation et transparence : l’accès aux données comme condition minimale pour mesurer les risques systémiques, les angles morts sur la monétisation des contenus trompeurs, et les marges de manœuvre de la Commission européenne.Ce que vous pourrez entendre :« Quand on parle vraiment d’information sur ces sujets-là, sur TikTok, on est à peu près à 20 % de contenus de mésinformation. Je pense que ça veut surtout dire qu’il n’y a pas beaucoup d’information, et donc relativement beaucoup d’informations trompeuses. »« Si vous postez quelque chose qui énerve les gens, c’est cinq fois mieux pour Facebook que si vous postez quelque chose qui les fait aimer. Tant qu’on garde ce type de mécanisme, c’est bon pour leur business, mais c’est très mauvais pour la société. »Un podcast proposé & produit par Opsci.aiProduction : Justin PoncetAnimation : Guillaume Ledit Réalisation : Romane MugnierGraphisme : Gautier GevreyGénérique : Martin Commandeur Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Avec Jean-Yves Dormagen, professeur de science politique et président-fondateur de Cluster 17, on interroge le rôle des sondages dans un environnement saturé de désinformation. À l'heure où les opinions mutent à la vitesse des algorithmes, comment mesurer ce qu'on appelle encore "l'opinion publique"? Entre outil démocratique et instrument potentiel de manipulation, l'art sondagier doit se méfier des propagations, et s'adapter aux mutations en cours.Avec sa méthodologie fondée sur des "clusters" d'opinion, l'institut observe une radicalisation symétrique : les pôles opposés se renforcent, les positions intermédiaires s'effritent. Comment cette dynamique s'articule-t-elle avec les narratifs qui circulent dans nos espaces publics numériques ? Quelle part attribuer aux bulles algorithmiques, aux médias militants, aux structures sociales profondes ?Au programme :Les clusters d'opinion : cartographier la société française à partir de 30 questions sur les enjeux clivants (redistribution, immigration, écologie, élites)Polarisation en temps réel : comment un tiers des Français se concentre désormais aux deux extrêmes (multiculturalistes vs identitaires)Radicalisation symétrique : les conservateurs plus conservateurs, les progressistes plus progressistes, et l'effritement des positions intermédiairesInterconnexion des clivages : l'alignement quasi parfait entre positions identitaires et climato-scepticisme comme symptôme d'une guerre informationnelle interneCNews et bulles algorithmiques : mesurer les effets de renforcement sans sombrer dans le déterminisme médiatiquePanels synthétiques et IA : distinguer les vraies études des produits pirates générés par des machinesMéthodologie et transparence : pourquoi les sondages en ligne offrent une meilleure qualité de données que le téléphoneCe que vous pourrez entendre :"Les individus ne sont pas des pages blanches : ils interprètent l'information à travers leurs valeurs profondes. Mais il serait tout aussi naïf de penser que l'écosystème informationnel n'a aucun effet.""Le risque, c'est que certains préfèrent croire les sondages les plus confortables plutôt que les plus rigoureux. Et c'est précisément pour cela qu'il faut continuer à parler méthodologie, transparence et esprit critique."Un podcast proposé & produit par Opsci.aiProduction : Justin PoncetAnimation : Guillaume Ledit Réalisation : Romane MugnierGraphisme : Gautier GevreyGénérique : Martin Commandeur Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Avec Arnaud Mercier, professeur en sciences de l'information et de la communication à l'IFP et à l'Université Paris-Panthéon-Assas, on analyse comment les réseaux sociaux ont transformé la nature même de la désinformation. Au-delà de la simple accélération des phénomènes anciens, les plateformes numériques ont créé un écosystème où la propagande peut se diffuser sans intermédiation journalistique, activée par des algorithmes et amplifiée par des "idiots utiles" qui relaient sans conscience. De l'émergence de la "démoqueratie" à la fragilisation des figures d'autorité, le directeur du programme européen De facto déchiffre dans cet épisode les ressorts d'une mutation profonde de l'espace public.Les réseaux sociaux n'ont pas seulement accéléré la désinformation : ils ont démocratisé l'accès à un contre-espace public qui échappe au gatekeeping médiatique traditionnel. Comment cette horizontalité revendiquée fragilise-t-elle les fondements de la délibération démocratique ? Quels outils mobiliser face à l'instrumentalisation des biais cognitifs ? Et comment réguler sans tomber dans l'accusation de censure ?Au programme :L'effondrement du gatekeeping – Comment les plateformes ont contourné les "fourches caudines" des journalistes pour créer un accès direct au publicLe référendum de 2005 comme point de bascule – Étienne Chouard, les blogs et l'émergence d'un contre-espace public face à "l'élite politico-médiatique"La "démoqueratie" : culture du LOL et contestation par la dérision – Des hashtags détournés (#MoiPrésidentDeLaRépublique) aux mèmes comme affirmation citoyenne du "nous ne sommes pas dupes"Stratégies d'adaptation politique – De Macron avec McFly et Carlito à Gavin Newsom "newsomisant" les tweets de Trump : comment les élus épousent (ou singent) les codes de l'horizontalitéArmer cognitivement les citoyens – Le "kit de débiaisement" et les "semiots check" : outiller le regard pour repérer les manipulations par l'imageRégulation sans censure – Du Digital Services Act européen à Viginum : comment structurer une réponse institutionnelle face aux ingérences étrangèresCe que vous pourrez entendre :"Vous n'avez pas besoin de construire votre propre réseau : vous mettez un input dans une machine et après, ça marche. C'est un peu comme le ricochet, s'il y a le premier coup. Et après, c'est fini.""La démoqueratie, c'est une affirmation citoyenne de 'nous ne sommes pas dupes'. Arrêtez de nous prendre pour des jambons parce qu'on est capable de détourner, de décrypter vos ambitions d'influence."Un podcast proposé & produit par Opsci.aiProduction : Justin PoncetAnimation : Guillaume Ledit Réalisation : Romane MugnierGraphisme : Gautier GevreyGénérique : Martin Commandeur Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Épisode spécial depuis Ljubljana : on vous emmène au cœur du sommet Disinfo25, grand rendez-vous annuel de plus de 600 acteurs européens mobilisés contre la désinformation. Chercheurs, journalistes, entrepreneurs de la tech, représentants d'ONG et d'institutions se réunissent grâce à EU DisinfoLab pour faire le point sur l'état de la lutte.Depuis le Cankarjev Dom, ce reportage dresse la cartographie d'un écosystème qui se structure, se professionnalise et tente de tenir face à des menaces qui s'intensifient. De Paris à Bucarest, de Bratislava à Nairobi, quelles sont les forces et failles de cette résistance collective ?Au programme :Hervé Letoqueux (Check First) : du service public au privé, portrait d'un secteur qui se professionnaliseGénéral Bruno Courtois (Cercle Pégase) : comment l'industrie française se structure pour répondre à la menaceSasha Morinière (Conspiracy Watch) : internationaliser la lutte contre le complotismeAndréa Nistor (Roumanie) : course contre la montre avant les élections de 2028 après l'annulation du scrutin 2024Sara Solarova (AI Auditology) : forcer les plateformes à la transparence par l'audit algorithmiqueElodie Ho (OMS Afrique) : coordonner 47 pays africains contre la désinformation en santé publiqueCe que vous pourrez entendre :"C'est un écosystème qui s'est beaucoup professionnalisé, beaucoup structuré et qui s'apparente à ce qui a pu se passer autour de la cyber il y a une quinzaine d'années.""L'eau ne bout jamais à 99°, elle bout à 100°. Si nous ne voulons pas rater notre chance aux prochaines élections, nous devons explorer toutes les pistes.""Nous sommes en crise. L'ère de la désinformation est là. Et c'est particulièrement problématique avec les systèmes de recommandation."Un podcast proposé & produit par Opsci.aiProduction : Justin PoncetAnimation : Guillaume Ledit Réalisation : Romane MugnierGraphisme : Gautier GevreyGénérique : Martin Commandeur Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Avec Kevin Limonier, professeur à l'Institut français de géopolitique et spécialiste de la Russie, nous plongeons dans l'univers méconnu des "entrepreneurs d'influence" russes. Grâce à l'analyse exclusive d'une fuite massive de données, il nous révèle les coulisses de la Social Design Agency, cette "usine à fake" qui opère depuis les périphéries russes pour déstabiliser l'Europe.De Gambashidze, docteur en science politique devenu chef d'orchestre de la désinformation, aux opérations Doppelganger qui visent nos médias, comment fonctionne cette machine artisanale mais systématique ? Quels liens entre les commentaires trolls sur les réseaux sociaux et les têtes de cochons devant les mosquées françaises ?Une conversation qui démystifie la puissance russe tout en révélant ses méthodes, pour mieux comprendre les ressorts de cette guerre informationnelle qui se joue aux portes de l'Europe.Au programme :Portrait d'Ilya Gambashidze : du petit entrepreneur provincial au stratège de la désinformationLa culture soviétique du rapport : comment la bureaucratisation nourrit la propagandeOpération Doppelganger : cloner les médias français pour saturer l'espace informationnelDe la Transnistrie aux rues de Paris : les réseaux opaques des opérations hybridesCartographier la déstabilisation : pourquoi la géographie est un savoir émancipateur"Nous sommes plus résilients que nous le croyons" : plaidoyer pour l'optimisme démocratiqueCe que vous pourrez entendre :"Se placer sur le même plan que les agresseurs quand on est agressé est une erreur absolument fondamentale.""Quand vous regardez dans le détail de la SDA, c'est d'un amateurisme absolument crasse. Et c'est d'ailleurs ce qui nous sauve."Un podcast proposé & produit par Opsci.aiProduction : Justin PoncetAnimation : Guillaume Ledit Réalisation : Romane MugnierGraphisme : Gautier GevreyGénérique : Martin Commandeur Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Avec Julien Nocetti, chercheur associé à l'IFRI et spécialiste de la géopolitique de l'IA, on déchiffre un phénomène essentiel : la militarisation de l'intelligence artificielle et l'émergence des géants technologiques comme acteurs géopolitiques de premier plan. De Gaza à l'Ukraine, l'IA redessine en effet les contours de la guerre contemporaine.Comment les entreprises privées sont-elles devenues capables d'agir plus vite (et parfois plus fort) que les diplomaties traditionnelles ? Pourquoi Google est-il revenu sur l'interdiction de travailler avec le Pentagone ? Comment Elon Musk peut-il peser sur l'issue d'un conflit armé ? Et que révèlent ces mutations sur l'instrumentalisation des interdépendances technologiques ? Autant de questions auxquelles on tente de répondre (en parlant vite) ! Au programme :L'IA comme facteur de recomposition géopolitique : au-delà du champ de batailleUkraine et Gaza : terrains d'expérimentation de l'automatisation militaireLe "moment Maven" : quand Google fait volte-face et lève son interdiction militairePalantir, Anduril, Clearview AI : les pure players de la guerre algorithmiqueStarlink en Ukraine : quand Elon Musk devient acteur géopolitiqueLa collusion Big Tech / appareils d'État : États-Unis, Chine, RussieDeepfakes et opérations d'influence : l'IA dans la guerre informationnelleL'Europe face au "complexe techno-industriel" : quelle souveraineté possible ?Ce que vous pourrez entendre :"L'IA, ce n'est pas une arme à part entière. C'est une technologie duale qui présente des usages divers et variés, des applications possibles y compris dans le domaine militaire qui sont très nombreuses.""L'Ukraine est devenue dépendante d'acteurs technologiques extra-européens pour sa propre survie. Un contrepoint rarement analysé dans cette guerre.""Nous, Européens, devons être en mesure de lutter en même temps contre des menaces informationnelles qui viennent de Russie, de Chine, et en même temps, des États-Unis via toute la sphère MAGA."Un podcast proposé & produit par Opsci.aiProduction : Justin PoncetAnimation : Guillaume Ledit Réalisation : Romane MugnierGraphisme : Gautier GevreyGénérique : Martin Commandeur Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Avec Dominique Boullier, sociologue et professeur émérite à Sciences Po, on plonge dans les fondements théoriques de la guerre informationnelle. Des fondements qu'il pose dans Propagations (Armand Colin, 2023) en proposant un nouveau paradigme pour comprendre comment les idées, les mèmes et les récits circulent et nous agissent à l'ère numérique. Au-delà des structures sociales et des préférences individuelles, les propagations constituent un troisième point de vue essentiel sur le social. Ces entités circulantes ont acquis un pouvoir d'agir propre, amplifié par les plateformes et leurs algorithmes. Comprendre leurs mécanismes, c'est saisir la guerre informationnelle autrement.De Pepe the Frog aux stratégies russes de déstabilisation, comment les propagations échappent-elles au contrôle de leurs émetteurs ? Pourquoi Twitter était-il une "machine virale" ? Et surtout : peut-on encore gouverner ces phénomènes sans sombrer dans la censure ?Au programme :Le troisième paradigme : pourquoi les propagations constituent un angle mort des sciences socialesTwitter, "drosophile des sciences sociales" : ce que les réseaux nous ont appris sur la viralitéPepe the Frog et l'agentivité des mèmes : quand les symboles prennent leur autonomieL'immédiateté pulsionnelle : comment le rythme numérique dégrade l'espace publicPropagande vs propagation : les nouvelles stratégies d'influence à l'ère des variants informationnelsRalentir pour résister : pistes concrètes pour reprendre le contrôleCe que vous pourrez entendre :"On ne peut pas contrôler les propagations. Tous les spin-doctors peuvent tenter de les contrôler, mais on ne contrôle pas.""Les propagandistes ne font plus de la propagande. Ils font de la propagation. Ils lancent plusieurs variants sans savoir lequel va prendre.""Je ne crains pas les hallucinations de l'IA, je crains les hallucinés de l'IA."Un podcast proposé & produit par Opsci.aiProduction : Justin PoncetAnimation : Guillaume Ledit Réalisation : Romane MugnierGraphisme : Gautier GevreyGénérique : Martin Commandeur Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
À l'heure où le consensus scientifique sur le climat est plus que robuste, et où l'on commence à ressentir les effets du réchauffement dans nos vies quotidiennes, des centaines de cas de désinformation sont détectés chaque trimestre dans les médias audiovisuels français. Avec Eva Morel, cofondatrice de QuotaClimat, on plonge dans les mécanismes d'une guerre informationnelle qui cible la science climatique.Du "nouveau déni" aux attaques coordonnées contre les défenseurs de l'environnement, comment des intérêts convergents (économie fossile, illibéraux, ingérences étrangères) exploitent la chute de 30% de la couverture environnementale pour imposer leurs narratifs ? Quels sont les effets de cadrage qui permettent à Marine Le Pen de monopoliser le débat sur la canicule avec la climatisation ? Et comment résister à cette normalisation de la désinformation ?Au programme :ClimateSafeGuard : l'outil qui détecte automatiquement la désinformation climatique dans l'audiovisuel françaisLa taxonomie CARDS : décryptage de la "grammaire" des narratifs de désinformation, du déni classique au sabotage des solutionsLe "nouveau déni" : pourquoi attaquer les solutions (véhicules électriques, renouvelables) est plus efficace que nier le réchauffementLes ZFE et la climatisation : comment des sujets techniques deviennent des champs de bataille médiatiquesIntérêts convergents : économie carbonée, algorithmes et extrême droite, une alliance objectivePremières sanctions : CNews et Sud Radio épinglés par l'ARCOM pour désinformation climatiqueLa proposition de loi : 100 députés de LFI à Horizons mobilisés pour sécuriser le droit à l'informationCe que vous pourrez entendre :"La désinformation climatique, c'est un moyen. La fin, c'est pour certains le démantèlement démocratique, pour d'autres leurs intérêts économiques.""On peut s'endormir en démocratie et se réveiller en dictature. Le droit à l'information n'est pas un acquis inamovible."Un podcast proposé & produit par Opsci.aiProduction : Justin PoncetAnimation : Guillaume Ledit Réalisation : Romane MugnierGraphisme : Gautier GevreyGénérique : Martin Commandeur Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Avec Nicolas Quénel, journaliste, on plonge dans l'écosystème de désinformation orchestré par le Kremlin. Depuis l'invasion de l'Ukraine, les opérations d'influence russe ont en effet pris une ampleur inédite, s'appuyant sur des techniques rodées depuis l'époque soviétique mais adaptées à l'ère numérique. Des "mesures actives" staliniennes aux fermes à trolls en passant par les opérations de déstabilisation sur le sol français, comment ces opérations ont-elles évolué ? Pourquoi notre pays reste-t-elle une cible privilégiée ? Comment distinguer agents d'influence et "idiots utiles" dans la propagation de ces narratifs ? Et comment les contrer ?Au programme :Anatomie des "mesures actives" : de l'Opération Trust aux entrepreneurs de la désinfoL'écosystème privatisé : quand la propagande devient un business modelAgents vs idiots utiles : profils et mécanismes de l'influence russe en FranceL'affaire Fazze : quand les Russes approchent les YouTubeurs françaisLe "maillon faible" français : pourquoi sommes-nous une cible de choix ?Les "russo-béats" : de la fascination pour Poutine dans l'armée françaiseLa riposte : Viginum, French Response et les limites de la contre-propagandeCe que vous pourrez entendre :"Pour ne pas se faire griller, il faut qu'ils soient bons tout le temps. Nous, pour les griller, il faut qu'ils foirent juste une seule fois.""Une presse d'opinion est beaucoup plus facile à infiltrer qu'une presse d'investigation.""Si tout le monde est potentiellement une victime, tout le monde est déjà un acteur de cette guerre informationnelle."Un podcast proposé & produit par Opsci.aiProduction : Justin PoncetAnimation : Guillaume Ledit Réalisation : Romane MugnierGraphisme : Gautier GevreyGénérique : Martin Commandeur Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Avec Maud Quessard, directrice du domaine "Europe, Espace Transatlantique, Russie" à l'IRSEM et spécialiste de la diplomatie publique américaine, on remonte aux sources pour comprendre les mutations contemporaines de la guerre informationnelle. De la guerre froide à la désinfo boostée à l'IA, cette perspective historique éclaire les continuités et ruptures d'un phénomène qui redéfinit les rapports de force géopolitiques.Comment l'information est-elle devenue une arme ? De quand date l'utilisation de l'influence par les acteurs gouvernementaux, notamment aux Etats-Unis ? Et depuis quand le pays le plus puissant du monde militarise sa diplomatie publique ? Enfin, face à cette "manipulation industrialisée par l'IA", quelles stratégies de résilience nos démocraties peuvent-elles déployer ?Au programme :Le tournant de 2010 : de la propagande d'État à l'activation intentionnelle de la désinformation au sein des démocratiesGuerre psychologique vs guerre cognitive : l'évolution du vocabulaire face aux avancées des sciences cognitivesDIME : l'information, 2e pilier de la puissance américaine depuis la guerre froideLa militarisation de la diplomatie publique : du 11 septembre à l'alliance GAFAM-État"Defend Forward" : quand la défense cyber devient offensive "préventive"Dérive autoritaire américaine : de la surveillance des chercheurs à l'instrumentalisation de la liberté d'expressionSpamouflage et radicalisation algorithmique : les nouvelles armes de la manipulation de masseRésilience informationnelle : éducation, régulation et coopération européenneCe que vous pourrez entendre :"Ce qui caractérise le champ informationnel aujourd'hui, c'est qu'il est totalement saturé, hypertrophié d'informations.""On est passé dans une ère de la manipulation industrialisée avec l'IA. L'intelligence artificielle permet de générer des discours, des vidéos, des images de manière automatisée et indétectable.""Il faut qu'on soit capable d'avoir un récit pour les démocraties qui reste libéral et pas illibéral, qui soit attractif. On est en plein dans cette bataille des récits."Un podcast proposé & produit par Opsci.aiProduction : Justin PoncetAnimation : Guillaume Ledit Réalisation : Romane MugnierGraphisme : Gautier GevreyGénérique : Martin Commandeur Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Avec Nastasia Hadjadji et Olivier Tesquet, auteurs d'Apocalypse Nerds (Divergences, 2025), on s'attèle à déchiffrer le concept de "technofascisme". Cette alliance entre Silicon Valley et pouvoir politique est en train de redéfinir les règles du jeu démocratique aux Etats-Unis, et donc dans le monde.De Peter Thiel à Curtis Yarvin, comment les idées circulent dans cet écosystème ? Sur quelle infrastructure informationnelle s'appuient ceux qui souhaitent en finir avec la démocratie représentative ? Quelles stratégies de résistance adopter face à cette recomposition du pouvoir ?Au programme :Qu'est-ce que le technofascisme ? Tentative d'épuisement d'un concept qui dépasse les grilles de lecture traditionnellesTESCREAL : transhumanisme, extropianisme, singularisme... décryptage de ce bricolage idéologiquePeter Thiel, "ingénieur du Kairos" : portrait du milliardaire le plus influent de la Silicon ValleyLa "pensée en API" : comment les idées circulent comme des briques logicielles interopérablesLe coup d'État graduel : de Curtis Yarvin au DOGE, stratégies de subversion institutionnelleCités-États privées : Prospera, Starbase... laboratoires d'un futur fragmentéCe que vous pourrez entendre : "Le technofascisme n'est pas handicapé par ses contradictions ou son absence de colonne vertébrale idéologique, mais il s'en nourrit.""On peut faire cohabiter Friedrich Hayek et Carl Schmitt, l'ordre spontané du marché et la décision souveraine. On a l'OS et le protocole."Un podcast proposé & produit par Opsci.aiProduction : Justin PoncetAnimation : Guillaume Ledit Réalisation : Romane MugnierGraphisme : Gautier GevreyGénérique : Martin Commandeur Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Autour de nous, des batailles silencieuses font rage pour conquérir nos esprits. Récits propagés, croyances fabriquées, éléments de langage amplifiés : la guerre informationnelle se joue dans nos espaces publics numériques.Avec le soutien d'Opsci.ai, Guillaume Ledit lance Propagation(s), le podcast qui décode cette conflictualité en cours. À travers des entretiens avec chercheurs, experts et acteurs de terrain, l'émission propose un regard systémique sur les mécanismes de la propagande en ligne et de l'ingénierie sociale.Comment se prémunir des assauts cognitifs ? Quel rôle pour la science et le politique face aux propagations ? Des questions urgentes pour apaiser l'espace public et recoder le logiciel de nos démocraties.Un podcast proposé & produit par Opsci.aiRéalisation : Romane MugnierGénérique : Martin CommandeurUn podcast proposé & produit par Opsci.aiProduction : Justin PoncetAnimation : Guillaume Ledit Réalisation : Romane MugnierGraphisme : Gautier GevreyGénérique : Martin Commandeur Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Comments