DiscoverChoses à Savoir TECH VERTE
Choses à Savoir TECH VERTE
Claim Ownership

Choses à Savoir TECH VERTE

Author: Choses à Savoir

Subscribed: 2,835Played: 167,926
Share

Description

Tout ce qu'il faut savoir dans le domaine de la Green Tech.

Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

1161 Episodes
Reverse
Il n’existerait pas d’hydrogène à l’état naturel sur Terre : pendant longtemps, cette idée a fait figure de vérité scientifique. Et pourtant, les faits racontent une autre histoire. Dès le début du XXᵉ siècle, des émanations d’hydrogène ont été observées en France. À partir des années 1970, les chercheurs commencent à identifier, un peu partout sur la planète, des poches d’hydrogène naturel – désormais baptisé hydrogène blanc – depuis les fonds océaniques jusqu’à la croûte continentale. Longtemps restées marginales, ces découvertes prennent aujourd’hui une tout autre dimension.Car dans un monde engagé dans une course contre la montre pour décarboner ses économies, l’hydrogène naturel apparaît comme une ressource providentielle. L’hydrogène industriel actuel, dit « gris », est produit à partir de ressources fossiles et génère près de dix kilos de CO₂ pour chaque kilo d’hydrogène. Un hydrogène bas carbone pourrait, lui, transformer l’industrie, les transports, voire la production d’électricité. Résultat : la ruée est lancée. Des forages exploratoires sont en cours en Australie et aux États-Unis. En France, plusieurs permis ont été délivrés, notamment dans les Pyrénées-Atlantiques et les Landes. Plus spectaculaire encore : l’annonce récente d’un gisement estimé à 46 millions de tonnes d’hydrogène naturel dans le sous-sol de la Moselle. À titre de comparaison, la consommation mondiale d’hydrogène atteignait environ 90 millions de tonnes en 2022.C’est dans ce contexte que des chercheurs de l'University of Oxford, de l’University of Durham et de l’University of Toronto publient des travaux majeurs. Leur étude identifie les conditions géologiques nécessaires à la formation et à l’accumulation de l’hydrogène blanc. Et leur conclusion est vertigineuse : les environnements favorables seraient répandus à l’échelle mondiale, avec un potentiel capable de couvrir nos besoins énergétiques pendant… 170 000 ans. Les chercheurs expliquent désormais comment l’hydrogène se forme, migre à travers les roches et se retrouve piégé, mais aussi ce qui peut le faire disparaître, comme certains microbes qui s’en nourrissent. Ces avancées offrent une véritable feuille de route aux industriels de l’exploration. Tout n’est pas encore connu : l’efficacité exacte des réactions chimiques ou l’influence de l’histoire géologique restent à préciser. Mais l’essentiel est là. « Trouver de l’hydrogène, c’est comme réussir un soufflé », résume le géochimiste Chris Ballentine : il faut les bons ingrédients, au bon moment. Une recette que la science commence enfin à maîtriser, ouvrant la voie à une nouvelle ère énergétique. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Pour faire tourner l’intelligence artificielle, il ne suffit pas d’aligner des serveurs. Il faut surtout les refroidir. Et c’est là que le bât blesse. Selon un rapport de l’International Energy Agency, les centres de données ont consommé 415 térawattheures d’électricité dans le monde en 2024, soit quasiment l’équivalent de la consommation annuelle de la France. D’ici 2030, cette demande pourrait plus que doubler, pour atteindre 945 TWh, portée en grande partie par l’explosion des usages liés à l’IA. Une trajectoire énergivore, qui interroge la soutenabilité à long terme du modèle actuel.Face à ce mur énergétique, des chercheurs explorent des pistes radicalement nouvelles. À l’University of Houston, une équipe du département d’ingénierie biomoléculaire vient de mettre au point un matériau inédit pour les puces électroniques. Il s’agit d’un isolant bidimensionnel ultrafin, dit « Low-K », c’est-à-dire à faible constante diélectrique. Concrètement, ce matériau ne conduit pas l’électricité, mais laisse circuler les forces électrostatiques nécessaires au fonctionnement des circuits.Pourquoi est-ce crucial ? Parce que dans les puces actuelles, une grande partie de la chaleur provient justement des interférences électriques entre composants. En réduisant ces interactions parasites, cet isolant permet aux processeurs de fonctionner à haute vitesse tout en produisant beaucoup moins de chaleur. Résultat : des serveurs plus efficaces, qui nécessitent moins de refroidissement, donc moins d’électricité, sans sacrifier les performances. Pour fabriquer ces films Low-K, les chercheurs ont utilisé une technique appelée « polymérisation interfaciale synthétique », popularisée notamment par le chimiste Omar M. Yaghi, prix Nobel de chimie 2025. Le principe : assembler des briques moléculaires légères, comme le carbone, un peu à la manière d’un jeu de Lego à l’échelle atomique. On obtient ainsi des feuillets cristallins ultrarésistants, capables de supporter des températures élevées tout en maintenant une excellente stabilité électrique.Ces nouveaux isolants offrent un double avantage. D’un côté, ils améliorent la dissipation thermique dans les centres de données dédiés à l’IA. De l’autre, ils pourraient à terme bénéficier à toute l’électronique grand public, des smartphones aux ordinateurs. Si la technologie passe le cap de l’industrialisation, elle pourrait devenir l’un des leviers clés pour freiner l’explosion énergétique de l’intelligence artificielle — et rappeler que l’innovation matérielle reste aussi stratégique que les algorithmes. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
À mesure que l’intelligence artificielle s’impose dans tous les services numériques, la facture énergétique de Google enfle à une vitesse vertigineuse. Recherche assistée par IA, modèles génératifs, services cloud : chaque requête mobilise des milliers de processeurs et alourdit un peu plus la consommation électrique du géant californien. Pour sécuriser cet appétit énergétique hors normes, Google change de stratégie : produire lui-même l’électricité dont ses centres de données ont besoin.C’est dans ce contexte qu’Alphabet, la maison mère de Google, négocie le rachat d’Intersect, une entreprise américaine spécialisée dans la colocalisation d’infrastructures énergétiques et numériques. L’opération pourrait atteindre 4,75 milliards de dollars, dettes comprises. Un investissement massif, mais stratégique. Car Intersect ne se contente pas de bâtir des data centers classiques : son modèle consiste à installer directement les serveurs à proximité immédiate de centrales électriques dédiées. Résultat : des capacités de calcul qui sortent de terre sans peser sur les réseaux publics déjà saturés.Intersect revendique aujourd’hui près de 15 milliards de dollars d’actifs en exploitation ou en construction aux États-Unis. Google, déjà actionnaire minoritaire, souhaite désormais prendre le contrôle total de l’entreprise. Son fondateur, Sheldon Kimber, resterait aux commandes, mais la société deviendrait un pilier de la stratégie énergétique d’Alphabet. Un premier projet emblématique est déjà en cours dans le comté de Haskell, au Texas : une centrale électrique et un centre de données y sont construits côte à côte pour alimenter directement les services d’IA du groupe. L’enjeu est colossal. Selon plusieurs autorités de régulation, chaque interaction avec des outils comme Gemini entraîne une consommation bien supérieure à celle d’une recherche classique. Sundar Pichai, PDG d’Alphabet, estime que ce modèle permettra à Google de gagner en agilité en développant simultanément production électrique et capacités de calcul. Le groupe ne mise pas uniquement sur le gaz : géothermie de nouvelle génération, batteries géantes pour le stockage longue durée et gaz couplé à la capture de carbone font partie de la feuille de route.Ironie du sort, Google utilise aussi ses propres algorithmes d’IA pour accélérer le raccordement des nouvelles centrales au réseau : l’intelligence artificielle aide ainsi à bâtir les infrastructures énergétiques qui l’alimenteront demain. Si le rachat obtient le feu vert des régulateurs, il devrait être finalisé au premier semestre 2026. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
L’addition environnementale de l’intelligence artificielle commence enfin à sortir du brouillard. Et elle est salée. Une étude menée par Alex de Vries-Gao, doctorant à l’université d’Amsterdam et fondateur de Digiconomist, met en lumière un angle mort majeur : l’empreinte carbone et hydrique des systèmes d’IA reste largement sous-évaluée, faute de données publiques et détaillées de la part des géants du numérique.Selon ses estimations, les systèmes d’IA pourraient émettre entre 32,6 et 79,7 millions de tonnes de CO₂ dès 2025. Un ordre de grandeur comparable aux émissions annuelles d’une grande métropole comme New York, ou d’un pays européen de taille moyenne. La consommation d’eau est tout aussi vertigineuse : entre 312 et 764 milliards de litres par an, soit l’équivalent de la consommation mondiale d’eau en bouteille. En cause, une explosion de la puissance électrique mobilisée par l’IA : 23 gigawatts attendus fin 2025, contre 9,4 GW seulement un an plus tôt.Ces chiffres s’inscrivent dans une tendance déjà pointée par Agence internationale de l'énergie, qui estime que l’IA représentait 15 % de la consommation électrique des centres de données en 2024, une part susceptible d’atteindre près de la moitié à moyen terme. Mais mesurer précisément cet impact relève aujourd’hui du casse-tête. Aucun acteur majeur — Google, Microsoft, Amazon ou Apple — ne distingue clairement, dans ses rapports environnementaux, ce qui relève spécifiquement des charges de travail liées à l’IA. Meta fait figure d’exception partielle en publiant sa consommation d’eau indirecte, liée à l’électricité achetée : 3,92 litres par kilowattheure, soit quatre fois plus que les estimations de référence. À l’inverse, Google assume ne pas communiquer ces données, arguant d’un manque de contrôle sur la production électrique — une position que l’étude juge révélatrice d’un déficit de transparence.Face à ce flou, Alex de Vries-Gao appelle à des règles plus contraignantes : obligation de reporting détaillé, publication de métriques hydriques et carbone spécifiques à l’IA, et création d’un indice carbone des modèles. Certaines initiatives émergent, comme celle de Mistral, qui a publié une analyse environnementale détaillée de l’un de ses modèles et invite ses concurrents à faire de même. Sans cette transparence généralisée, prévient le chercheur, impossible d’évaluer l’efficacité réelle des stratégies de réduction d’impact. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
La Russie prépare déjà l’après-ISS, et le projet de sa future station spatiale en dit long sur l’état actuel de son programme orbital. Baptisée provisoirement Russian Orbital Service Station, cette infrastructure doit entrer en construction à partir de 2027. Mais les contours du projet ont récemment évolué, révélant une stratégie plus contrainte qu’annoncé.À l’origine, Roscosmos envisageait une station entièrement nouvelle, composée de sept modules lancés progressivement à partir de la fin de la décennie. L’ensemble devait être assemblé dans les années 2030 et inclure, fait notable, des modules privés destinés au tourisme spatial. Une ambition élevée, fidèle à l’héritage soviétique de l’exploration spatiale. La réalité semble aujourd’hui plus pragmatique. Selon des responsables de l’agence spatiale russe, le cœur de cette future station pourrait finalement être constitué… des modules russes de l’actuelle Station spatiale internationale. L’idée serait de détacher ce segment à l’horizon 2030, lorsque l’ISS arrivera en fin de vie, afin de le maintenir en orbite et de le réutiliser. Pendant que la partie internationale serait désorbitée et détruite dans l’atmosphère, la section russe poursuivrait son existence sous une nouvelle bannière. Cette option présente un avantage évident : le coût. Construire une station entièrement neuve exige des investissements colossaux, difficilement compatibles avec la situation économique russe actuelle, marquée par des sanctions technologiques et un budget largement absorbé par l’effort militaire. Réutiliser l’existant permet de maintenir une présence en orbite basse à moindre frais. Mais ce recyclage pose de sérieux problèmes. Les modules russes de l’ISS auront alors passé plus de trente ans dans l’espace. Usure des matériaux, pannes à répétition, fatigue des structures, sans oublier les risques biologiques liés à des décennies d’occupation humaine : les inquiétudes sont nombreuses. Les cosmonautes russes effectuent déjà régulièrement des réparations pour maintenir les systèmes en état de fonctionnement.Au-delà des défis techniques, ce choix traduit un recul stratégique. Tandis que la Chine consolide sa station Tiangong, que l’Inde vise l’autonomie orbitale et que les États-Unis s’appuient sur le secteur privé pour renouveler leur présence spatiale, la Russie semble contrainte de faire avec ce qu’elle a. Cette future station, si elle voit le jour sous cette forme, garantirait une présence symbolique en orbite… mais au prix d’ambitions scientifiques et technologiques nécessairement limitées. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
La course à l’intelligence artificielle est aussi une course à l’énergie. Pour alimenter des centres de données toujours plus gourmands, tous les leviers sont désormais actionnés, quitte à reléguer les considérations climatiques au second plan. Dans ce paysage déjà sous tension, un autre secteur énergivore entre en scène : l’aviation. Deux univers que tout oppose en apparence, mais qui partagent en réalité trois obsessions communes : la vitesse, la puissance et l’accès à l’énergie.C’est précisément ce croisement inattendu qu’exploite Boom Supersonic, l’avionneur américain qui rêve de faire renaître le vol supersonique civil avec son appareil Overture. Faute de financements suffisants pour mener seul ce projet coûteux, la start-up a trouvé une voie de diversification audacieuse : transformer un moteur d’avion… en générateur électrique pour l’IA. Le principe est simple : une turbine reste une turbine. Le moteur Mach 1+ Symphony, conçu pour propulser un avion supersonique, a été adapté pour produire de l’électricité au sol. Ce dérivé, baptisé Superpower, fonctionne comme un turbogénérateur alimenté au gaz naturel — ou au diesel en secours. Le cœur technologique reste très proche de la version aéronautique : près de 80 % des composants sont identiques. La principale différence réside dans l’ajout d’étages de compression et d’une turbine à vapeur libre, dont la rotation génère l’électricité. Résultat : un générateur compact, à peine plus volumineux qu’un conteneur de fret, capable de produire jusqu’à 42 mégawatts en continu, sans système de refroidissement actif, même sous 43 °C. Autre atout majeur : une mise en service en une quinzaine de jours, là où la construction d’infrastructures énergétiques classiques prend des années.Boom Supersonic affirme déjà avoir séduit des clients. L’entreprise Crusoe, spécialisée dans les infrastructures pour centres de données, a commandé plusieurs unités Superpower pour une capacité cumulée annoncée de 1,21 gigawatt. Une puissance équivalente à celle d’une centrale électrique de taille respectable. À première vue, l’alliance entre aviation et intelligence artificielle surprend. Mais aux États-Unis, la demande énergétique liée à l’IA explose à un rythme tel que d’anciennes centrales nucléaires sont parfois réactivées. Les projections évoquent un doublement de la consommation électrique des data centers dans les prochaines années. Dans ce contexte, un générateur capable de fournir une énergie massive, stable et rapidement déployable apparaît presque logique. Reste une question majeure, largement éludée pour l’instant : celle de l’empreinte carbone. Car derrière cette ingénierie brillante, l’énergie fossile demeure au cœur du système — un paradoxe de plus dans la révolution numérique en cours. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
C’est une première mondiale qui pourrait bien rebattre les cartes du stockage d’énergie. Des chercheurs viennent de mettre au point le tout premier gel métallique jamais observé, un matériau hybride aux propriétés étonnantes, à mi-chemin entre le solide et le liquide, capable de résister à des températures extrêmes.À l’origine de cette découverte, un mélange peu commun : du cuivre et du tantale, un métal gris bleuté reconnu pour sa conductivité électrique et sa robustesse thermique. Chauffé à haute température, le cuivre fond, tandis que le tantale reste solide et se structure en un réseau interne ultrafin, composé de cavités microscopiques. Ce squelette agit comme une gaine interne qui piège le métal liquide. Le résultat est une substance à la consistance gélatineuse, fluide comme un liquide, mais mécaniquement stable. Contrairement aux gels classiques, comme ceux utilisés dans les produits désinfectants, ce gel métallique conserve ses propriétés jusqu’à 1 000 degrés Celsius.Cette prouesse pourrait résoudre l’un des principaux verrous des batteries à métal liquide. Ces batteries sont très prometteuses : elles stockent de grandes quantités d’énergie, supportent un grand nombre de cycles de charge et vieillissent mieux que les batteries lithium-ion. Mais jusqu’ici, elles restaient cantonnées à des usages stationnaires. En mouvement, le métal liquide a tendance à se déplacer, provoquant des courts-circuits et des pertes de puissance. Pour tester leur matériau, les chercheurs ont fabriqué une batterie expérimentale utilisant le gel métallique comme électrode. Plongée dans un sel fondu, la batterie a produit de l’électricité de manière stable, démontrant que le gel joue efficacement son rôle de stabilisateur. Le métal reste en place, même dans des conditions thermiques extrêmes. Cette avancée ouvre la voie à des applications jusque-là hors de portée. Des batteries à métal liquide pourraient alimenter des navires de grande taille, des équipements industriels lourds, voire des véhicules hypersoniques, dont les contraintes thermiques sont incompatibles avec les technologies actuelles. À plus long terme, ce gel métallique pourrait transformer le stockage d’énergie de forte puissance, en rendant mobiles des systèmes jusqu’ici condamnés à rester immobiles.  Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
L’industrie automobile française est en train de vivre un virage stratégique majeur, souvent passé sous les radars : la naissance d’une véritable filière nationale de batteries électriques. Un chantier décisif pour l’avenir de la mobilité, mais aussi pour la souveraineté industrielle européenne. Au cœur de cette transformation, un acteur clé : Automotive Cells Company, plus connue sous le nom d’ACC.Créée en 2020, ACC a déjà franchi une étape symbolique : la mise sur le marché de ses premières batteries électriques produites en France. Objectif affiché : réduire la dépendance de l’Europe aux fournisseurs asiatiques, notamment chinois, tout en accompagnant l’électrification rapide du parc automobile. Un enjeu colossal, quand on sait que la batterie représente aujourd’hui près de 40 % du coût d’un véhicule électrique. Implantée dans le nord du pays, ACC s’appuie sur quatre sites industriels, dont une gigafactory installée à cheval sur Billy-Berclau et Douvrin, dans le Pas-de-Calais. Un choix géographique qui n’est pas anodin : il s’agit à la fois de redynamiser un bassin industriel historique et de repositionner la France dans la course mondiale aux batteries.La montée en puissance annoncée est spectaculaire. Après une phase de rodage en 2024, ACC vise 150 000 batteries dès 2025, puis 250 000 en 2026. À l’horizon 2030, l’ambition est claire : 2 à 2,5 millions de batteries par an, soit environ 20 % du marché européen. Une trajectoire alignée avec l’échéance de 2035, date à laquelle l’Union européenne prévoit la fin de la vente des véhicules thermiques neufs. Mais le défi est immense. Comme le reconnaît la direction d’ACC, produire des batteries à grande échelle suppose une courbe d’apprentissage longue et coûteuse, jalonnée de défis techniques. Même les leaders chinois du secteur admettent que les débuts sont complexes. La fiabilité, la durée de vie et la qualité des cellules sont désormais des critères aussi stratégiques que les volumes. Les premières batteries françaises équiperont des modèles Opel et Peugeot, au sein du groupe Stellantis. Une intégration industrielle qui pourrait, à terme, faire baisser le prix des voitures électriques et accélérer leur démocratisation.Au-delà de la production, le recyclage des batteries devient lui aussi un pilier stratégique, avec l’émergence d’usines dédiées. Une logique d’économie circulaire indispensable pour rendre la filière durable. Pendant ce temps, d’autres constructeurs européens, comme Mercedes-Benz, explorent des technologies alternatives, preuve que la course à l’innovation est loin d’être terminée. En structurant une filière complète, de la cellule au recyclage, la France tente un pari industriel ambitieux. S’il est tenu, il pourrait faire du pays — et de l’Europe — un acteur central de la batterie électrique mondiale, et un peu moins dépendant des puissances extérieures dans la transition énergétique à venir. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Lorsqu’on met de côté la question des déchets radioactifs, le nucléaire reste l’une des rares sources d’énergie capables de produire massivement de l’électricité sans émissions de gaz à effet de serre. Son principal défaut demeure toutefois bien connu : les centrales sont longues et coûteuses à construire. Face à cette contrainte, une solution alternative gagne du terrain, notamment pour les sites isolés ou les infrastructures critiques : les microréacteurs nucléaires.C’est sur ce créneau que se positionne Radiant Nuclear. La start-up américaine vient d’annoncer une levée de fonds de plus de 300 millions de dollars pour accélérer la commercialisation de Kaleidos, un microréacteur nucléaire d’une puissance électrique d’un mégawatt. Radiant prévoit de construire une usine dans le Tennessee, capable de produire jusqu’à 50 unités par an. Concrètement, chaque microréacteur Kaleidos tient dans un volume équivalent à celui d’une semi-remorque. Il fournit non seulement un mégawatt d’électricité, mais aussi 1,9 mégawatt d’énergie thermique, exploitable pour le chauffage industriel ou la désalinisation de l’eau. Le système repose sur un combustible de nouvelle génération, le TRISO, réputé pour sa robustesse et sa sûreté. Une unité peut fonctionner cinq ans en continu avant d’être récupérée par Radiant pour être rechargée en combustible.Ces microréacteurs sont conçus pour être transportables, surveillés à distance, et interconnectables. Selon l’entreprise, plusieurs centaines d’unités pourraient être déployées ensemble, en fonction des besoins. Les cas d’usage ciblés sont variés : bases militaires, opérations de secours, sites industriels isolés ou zones où le réseau électrique est insuffisant. Le secteur des centres de données figure aussi dans le viseur. Si un microréacteur ne suffit pas à alimenter à lui seul les gigantesques infrastructures dédiées à l’intelligence artificielle — qui réclament désormais des puissances proches du gigawatt, comme chez Meta ou dans le projet Stargate — il peut néanmoins constituer un appoint stratégique. Radiant a déjà signé plusieurs accords, notamment pour équiper une base militaire américaine et fournir plusieurs dizaines d’unités à Equinix. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
L’annonce remonte à octobre 2023, mais elle mérite clairement qu’on s’y attarde à nouveau. Des chercheurs du Lawrence Berkeley National Laboratory et de l’Université de Californie à Berkeley ont présenté une technologie de refroidissement radicalement nouvelle, capable de bouleverser un secteur aujourd’hui sous pression climatique. En ligne de mire : les hydrofluorocarbures, ces gaz réfrigérants ultra-polluants encore largement utilisés dans la climatisation et la réfrigération.Le principe exploité est à la fois simple et élégant. Lorsqu’un matériau change d’état — solide, liquide ou gazeux — il absorbe ou libère de la chaleur. La glace qui fond refroidit son environnement : tout le monde l’a déjà constaté. Les chercheurs sont partis d’un autre phénomène bien connu : l’ajout d’ions peut modifier le point de fusion d’une substance sans en augmenter la température. C’est exactement ce qui se passe lorsque l’on sale les routes en hiver pour empêcher la formation de glace.L’équipe californienne a transposé ce mécanisme dans un système de refroidissement inédit, baptisé cycle ionocalorique. En appliquant un très faible courant électrique, inférieur à un volt, les chercheurs déplacent des ions à l’intérieur du dispositif. Ce mouvement modifie le point de fusion du matériau utilisé, provoquant une variation de température spectaculaire. Lors des tests, un mélange de sel iodé et sodique a permis de faire fondre du carbonate d’éthylène — un solvant courant dans les batteries lithium-ion — avec un écart thermique atteignant 25 degrés Celsius. Une performance inédite pour ce type de technologie. « Personne n’avait jusqu’ici développé une solution qui soit à la fois efficace, sûre et respectueuse de l’environnement », souligne Drew Lilley, ingénieur en mécanique au laboratoire de Berkeley. Contrairement aux systèmes classiques, basés sur la compression et l’évaporation de fluides frigorigènes très polluants, ce procédé se passe totalement d’hydrofluorocarbures. Un enjeu crucial, alors que l’amendement de Kigali impose une réduction de 80 % de leur usage d’ici 2048.Autre atout majeur : le carbonate d’éthylène utilisé peut être produit à partir de dioxyde de carbone, ouvrant la voie à un système au potentiel climatique nul, voire négatif. Pour Ravi Prasher, autre chercheur du projet, l’équation repose sur trois critères clés : impact climatique, efficacité énergétique et coût. Et, pour la première fois, les résultats préliminaires semblent satisfaisants sur les trois fronts. Les travaux, publiés dans la revue Science, montrent même que cette technologie pourrait rivaliser avec, voire dépasser, les systèmes actuels. Le défi désormais est industriel : passer du laboratoire à des applications à grande échelle. De nouvelles équipes testent déjà d’autres sels, notamment à base de nitrates recyclables. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Fausses promotions, produits non conformes, polémiques sur la protection des données ou encore accusations liées à des articles au design jugé problématique : ces dernières semaines, Shein a multiplié les controverses. Et pourtant, le 5 novembre dernier, le géant chinois de la fast-fashion a franchi une étape symbolique en ouvrant son premier magasin physique au monde, en plein cœur de Paris, au BHV Marais. Une implantation qui tombe à point nommé à l’approche des fêtes… et qui relance une question centrale : quel est réellement le coût carbone d’un achat Shein ?Le cabinet français Greenly, spécialiste de l’empreinte carbone, s’est penché sur la question. Son analyse se concentre uniquement sur le transport des colis, sans même intégrer les émissions liées à la fabrication des vêtements — pourtant loin d’être neutres. À titre d’exemple, produire un kilo de coton génère environ 16,4 kg de CO₂, et jusqu’à 21,1 kg pour certaines fibres synthétiques très présentes chez Shein.Premier enseignement : selon le mode de livraison, l’empreinte carbone d’un colis peut être multipliée par plus de douze. Pour une commande standard de 7 à 8 articles, soit environ 2 kilos, les émissions varient de 1,01 à 12,96 kg de CO₂ équivalent. Le scénario le plus polluant reste sans surprise le transport aérien : camion depuis l’entrepôt chinois, vol long-courrier jusqu’à Paris, puis nouvelle livraison routière. À l’inverse, la solution la plus vertueuse consiste à expédier les commandes par bateau vers des entrepôts européens, notamment en Belgique ou en Espagne. Dans ce cas, l’empreinte tombe à 1,01 kg de CO₂, retours et emballages compris. Une différence considérable.Et qu’en est-il des achats en boutique ? Contrairement aux idées reçues, acheter directement au BHV Marais n’est pas forcément plus écologique. Certes, les marchandises arrivent elles aussi par bateau. Mais il faut ajouter l’impact énergétique du magasin — chauffage, éclairage — ainsi que les déplacements des clients. Résultat : 2,11 kg de CO₂ si vous venez en métro… et jusqu’à 4,84 kg si vous utilisez la voiture. Soit parfois plus du quadruple d’une livraison depuis un entrepôt européen. À l’échelle individuelle, l’écart peut sembler modeste. Mais rapporté aux 29 millions de colis Shein livrés chaque année en France, l’impact devient massif. Transportés par avion, ils représenteraient l’équivalent des émissions annuelles de 64 000 Français. Greenly recommande donc plusieurs leviers simples : regrouper ses achats, éviter la livraison express, privilégier des transports peu émetteurs pour se rendre en magasin… et surtout, résister à la logique de la fast-fashion. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Après plusieurs années de tensions, le système électrique français respire enfin. Depuis 2020, la production peinait à suivre la demande, conséquence d’une baisse progressive du nucléaire amorcée dès 2015, puis des retards accumulés pendant la crise sanitaire. Mais en 2024, la dynamique s’est nettement inversée. Le parc nucléaire a retrouvé un niveau de production proche de celui d’avant-crise, tandis que les énergies renouvelables ont accéléré. L’an dernier, 7 gigawatts de nouvelles capacités solaires et éoliennes ont été installés.Résultat : la France dispose aujourd’hui d’une électricité décarbonée à 95 % et a battu un record historique d’exportations, avec 89 térawattheures de solde net en 2024. Un signal fort, dans un contexte européen encore marqué par l’instabilité énergétique. Pour autant, le tableau n’est pas entièrement idyllique. Selon RTE, la France importe encore près de 60 % de l’énergie finale qu’elle consomme. Une dépendance coûteuse, évaluée entre 50 et 70 milliards d’euros par an, principalement liée aux énergies fossiles, qui représentent toujours 60 % de la consommation finale. Or, pour respecter ses engagements climatiques — une réduction de moitié des émissions de gaz à effet de serre d’ici 2035 — cette part devra tomber autour de 30 %.Pour y parvenir, deux leviers sont privilégiés : les économies d’énergie et l’électrification des usages. Sur le premier point, les résultats sont déjà là. Entre 2017 et 2023, la consommation énergétique a reculé, grâce aux gains d’efficacité mais aussi aux changements de comportement induits par la hausse des prix. Au total, 30 TWh sont économisés chaque année. Conséquence directe : la France se retrouve aujourd’hui en situation de surcapacité électrique. Elle produit plus qu’elle ne consomme. « La France est dans une position avantageuse pour s’électrifier », souligne RTE dans son bilan prévisionnel 2025-2035. D’ici 2030, l’adoption massive des véhicules électriques devrait ajouter 17 TWh de consommation annuelle. À cela s’ajoutent la production d’hydrogène vert par électrolyse, estimée à 15 TWh, et l’électrification de procédés industriels, pour 13 TWh supplémentaires.Même le numérique trouve sa place dans cette trajectoire. Les data centers, dont la consommation devrait tripler entre 2025 et 2030, passant de 5 à 15 TWh, pourront être alimentés sans compromettre les objectifs climatiques. Selon RTE, cette trajectoire de décarbonation rapide pourrait même soutenir la croissance, avec une hausse du PIB de 1,1 % par an. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
La France se réchauffe plus vite que le reste du monde. Et désormais, les chiffres ne laissent plus place au doute. Aurélien Ribes, climatologue à Météo-France et contributeur au prochain rapport du GIEC, a présenté une première photographie du climat français en 2025 lors de la conférence Climat et Santé, organisée à Paris par l’association Météo et Climat. Le constat est saisissant.En France, le réchauffement d’origine humaine atteint désormais +1,9 degré par rapport à l’ère préindustrielle. À l’échelle mondiale, on se situe encore entre +1,3 et +1,5 degré. Sur la dernière décennie, de 2015 à 2024, la moyenne française grimpe même à +2,1 degrés. Un seuil symbolique, et surtout politique, puisque l’Accord de Paris visait à limiter le réchauffement global à +1,5 degré. Pour la France, ce plafond est déjà largement dépassé. Et selon Aurélien Ribes, à l’échelle planétaire, « maintenir le climat sous +1,5 degré semble désormais hors de portée ». Les conséquences sont déjà visibles. Les vagues de chaleur sont aujourd’hui plus fréquentes, plus longues, plus intenses, et s’étendent sur une saison de plus en plus large. Et ce n’est qu’un début. Les projections climatiques dessinent un avenir compris entre +2,7 degrés, dans le scénario le plus optimiste, et +4 degrés, dans le scénario le plus probable, d’ici la fin du siècle.L’évolution des journées de chaleur extrême est particulièrement parlante. Entre 1961 et 1990, la France connaissait en moyenne deux jours par an de chaleur extrême, parfois aucun certaines années. Aujourd’hui, entre 2014 et 2025, on en compte déjà treize par an. À l’horizon 2050, ce chiffre atteindrait 25 jours par an dans un climat à +2,7 degrés. Et en 2100, avec +4 degrés, on parlerait de 45 jours de chaleur extrême par an. Autrement dit, à la fin du siècle, presque tout l’été serait concerné. « Dans une France à +4 degrés, Paris aura le climat de Montpellier », résume le climatologue.À l’inverse, le froid disparaît progressivement. L’année 2025 n’a connu aucune véritable vague de froid. Même le coup de fraîcheur de fin novembre n’était ni assez intense, ni assez durable pour entrer dans cette catégorie. Les grandes vagues de froid historiques, comme celle de 2012, ne devraient tout simplement plus se reproduire. Ce que décrit Aurélien Ribes, ce n’est pas un futur lointain. C’est déjà le présent climatique de la France. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
L’annonce est passée relativement inaperçue lors de sa publication, en septembre dernier. Et pourtant, elle pourrait bien marquer un tournant majeur dans la lutte contre la pollution plastique. Le Korea Institute of Machinery & Materials, le KIMM, a dévoilé une technologie de recyclage par plasma présentée comme une avancée mondiale. Une innovation qui promet de traiter les déchets plastiques sans les dégâts environnementaux associés aux méthodes actuelles, tout en ouvrant la voie à une véritable économie circulaire.Aujourd’hui, le recyclage chimique du plastique repose largement sur la pyrolyse. Le principe : chauffer des déchets plastiques broyés à environ 600 degrés pour les décomposer. Sur le papier, la solution paraît séduisante. Dans la réalité, elle pose de lourds problèmes. La pyrolyse génère d’importantes émissions de gaz à effet de serre, des fumées toxiques dangereuses pour la santé, des résidus inutilisables… et contribue à la pollution de l’air, des sols et des eaux. Autrement dit, une méthode censée recycler finit parfois par polluer. La technologie développée par le KIMM prend le problème à la racine. Elle repose sur une torche plasma, utilisant un gaz ionisé porté à des températures comprises entre 1 000 et 2 000 degrés. Presque trois fois plus que la pyrolyse classique. Mais surtout, le processus est fulgurant : la décomposition du plastique s’effectue en un centième de seconde. Cette rapidité empêche les phénomènes de combustion prolongée responsables des émissions toxiques.Autre différence clé : le résultat. Le plastique n’est pas réduit en résidus problématiques, mais transformé directement en benzène et éthylène, deux molécules essentielles servant de matières premières à la fabrication de nouveaux plastiques. Le recyclage devient alors réellement circulaire, sans dépendre de nouvelles ressources fossiles. L’atout environnemental ne s’arrête pas là. La torche plasma fonctionne à l’hydrogène, une énergie propre, réduisant drastiquement l’empreinte carbone du procédé. Selon les chercheurs, ce système pourrait, à terme, atteindre une quasi-neutralité carbone. « Nous avons réussi à convertir des déchets plastiques mixtes en matières premières exploitables, une première mondiale », souligne le responsable du programme au KIMM. Cette percée arrive à un moment critique, alors que la production mondiale de plastique continue de croître et que les solutions durables peinent à suivre. Reste désormais l’étape décisive : la commercialisation. Le KIMM prévoit de multiplier les démonstrations industrielles. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Pendant longtemps, la voiture électrique a incarné une promesse simple : rouler sans passer à la pompe, sans odeur d’essence sur les mains… et surtout sans payer les lourdes taxes sur les carburants. Une forme de liberté retrouvée. Mais cette parenthèse pourrait bien se refermer. À mesure que les véhicules électriques se multiplient, une nouvelle question fiscale s’impose : comment compenser la chute des recettes liées aux carburants ?Car le manque à gagner est bien réel. En France, les ventes d’essence et de diesel auraient reculé d’environ 1 % sur un an. Or, ces carburants sont une véritable manne pour l’État. Selon le magazine Auto Plus, entre taxes et contributions diverses, 50 à 60 % du prix d’un litre reviennent aux finances publiques. En 2024, cela aurait représenté près de 43 milliards d’euros pour Bercy. Une source de revenus qui s’effrite lentement, mais sûrement, avec l’essor de l’électrique. Face à cette érosion, certains pays cherchent déjà des solutions. Au Royaume-Uni, le débat est ouvert : le gouvernement envisage une taxation au kilomètre parcouru pour les voitures électriques. L’idée est simple : remplacer la taxe sur le carburant par une contribution liée à l’usage réel du véhicule. En clair, même sans émission à l’échappement, rouler resterait taxable.En France, cette piste commence aussi à circuler. Une taxe de quelques centimes par kilomètre pourrait rapporter plusieurs centaines d’euros par an et par conducteur, selon son profil. Pour un automobiliste « moyen », la facture pourrait avoisiner les 300 euros annuels. Un montant non négligeable, qui remettrait en question l’un des arguments économiques majeurs du passage à l’électrique. Reste une question épineuse : comment appliquer concrètement cette taxe ? Plusieurs scénarios sont évoqués. Un relevé du kilométrage lors du contrôle technique. Un dispositif connecté embarqué, capable de comptabiliser précisément les distances parcourues. Ou encore une déclaration annuelle auprès de l’administration fiscale. Pour l’heure, rien n’est tranché. Le paradoxe est frappant. Alors que les pouvoirs publics encouragent la transition vers le véhicule électrique à coups de primes et d’incitations, l’idée d’une nouvelle taxation pourrait refroidir certains automobilistes, notamment ceux qui roulent beaucoup. Car si la voiture électrique promettait une mobilité plus propre, elle n’a jamais été synonyme de gratuité absolue. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
En Inde, la spirale est bien connue : croissance économique, vagues de chaleur de plus en plus intenses, explosion de la demande d’électricité… et, en retour, hausse des émissions de gaz à effet de serre. Un cercle vicieux climatique qui semblait presque inévitable. Mais une enquête conjointe du média d’investigation SourceMaterial et du The Guardian vient pointer un acteur majeur dans cette nouvelle flambée de la consommation électrique : Amazon et ses centres de données.À Mumbai, deux centrales à charbon appartenant aux groupes Tata Group et Adani devaient fermer en 2023, dans le cadre des engagements climatiques du gouvernement. Mais la décision a été annulée. En cause : une explosion de la demande d’électricité, jugée incompatible avec l’abandon du charbon dans une mégapole de 18 millions d’habitants. Selon des documents internes consultés par SourceMaterial, Amazon exploite pas moins de 16 data centers dans l’agglomération. Un chiffre colossal, dans un pays qui affiche désormais de grandes ambitions dans l’intelligence artificielle. Le problème, c’est que ces infrastructures sont extrêmement énergivores. En 2023, les centres loués par Amazon à Mumbai auraient consommé plus de 624 000 mégawattheures, soit l’équivalent de la consommation annuelle de plus de 400 000 foyers indiens.Le Guardian souligne un paradoxe : ces data centers sont peu visibles, car Amazon les loue au lieu de les posséder directement. Mais leur impact, lui, est bien réel. Dans le quartier de Mahul, qualifié d’« enfer toxique » par un rapport de 2019, se concentrent trois raffineries, seize usines chimiques… et l’une des centrales à charbon les plus polluantes de la ville, responsable à elle seule d’un tiers de la pollution aux particules fines locales. Les métaux lourds rejetés provoquent maladies respiratoires, cutanées, rénales et cardiaques. Alors que le charbon ne suffit déjà plus, Amazon a équipé ses centres de données de 41 générateurs au diesel, et prévoit d’en installer encore davantage pour éviter les coupures. Une fuite en avant énergétique qui inquiète fortement les ONG. Pour Eliza Pan, porte-parole d’Amazon Employees for Climate Justice, « Amazon utilise l’attrait de l’IA pour masquer la construction d’un véritable empire énergétique polluant ». Ironie amère : tandis que l’intelligence artificielle est souvent présentée comme un outil de lutte contre le dérèglement climatique, elle contribue ici, très concrètement, à en accélérer les effets. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Créé en 1988, le GIEC est devenu, au fil des décennies, la référence mondiale en matière de climat. Sa mission : rassembler, analyser et synthétiser les connaissances scientifiques sur le réchauffement climatique, ses causes et ses conséquences. En 2021, le diagnostic était sans appel : « Il est sans équivoque que l’influence humaine a réchauffé la planète. » Et pourtant, malgré ce consensus, le doute persiste dans l’opinion publique.Pourquoi une telle défiance ? C’est la question posée par des chercheurs de l’Université d’Essex, au Royaume-Uni. Après avoir interrogé plus de 4 000 personnes, leurs travaux, publiés dans la revue Nature Climate Change, aboutissent à une conclusion troublante : le GIEC pourrait, bien involontairement, nourrir une part du scepticisme… à cause de son vocabulaire. Sur le fond, les scientifiques sont clairs : le réchauffement est bien réel et d’origine humaine. En revanche, les projections futures comportent forcément des marges d’incertitude selon les scénarios d’émissions. Et c’est précisément là que le malentendu s’installe. Dans ses rapports, le GIEC utilise des termes précis, comme « improbable » pour désigner un événement dont la probabilité est inférieure à 33 %. Scientifiquement, c’est rigoureux. Mais dans le langage courant, ce mot est souvent associé au doute ou à la contestation. Résultat : lorsque le GIEC écrit qu’une élévation extrême du niveau de la mer est « improbable », une partie du public comprend… que les scientifiques ne sont pas d’accord entre eux.Les chiffres le confirment. Un sondage récent montre que 9 Français sur 10 constatent que le dérèglement climatique est en cours. Mais selon le dernier baromètre publié par l’Ademe avec OpinionWay, 33 % des Français pensent encore que les scientifiques ne sont pas tous d’accord. Certaines enquêtes montent même jusqu’à 45 % de climatoscepticisme, selon la manière dont les questions sont posées. Les chercheurs évoquent plusieurs causes : politisation de l’écologie, défense du mode de vie, peur du changement, théories complotistes. À cette liste s’ajoute désormais un facteur inattendu : la façon de présenter les probabilités. Pour la chercheuse Marie JuanChich, de l’Université d’Exeter, parler de « faible probabilité » serait plus efficace que « d’improbable ». Une nuance de mots, mais un impact réel sur la confiance. Les auteurs tiennent à le rappeler : le GIEC rend un service inestimable à la société. Mais dans un contexte de tensions politiques et de désinformation, chaque formulation compte. Car sur le climat, le message est simple, et il est pressant : il n’existe toujours… qu’une seule planète. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Depuis plus d’un an, Tesla traverse une zone de fortes turbulences en Europe. En cause, bien sûr, l’image de son patron, Elon Musk, dont les prises de position politiques répétées sur le Vieux Continent ont durablement abîmé la marque. Dans le même temps, la montée en puissance des constructeurs chinois bouleverse l’équilibre du marché. Résultat : trimestre après trimestre, les ventes de Tesla reculent. Et le mois de novembre confirme la tendance.À l’échelle européenne, la marque affiche un repli global d’environ 12 % par rapport à novembre de l’an dernier. Sur le papier, cela pourrait presque sembler modéré. Mais cette moyenne cache en réalité des écarts spectaculaires entre les pays. Car si l’on isole certains marchés, la chute devient beaucoup plus sévère. En retirant le cas à part de la Norvège, les ventes de Tesla s’effondrent tout simplement de 36,3 % en Europe. Sur les grands marchés automobiles, le recul est parfois brutal. En Allemagne, la baisse atteint 20,2 %. Mais ailleurs, c’est l’hémorragie : –43,5 % aux Pays-Bas, –57,8 % en France, et jusqu’à –59,3 % en Suède. Des chiffres qui traduisent un net décrochage de la marque sur ses marchés historiques.Une exception se distingue pourtant dans l’Union européenne : l’Italie. Le pays affiche une croissance spectaculaire de +58,5 %. Une performance directement liée aux nouvelles incitations financières mises en place pour soutenir l’achat de véhicules électriques. La preuve, une fois de plus, du poids décisif des politiques publiques sur ce marché. Mais c’est surtout la Norvège — pourtant hors de l’Union européenne — qui maintient aujourd’hui les ventes de Tesla à flot sur le continent. En novembre, la marque y a immatriculé 6 215 véhicules, un record. À titre de comparaison, le deuxième marché européen de Tesla, l’Allemagne, plafonne à 1 763 unités sur la même période. Cela représente en Norvège une envolée spectaculaire de +175,2 %. Cette ruée ne s’explique pas par un regain soudain d’amour pour la marque américaine, mais par une urgence fiscale. Les avantages fiscaux accordés aux véhicules électriques premium doivent disparaître en 2026. Les acheteurs norvégiens se précipitent donc pour profiter une dernière fois de ces conditions favorables. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Il y a trois ans, l’Union européenne frappait fort : à partir de 2035, la vente de véhicules thermiques neufs devait être interdite sur l’ensemble de son territoire. Un cap historique pour le climat… mais un choc frontal pour l’industrie automobile. Depuis, cette échéance n’a cessé d’être contestée. Et ce qui se prépare aujourd’hui ressemble peut-être au plus important recul politique sur le sujet.Cette semaine, Paris a réuni l’ensemble des acteurs de la filière automobile. Objectif : arrêter une ligne claire avant la présentation, le 10 décembre, de la révision du règlement européen sur les émissions de CO₂. Le message est sans ambiguïté : la France veut défendre ses constructeurs, et éviter toute décision qui fragiliserait leur compétitivité face aux géants chinois de la voiture électrique. Dans les coulisses de cette rencontre, une orientation se dessine : aller vers la fin du moteur thermique, oui, mais dans un cadre de « préférence européenne ». Comprendre : protéger l’industrie du continent le temps que la transition vers l’électrique se fasse réellement à armes égales. Et surtout, Paris ne ferme plus totalement la porte à la vente de véhicules thermiques neufs après 2035. Une inflexion notable, là où le calendrier était jusqu’ici présenté comme non négociable.Mais si la position française reste volontairement floue, entre impératif climatique et protection industrielle, la ligne allemande, elle, est beaucoup plus assumée. Selon le quotidien économique Handelsblatt, le gouvernement de Allemagne entend défendre clairement l’avenir du moteur thermique après 2035 — à condition qu’il soit « hautement efficace ». Cela inclut les hybrides, les carburants de synthèse, ou encore de nouveaux moteurs à combustion aux émissions fortement réduites. Autrement dit, Berlin refuse catégoriquement une Europe condamnée au tout-électrique. Une position portée avec vigueur par certains territoires industriels. Les Länder de Bade-Wurtemberg et de Bavière ont déjà fait pression sur le gouvernement pour « garantir l’avenir du moteur à combustion ».Cette divergence entre Paris et Berlin illustre les tensions qui traversent aujourd’hui l’Europe automobile. D’un côté, l’urgence climatique. De l’autre, la crainte d’un décrochage industriel face à l’Asie. La révision du texte sur les émissions, attendue dans quelques jours, dira si l’interdiction de 2035 reste une ligne rouge… ou devient un simple cap « indicatif ». Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
L’Europe voulait frapper fort face aux plans massifs de subventions vertes lancés par les États-Unis. En 2021, la Commission européenne lançait l’Innovation Fund, présenté comme la réponse au programme climatique américain porté par Joe Biden. Quatre ans plus tard, le constat est sévère. Sur les 7,1 milliards d’euros de subventions attribuées, à peine 333 millions ont réellement été versés. Soit moins de 5 %. Une information révélée par le Financial Times.En cause : une machine administrative jugée étouffante. La procédure est si lourde que 77 % des candidats ont dû faire appel à des cabinets de conseil pour monter leurs dossiers. Coût moyen : 85 000 euros par candidature, soit bien plus que pour accéder au programme de recherche Horizon Europe. Et pour un résultat très incertain : moins de 20 % des projets sont retenus, et parmi eux, seuls 6 % sont déjà opérationnels. Cette inertie fait écho au diagnostic posé par Mario Draghi, qui dénonçait récemment la bureaucratie comme un frein structurel à l’innovation européenne. « Certaines entreprises passent jusqu’à 3 000 heures sur un dossier », explique Victor van Hoorn, du collectif Cleantech for Europe. Un an et demi de travail à temps plein… pour une chance minime d’obtenir un financement.Pour les grandes entreprises, l’effort est pénible mais absorbable. Pour les plus petites, c’est parfois rédhibitoire. Eoin Condren, dirigeant du groupe cimentier bas-carbone Ecocem, raconte avoir englouti cinq mois de travail et plusieurs centaines de milliers d’euros pour constituer son dossier. Et encore, les projets financés concernent surtout des technologies lourdes, comme l’hydrogène vert ou la capture carbone, souvent longues à rentabiliser. Conséquence directe : certains industriels préfèrent partir. L’exemple le plus parlant est celui de Vianode. Lauréate d’une subvention européenne de 90 millions d’euros, l’entreprise a finalement choisi de s’implanter… au Canada, en partenariat avec General Motors. En cause, la concurrence chinoise et un marché européen jugé trop difficile. « En Amérique du Nord, les fabricants sont incités à éviter les fournisseurs chinois », explique son vice-président, Andreas Forfang. L’Innovation Fund devait être un moteur de la transition verte européenne. Pour l’instant, il ressemble surtout à un embouteillage administratif. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
loading
Comments (7)

Thibault de Changy

bonjour, vos podcasts semblent tous saturés !!!

Jun 29th
Reply

Thibault de Changy

est il possible de se passer des cette phrase aussi systématique qu'intitule : "c'est ce que je vous propose de ville dans cet épisode" ?! ça me tapé sur les nerfs, surtout quand on en écoute plusieurs d'affilée. tant qu'à février ce qui ne va pas, je trouverais plus agréable de ne pas crier dans le micro et exprimer les faits comme s'ils allaient tous changer le monde. c'est plutôt oppressant. Merci de faire cet effort svp.

Feb 18th
Reply

Thibault de Changy

erreur d'épisode

Nov 24th
Reply

Thibault de Changy

quelle bouffonnerie, ça c'est bien du Green washing puisque les ces carburants détruisent des espaces de culture comme jamais. voir le matos au Mexique etc. Privez nous de ce type d'info intitule svp.

Sep 8th
Reply

Thibault de Changy

vous actualités son certes sympathiques, mais il me semble que vous exprimez un engouement bien excessif à l'égard de simples découvertes dans applications approuvées. Un peu de retenue dans le ton sûr-motivé me semblerait plus judicieux et plus agréable. merci.

Aug 21st
Reply

Berda

Très bon comme d'habitude !!!

Feb 8th
Reply

Thibault de Changy

Merci d'ajouter le lien dans la description svp.

Feb 5th
Reply