DiscoverChoses à Savoir TECH VERTE
Choses à Savoir TECH VERTE
Claim Ownership

Choses à Savoir TECH VERTE

Author: Choses à Savoir

Subscribed: 2,825Played: 165,346
Share

Description

Tout ce qu'il faut savoir dans le domaine de la Green Tech.

Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

1114 Episodes
Reverse
Elles sont perçues comme le Saint Graal de la voiture électrique. Les batteries à électrolyte solide promettent d’effacer les faiblesses des modèles actuels : plus d’autonomie, une sécurité accrue, une durée de vie prolongée. En remplaçant le liquide inflammable par un matériau solide, elles stockent davantage d’énergie sans risque d’incendie et supportent des milliers de cycles de charge. Sur le papier, c’est la révolution attendue de l’électromobilité. Mais dans les faits, le chemin reste semé d’embûches. Car ces batteries, si prometteuses soient-elles, posent encore un casse-tête technologique. Leurs matériaux à base de sulfures, rigides mais fragiles, se fissurent facilement. Ces microfractures bloquent la circulation des ions lithium et font chuter les performances. Leur fabrication, elle, exige une précision quasi chirurgicale, à des coûts prohibitifs. Quant aux composants chimiques nécessaires, ils restent rares et chers. Résultat : impossible, pour l’instant, d’envisager une production de masse.Mais voilà que la Chine, déjà en position dominante sur le marché mondial des batteries, revendique trois percées majeures qui pourraient rebattre les cartes. Selon Pékin, ces innovations permettraient à un pack de 100 kilos d’atteindre 1 000 kilomètres d’autonomie. Première avancée : l’Académie chinoise des sciences a conçu une « colle ionique » à base d’iode. Ces ions, en suivant le champ électrique, attirent le lithium et comblent les fissures microscopiques, améliorant la conductivité interne. Deuxième innovation : l’Institut de recherche sur les métaux a développé un électrolyte polymère ultraflexible, capable d’être plié 20 000 fois sans rupture, tout en augmentant la capacité de stockage de 86 %. Enfin, l’université Tsinghua a mis au point un polyéther fluoré formant une véritable armure autour de l’électrolyte, le protégeant de la chaleur et des chocs.Si ces prototypes passent le cap industriel, la Chine pourrait verrouiller l’avenir des batteries solides, laissant l’Occident à la traîne. Une bataille stratégique, à la croisée de la science, de l’énergie… et de la souveraineté technologique. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Face à l’urgence climatique et à la précarité énergétique, une découverte venue d’Arabie saoudite pourrait bien marquer un tournant. Des chercheurs de l’Université des sciences et technologies du roi Abdallah (KAUST), dirigés par le professeur Peng Wang, ont mis au point une technologie révolutionnaire baptisée Nescod — pour No Electricity and Sustainable Cooling On Demand. Son principe : produire du froid sans la moindre électricité.Le secret réside dans une réaction chimique bien connue, la dissolution endothermique. Lorsqu’un sel, ici le nitrate d’ammonium, se dissout dans l’eau, il absorbe la chaleur ambiante, faisant chuter brutalement la température du liquide. Les chercheurs ont testé plusieurs sels avant d’arrêter leur choix sur celui-ci, dont la solubilité exceptionnelle confère un pouvoir réfrigérant quatre fois supérieur à ses concurrents. Accessible, peu coûteux et déjà utilisé dans les engrais, le nitrate d’ammonium présente aussi l’avantage d’être facile à stocker et à transporter, même dans les zones isolées.Les résultats expérimentaux sont bluffants : dans un simple récipient isolé, la température est passée de 25 à 3,6 °C en vingt minutes, avant de rester sous les 15 °C pendant plus de quinze heures. Une performance qui ouvre la voie à des usages variés : refroidir des habitations rurales, conserver des aliments, protéger des médicaments sensibles à la chaleur ou encore servir en cas de coupure d’électricité.Autre atout majeur : le système se régénère grâce au soleil. Une fois le sel dissous, l’eau s’évapore sous la chaleur solaire, reformant les cristaux de nitrate d’ammonium — prêts à être réutilisés. Le procédé crée ainsi un cycle autonome et durable, particulièrement adapté aux climats chauds et ensoleillés. Dans un monde où la climatisation consomme déjà près de 10 % de l’électricité mondiale et pourrait en mobiliser le double d’ici 2050, Nescod apparaît comme une solution d’avenir : simple, écologique et surtout accessible. Une innovation capable, peut-être, de refroidir la planète sans l’échauffer davantage. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Face à la montée inexorable des océans, l’humanité pourrait bien devoir réapprendre à vivre… sur l’eau. Selon le think tank australien Institute for Economics and Peace, plus d’un milliard de personnes risquent de perdre leur habitation d’ici la fin du siècle, englouties par la dilatation des mers et la fonte des glaces. En tout, ce sont 2 millions de kilomètres carrés – l’équivalent de trois fois la France – qui pourraient disparaître sous les flots. Pour y faire face, une idée autrefois utopique refait surface : les villes flottantes.L’une des plus spectaculaires s’appelle Lilypad. Imaginée par l’architecte belge Vincent Callebaut, cette cité amphibie est conçue pour abriter 50 000 habitants. Totalement autosuffisante, elle combine panneaux solaires, éoliennes et turbines hydrauliques sous-marines pour produire son énergie, tout en s’alimentant grâce à l’aquaculture et à des fermes flottantes. Lilypad serait capable de naviguer lentement sur les courants marins, de l’équateur vers les pôles, au rythme des saisons.Autre projet d’envergure : Oceanix City, soutenu par l’ONU-Habitat, le programme des Nations unies pour les établissements humains. Conçue par le cabinet d’architecture danois BIG, cette cité se compose de plateformes hexagonales modulaires de deux hectares chacune, accueillant des bâtiments de sept étages. Résistante aux ouragans de catégorie 5, autonome en énergie et capable de nourrir jusqu’à 10 000 habitants, Oceanix City incarne une vision très concrète du futur urbain. Le premier prototype est déjà en construction au large de Busan, en Corée du Sud.Ces projets, inspirés à la fois de Jules Verne et des expériences sous-marines de Jacques-Yves Cousteau et Jacques Rougerie, ne relèvent plus de la science-fiction. Alors que les sécheresses, les canicules et les pénuries d’eau rendent déjà certains territoires inhabitables, ces villes océaniques pourraient devenir bien plus qu’un refuge pour les réfugiés climatiques. Elles annoncent peut-être une nouvelle ère de l’urbanisme planétaire — où les cités du futur flotteront, littéralement, entre ciel et mer. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Aux États-Unis, la chasse aux dépenses publiques continue, et cette fois, c’est la science qui trinque. La Maison-Blanche a décidé de réduire drastiquement le budget de la NASA, en ciblant notamment un programme jugé pourtant essentiel : les Orbiting Carbon Observatories. Ces deux instruments, un satellite lancé en 2014 et un capteur installé sur la Station spatiale internationale depuis 2019, mesurent la concentration mondiale de CO₂, son absorption par les océans et les forêts, mais aussi l’activité végétale via la détection de la photosynthèse depuis l’espace.Problème : ces observatoires sont les seules missions spatiales américaines dédiées au dioxyde de carbone. En 2023, une évaluation interne de la NASA les qualifiait même de « scientifiquement cruciales » et de « qualité exceptionnelle ». Leurs données servent aussi bien aux chercheurs qu’au département de l’Agriculture ou aux entreprises énergétiques pour surveiller leurs émissions. Mais rien n’y fait. Selon plusieurs employés, l’administration Trump aurait donné l’ordre de préparer la “phase F”, autrement dit la fin de mission : désorbitation du satellite et arrêt complet de l’instrument embarqué sur l’ISS.Une décision qui fait bondir la communauté scientifique et politique. « Éliminer ces satellites serait catastrophique », s’indigne Zoe Lofgren, députée démocrate, qui dénonce « une vision anti-science illégale » contournant le budget voté par le Congrès. Car la disparition de ces missions briserait une continuité de données unique, accumulée depuis dix ans, cruciale pour suivre l’évolution du climat et affiner les modèles mondiaux. À la NASA, la colère gronde. Certains ingénieurs dénoncent une mise en péril des programmes d’observation de la Terre, d’autres craignent que ces coupes ne menacent à terme la sécurité même des astronautes. Et tous s’accordent sur un point : en sacrifiant la science climatique, les États-Unis risquent aussi de perdre leur leadership mondial dans l’espace. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Et si l’avenir de l’énergie solaire tenait dans une feuille d’or… ou presque ? Des chercheurs du Laboratoire international ibérique de nanotechnologie viennent de présenter une avancée prometteuse : des panneaux solaires ultrafins bien plus légers, moins coûteux à produire et bientôt adaptables à presque toutes les surfaces — véhicules, bâtiments, objets connectés. Problème jusqu’ici : leur rendement limité. Trop minces, ces cellules laissaient échapper une partie de la lumière, réduisant leur efficacité. L’équipe ibérique a trouvé la parade en déposant une fine couche d’or de 25 nanomètres sous la cellule photovoltaïque, formant un « miroir nanostructuré ». Ce dernier renvoie la lumière vers la cellule pour qu’elle soit absorbée une seconde fois. Résultat : une hausse du rendement de 1,5 point de pourcentage, selon l’étude publiée dans la revue Solar RRL.Concrètement, cette structure en forme de T, encapsulée dans de l’oxyde d’aluminium, assure une passivation de l’interface et réduit les pertes d’énergie à l’arrière. Et cerise sur le panneau : la méthode employée, la lithographie par nano-impression en une seule étape, est simple, rapide et peu coûteuse, contrairement aux procédés traditionnels utilisés en nanofabrication. Cette découverte pourrait marquer un tournant. En rendant les panneaux solaires plus fins, flexibles et abordables, les chercheurs ouvrent la voie à une production à grande échelle. Une technologie qui pourrait bien transformer n’importe quelle surface — du toit d’un bus au capot d’une voiture — en générateur d’électricité propre. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Apple passe à la vitesse supérieure sur le front de la transition énergétique. Le géant californien a annoncé un plan d’investissement de plus de 600 millions de dollars, soit un peu plus de 500 millions d’euros, pour verdir la consommation électrique de ses utilisateurs européens. L’objectif : compenser d’ici 2030 l’intégralité de l’électricité utilisée pour charger les appareils Apple sur le Vieux Continent.Six pays sont concernés : l’Italie, l’Espagne, la Grèce, la Pologne, la Roumanie et la Lettonie. Dans chacun, la marque à la pomme finance des parcs solaires et éoliens géants, pour injecter à terme 3 000 gigawattheures d’énergie renouvelable par an dans les réseaux européens. Une manière concrète de réduire son empreinte carbone, tout en renforçant la production locale d’électricité propre. Les premiers résultats sont déjà visibles. En Grèce, une centrale solaire de 110 mégawatts, opérée par HELLENiQ Energy, tourne à plein régime. En Italie, plusieurs projets solaires et éoliens totalisant 129 MW sont en cours, dont le premier site sicilien démarre ce mois-ci. En Espagne, le parc solaire Castaño près de Ségovie, développé par ib vogt, produit déjà ses 131 MW depuis janvier.Dans l’Est du continent, Apple concentre ses efforts sur les régions les plus carbonées. En Pologne, une installation de 40 MW verra le jour fin 2025, tandis qu’en Roumanie, un parc éolien de 99 MW est en construction dans le comté de Galați. En Lettonie, European Energy édifie l’un des plus grands parcs solaires du pays, avec 110 MW de puissance. Au total, ces projets ajouteront 650 MW de capacités vertes au réseau européen. Apple explique que 29 % de ses émissions mondiales proviennent de l’usage même de ses produits : autrement dit, de chaque recharge d’iPhone ou de Mac. « D’ici 2030, nous voulons que nos utilisateurs sachent que l’énergie qu’ils consomment est intégralement compensée par de l’électricité propre », promet Lisa Jackson, vice-présidente en charge de l’environnement. Avec 19 gigawatts de renouvelable déjà produits dans le monde, Apple veut désormais s’attaquer aux régions les plus dépendantes du charbon. Un pari ambitieux, mais peut-être le plus cohérent de sa stratégie carbone : faire rimer high-tech et énergie propre. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Et si la lutte contre le réchauffement climatique se jouait… depuis l’espace ? Grâce à son instrument Orbiting Carbon Observatory-3, ou OCO-3, installé à bord de la Station spatiale internationale, la Nasa peut désormais mesurer les émissions de dioxyde de carbone (CO₂) des grandes métropoles du globe avec une précision inédite. Le dioxyde de carbone, principal gaz à effet de serre, provient à 75 % des activités humaines, selon l’agence américaine. Et les grandes villes, véritables poumons économiques, sont aussi les plus gros émetteurs. La plupart se sont engagées à atteindre la neutralité carbone d’ici 2050, mais encore faut-il savoir précisément combien elles rejettent dans l’atmosphère. Or, les bilans réalisés au sol restent souvent approximatifs, voire biaisés.C’est là qu’intervient OCO-3. En utilisant un système de miroirs orientables, il mesure les concentrations de CO₂ lorsque la Station spatiale survole une zone urbaine donnée. Une équipe de chercheurs américains a ainsi pu observer 54 villes dans le monde et comparer les résultats spatiaux avec les estimations locales. Verdict : une marge d’erreur de seulement 7 %, ce qui confirme la fiabilité du dispositif. Mais les résultats réservent quelques surprises. Les mégalopoles asiatiques, souvent pointées du doigt, émettent en réalité moins que ce que les modèles terrestres prévoyaient. À l’inverse, l’Afrique, l’Océanie, l’Europe et les Amériques ont plutôt sous-évalué leurs émissions.Autre enseignement : la richesse d’une ville influe directement sur son empreinte carbone. Les métropoles les plus développées produisent davantage de richesse par kilo de CO₂ émis. Exemple : 0,1 kg de CO₂ par dollar de PIB pour les villes nord-américaines, contre 0,5 kg pour les villes africaines. Et plus surprenant encore : plus une ville est grande, moins ses habitants polluent individuellement. Dans les mégapoles de plus de 20 millions d’habitants, chaque citoyen émet en moyenne 1,8 tonne de CO₂ par an, contre 7,7 tonnes dans les villes plus petites. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Le compte à rebours est lancé : le 1er novembre, le système des heures pleines - heures creuses, pilier du modèle énergétique français depuis les années 60, va entamer sa mue. Une réforme d’ampleur, pilotée par la Commission de régulation de l’énergie, qui vise à adapter nos habitudes de consommation à l’essor du solaire. Objectif : profiter des surplus d’électricité verte produits en journée, plutôt que la nuit.Historiquement, ce dispositif est né avec l’ère du tout-nucléaire. À l’époque, les centrales tournaient jour et nuit, produisant la même quantité d’électricité, qu’on en ait besoin ou non. Pour lisser la demande, l’État avait instauré huit heures à tarif réduit, la nuit. Résultat : on lançait sa machine à laver à 23h, on faisait chauffer l’eau pendant le sommeil, et tout le monde y gagnait. Mais depuis quelques années, le paysage énergétique a basculé. Les toitures photovoltaïques se sont multipliées, et le réseau déborde d’électricité en milieu de journée. Désormais, entre 11h et 16h, c’est le plein soleil… et le plein d’énergie. D’où la refonte : les heures creuses glissent peu à peu vers l’après-midi.Concrètement, 1,7 million de foyers verront leurs plages horaires modifiées d’ici juin 2026, puis 9,3 millions supplémentaires entre fin 2026 et 2027. Le principe reste huit heures à tarif réduit par jour, mais avec au moins cinq heures consécutives la nuit et jusqu’à trois heures entre 11h et 17h. Les périodes de forte demande – 7h-11h et 17h-23h – sortent définitivement du dispositif. Les compteurs Linky seront reprogrammés à distance, et les chauffe-eaux automatiques suivront le mouvement. Seule précaution : si vous rechargez une voiture électrique, vos plages nocturnes pourraient devenir trop courtes. Cette transition s’étalera jusqu’en 2027, avec un système saisonnier l’été et l’hiver. Une révolution silencieuse, mais symbolique : l’électricité française se met enfin à l’heure du soleil. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Les chiffres sont sans appel. Selon l’Agence européenne pour l’environnement, plus de 60 % des espèces et 80 % des habitats naturels du continent sont déjà dégradés. L’eau devient plus rare, les sols s’appauvrissent, et le réchauffement climatique – deux fois plus rapide en Europe que dans le reste du monde – accentue cette vulnérabilité. En 2022, plus de 70 000 décès ont été liés aux vagues de chaleur, tandis que les inondations, de plus en plus fréquentes, menacent directement 12 % de la population européenne, ainsi que 15 % des sites industriels.Entre 1980 et 2023, les phénomènes météorologiques extrêmes ont coûté 738 milliards d’euros à l’économie européenne. Rien que sur les trois dernières années, 162 milliards se sont envolés en pertes, souvent non couvertes par les assurances. Pourtant, le continent n’est pas resté immobile. Depuis 1990, les émissions de CO₂ ont baissé de 37 %, et le Pacte vert vise désormais –55 % d’ici 2030. L’électricité se décarbone, les renouvelables progressent – elles comptent désormais pour un quart de la consommation –, et les émissions du secteur énergétique ont été divisées par deux. Mais le tableau n’est pas tout rose. Les transports et l’agriculture stagnent, avec des réductions d’émissions limitées à 6 et 7 %. Les mobilisations agricoles récentes ont même conduit Bruxelles à assouplir plusieurs mesures environnementales, pendant que les dirigeants évitent soigneusement de rallumer la colère des automobilistes.Surtout, la conjoncture politique détourne l’attention : guerre en Ukraine, tensions économiques, montée des extrêmes droites, autant de priorités qui relèguent le climat au second plan. Plusieurs piliers du Pacte vert sont déjà fragilisés – report de la loi contre la déforestation, recul sur la fin du moteur thermique en 2035, affaiblissement du devoir de vigilance des entreprises. À l’approche de la COP30, l’Union européenne n’a toujours pas fixé de cap clair pour 2040. Ursula von der Leyen assure vouloir “maintenir le cap”, mais l’AEE prévient : sans sursaut politique, la crise écologique deviendra aussi économique et sociale. La question, désormais, n’est plus de savoir si l’Europe paiera le prix de son inaction, mais quand. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
C’est l’un des grands débats de notre époque : peut-on vraiment refroidir la Terre artificiellement sans tout bouleverser ? Une nouvelle étude de l’université de Californie, publiée dans la revue Earth’s Future, apporte des éléments de réponse… et ils sont plutôt inquiétants.Deux techniques de géo-ingénierie solaire sont au cœur des discussions : l’injection d’aérosols stratosphériques – qui imite les effets d’une éruption volcanique en projetant du dioxyde de soufre dans l’atmosphère pour réfléchir la lumière du soleil – et l’éclaircissement des nuages marins, qui consiste à pulvériser du sel pour épaissir les nuages bas, augmentant ainsi leur pouvoir de réflexion. L’objectif ? Réduire la température moyenne de la planète en limitant la quantité de rayonnement solaire absorbée. Mais selon les chercheurs californiens, ces méthodes ne sont pas sans danger. En simulant sur ordinateur leur impact sur le climat mondial, ils ont découvert qu’elles pourraient perturber le cycle naturel El Niño – La Niña, l’un des régulateurs essentiels du climat global. Ce cycle, qui alterne entre des périodes d’eaux chaudes et froides dans le Pacifique, influence la météo sur toute la planète : pluies en Asie, sécheresses en Afrique, ouragans dans l’Atlantique…Les simulations montrent que l’éclaircissement des nuages au-dessus du Pacifique réduirait la variabilité naturelle du phénomène de 61 %. Autrement dit, la météo mondiale perdrait une partie de son équilibre naturel. En pratique, certaines régions deviendraient plus sèches et plus ventées, d’autres plus humides ou plus froides. Résultat : un système globalement déstabilisé, qui avantagerait certaines zones géographiques au détriment d’autres. Les chercheurs alertent également sur un autre effet collatéral : en bloquant une partie de la lumière du soleil, ces techniques réduiraient la photosynthèse, menaçant les forêts, les cultures et la vie marine. En résumé, si la géo-ingénierie promet un frein au réchauffement, elle pourrait aussi dérégler les cycles naturels qui font tourner la planète. Un rappel brutal que manipuler le climat… revient peut-être à jouer aux apprentis sorciers. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Bonne nouvelle, du moins en apparence : le leasing social automobile fait son grand retour à la fin du mois de septembre. Ce dispositif, réservé aux ménages modestes, permet de louer une voiture électrique à prix réduit. Et cette fois, une prime supplémentaire de 1 000 euros s’ajoute au bonus écologique, déjà compris entre 3 100 et 4 200 euros selon les revenus. De quoi séduire de nouveaux automobilistes… sauf qu’en coulisses, le mode de financement change radicalement.Jusqu’ici, ces aides étaient directement financées par l’État. Désormais, ce sont les fournisseurs d’énergie et de carburant qui mettront la main à la poche, via le mécanisme des certificats d’économie d’énergie, ou CEE. En clair : les distributeurs d’électricité, de gaz et de carburant doivent financer ces primes, et — vous l’aurez deviné — ils répercuteront ces coûts sur nos factures. Selon 60 Millions de consommateurs, cette bascule budgétaire n’est pas anodine. Les CEE, initialement créés pour pousser les entreprises à promouvoir les économies d’énergie, deviennent peu à peu le guichet universel du financement vert. Les primes des constructeurs automobiles, MaPrimeRénov’, ou encore les « coups de pouce travaux » s’appuient désormais sur ce même dispositif. Le ministère du Logement l’a d’ailleurs confirmé : la part des CEE dans le financement des rénovations énergétiques va encore augmenter.Mais cette stratégie a un coût. En 2023, la Cour des comptes estimait que le système des certificats d’économie d’énergie coûtait déjà 164 euros par an et par ménage. Et ce n’est pas tout : ces dispositifs massifs attirent la fraude, que la Cour juge « considérable ». Résultat, l’efficacité énergétique promise s’en trouve affaiblie. En résumé, le leasing social redémarre, les aides continuent, mais le financement glisse discrètement de l’État vers le consommateur, via sa facture d’énergie. Un choix habile sur le papier pour équilibrer les comptes publics, mais qui risque bien de se ressentir, lui, à la pompe comme à la prise Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Depuis l’essor de l’IA générative, un spectre hante les débats : celui d’une crise énergétique provoquée par les chatbots et les modèles de langage. Certains titres évoquent même une consommation équivalente à des milliers de vols transatlantiques. Mais derrière ces comparaisons spectaculaires, la réalité apparaît bien plus nuancée.Le problème, c’est que la plupart des projections reposent sur des données brutes et souvent spéculatives. Les opérateurs électriques fondent leurs estimations sur les demandes de raccordement des futurs centres de données — or, ces demandes sont parfois gonflées par ce que les spécialistes appellent des projets fantômes. En clair : plusieurs dépôts pour un même site, ou des projets qui ne verront jamais le jour. Résultat, une demande théorique largement surestimée. Ajoutons à cela les contraintes bien concrètes du monde réel : manque de transformateurs, pénurie de semi-conducteurs, délais de construction qui s’étirent sur plusieurs années… Ces obstacles ralentissent naturellement le rythme auquel l’infrastructure de l’IA peut se déployer.Alors, faut-il vraiment craindre la panne générale ? Pas vraiment, selon les estimations de l’Agence Internationale de l’Énergie. Oui, la consommation des centres de données devrait doubler d’ici 2030, mais elle ne représentera qu’une fraction de la hausse globale de la demande électrique, également tirée par l’industrie et la mobilité électrique. Et tout n’est pas à charge pour l’IA : les progrès en efficacité énergétique se multiplient. Sur le plan logiciel, des technologies comme le Mixture of Experts (MoE), la quantisation ou la distillation, popularisée par DeepSeek, réduisent déjà la consommation des modèles. En France, Mistral AI s’est d’ailleurs imposée comme une référence en matière d’efficience.Le vrai défi réside désormais dans la densité énergétique des GPU, ces processeurs surpuissants qui font tourner les modèles. Pour y faire face, des géants comme Google et Microsoft investissent dans des énergies alternatives, y compris le nucléaire. Bref, l’IA fera grimper la facture énergétique, mais pas jusqu’à l’apocalypse annoncée. Le futur du numérique dépendra avant tout de notre capacité à planifier et optimiser intelligemment nos réseaux — pas seulement de produire toujours plus d’électricité. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
C’est une annonce qui souffle un vent d’optimisme sur la transition énergétique française. Le mercredi 24 septembre, TotalEnergies a décroché le plus grand projet d’éolien offshore jamais attribué dans l’Hexagone. Le groupe a été désigné lauréat d’un appel d’offres historique lancé par l’État pour un parc en mer d’une capacité colossale de 1,5 gigawatt — l’équivalent d’un réacteur nucléaire moderne.Ce géant des mers prendra place au large de la Normandie, à plus de 40 kilomètres des côtes. Baptisé Centre Manche 2, le futur parc profitera de vents réguliers et puissants, idéaux pour une production continue d’électricité verte. À pleine puissance, il devrait générer 6 térawattheures par an, soit plus que la consommation annuelle de Lyon et Marseille réunies. En clair, plus d’un million de foyers français verront leurs ampoules et leurs radiateurs fonctionner grâce à ce seul projet. Le tarif négocié de 66 euros le mégawatt-heure place cette énergie renouvelable dans une zone de compétitivité directe avec les sources conventionnelles. Mais un chantier d’une telle ampleur prend du temps : les études techniques s’achèveront en 2029, pour une mise en service prévue en 2033, en coordination avec RTE, le gestionnaire du réseau électrique national.Avec 4,5 milliards d’euros d’investissement, TotalEnergies signe là son plus gros projet en France depuis trente ans. Le groupe, historiquement pétrolier, confirme ainsi sa mue vers les renouvelables. L’impact local s’annonce considérable : 2 500 emplois mobilisés pendant trois ans, dont une partie dédiée à la formation de la main-d’œuvre normande, grâce à 500 000 heures de formation promises aux apprentis et personnes en reconversion. Enfin, pour répondre aux enjeux écologiques, TotalEnergies consacre 60 millions d’euros à la protection de la biodiversité marine et aux compensations environnementales. Entre ambitions industrielles et responsabilité écologique, ce chantier marque une étape décisive : la France s’offre enfin un champion de l’éolien en mer capable de rivaliser avec les grands parcs du Nord de l’Europe. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Et si la solution à la surchauffe des data centers se trouvait… à l’intérieur même des puces ? C’est le pari audacieux de Microsoft, qui vient de dévoiler une technologie de refroidissement révolutionnaire : la microfluidique intégrée au silicium. Une innovation qui pourrait bien transformer la façon dont sont conçus les processeurs de demain.Le principe est aussi simple qu’ingénieux. Plutôt que de poser des plaques froides à la surface d’un GPU ou d’un CPU — la méthode actuelle —, Microsoft propose de faire circuler un liquide de refroidissement directement dans la puce, au plus près des zones de chaleur. Concrètement, de minuscules canaux sont gravés à l’arrière du silicium, à la manière des nervures d’une feuille. Ce réseau microfluidique guide le liquide exactement là où il faut, pour évacuer la chaleur trois fois plus efficacement que les systèmes actuels. Sur son blog, la firme explique : « Les dernières avancées en matière d’IA génèrent beaucoup plus de chaleur que les générations précédentes de puces. Nous avons testé avec succès un système capable d’éliminer la chaleur jusqu’à trois fois mieux que les plaques froides utilisées aujourd’hui. » Mais la prouesse ne s’arrête pas là. L’intelligence artificielle vient elle-même optimiser le dispositif : elle analyse en temps réel la signature thermique unique de chaque puce, et oriente le flux de liquide vers les points les plus chauds. Une technologie que Microsoft décrit comme « inspirée par la nature, personnalisée par l’IA ».L’enjeu est colossal. En améliorant le refroidissement, cette approche pourrait réduire la taille des serveurs, prolonger la durée de vie des composants et surtout diminuer la consommation énergétique des data centers, dont une large part est aujourd’hui dédiée à la climatisation. Microsoft affirme que sa solution peut faire chuter la température des puces de 65 % selon les charges de travail. Reste une question : quand cette technologie, aussi prometteuse que délicate à manipuler, sera-t-elle déployée à grande échelle ? Si elle tient ses promesses, c’est peut-être un nouveau standard du refroidissement qui vient de naître — au cœur même du silicium. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Autrefois, un rack de serveurs, c’était un simple meuble technique : quelques machines bien rangées, quelques kilowatts à fournir, et le tour était joué. Mais l’arrivée de l’intelligence artificielle a tout bouleversé. Aujourd’hui, les “racks IA” consomment vingt à trente fois plus d’énergie qu’un rack classique. Selon Lennox Data Centre Solutions, certains atteignent désormais jusqu’à un mégawatt par rack, soit l’équivalent d’une petite centrale électrique.Cette explosion de puissance change tout : la chaleur dégagée devient un enjeu central, tout comme la stabilité électrique. Les centres de données passent progressivement au courant continu haute tension (+/-400 volts) pour limiter les pertes et réduire la taille des câbles. Chaque watt compte, et chaque choix technique influe directement sur la performance. Comme l’explique Ted Pulfer, directeur chez Lennox, « le refroidissement, autrefois secondaire, est désormais au cœur du métier. Les charges de travail liées à l’IA imposent des approches inédites, comme le refroidissement liquide ».Concrètement, les data centers font circuler du liquide dans des plaques froides fixées aux composants les plus sollicités. Microsoft, de son côté, expérimente la microfluidique : de minuscules canaux gravés directement dans le dos des puces laissent passer le liquide au plus près du silicium. Résultat : une dissipation thermique jusqu’à trois fois plus efficace et une température réduite de 65 % sur les GPU selon la charge. L’IA elle-même vient prêter main forte en identifiant, en temps réel, les zones les plus chaudes pour adapter le flux de refroidissement. Cette course à la puissance crée aussi des opportunités pour les acteurs plus agiles, capables de proposer des solutions innovantes là où les géants peinent à suivre la demande. Alors oui, ces infrastructures avalent des mégawatts, mais pas de panique : malgré l’appétit grandissant de l’IA, on reste encore loin d’une crise énergétique. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Et si la fusion nucléaire devenait enfin une réalité industrielle ? C’est la promesse de First Light Fusion, une société britannique qui pourrait bien être la première à rendre cette énergie propre et quasi illimitée commercialement viable. Son concept, baptisé FLARE — pour Fusion via Low-power Assembly and Rapid Excitation —, repose sur une idée simple mais révolutionnaire : séparer la compression et l’allumage du combustible.Cette méthode pourrait atteindre un gain énergétique de 1 000, soit 250 fois le record actuel détenu par le National Ignition Facility américain, qui plafonne à 4. Le gain énergétique, c’est le rapport entre l’énergie produite et celle injectée. Autrement dit, si FLARE tient ses promesses, la fusion pourrait enfin produire de l’électricité à un coût inférieur aux centrales actuelles, et avec une efficacité sans précédent. Concrètement, le procédé de First Light consiste à comprimer le combustible de manière contrôlée, avant de déclencher son allumage par une impulsion rapide et précise. Cette approche requiert beaucoup moins d’énergie que les systèmes de fusion classiques et divise les coûts d’expérimentation par vingt. Là où le NIF américain a coûté 5,3 milliards de dollars, une installation FLARE pourrait être construite pour 100 à 200 millions.Pour le PDG Mark Thomas, « un gain de 1 000 % nous place bien au-delà du seuil où la fusion devient économiquement transformatrice ». Un constat partagé par Jeremy Chittenden, physicien à l’Imperial College de Londres, qui salue une approche fondée sur des technologies « éprouvées et économiquement crédibles ». Si tout se déroule comme prévu, la démonstration commerciale de FLARE pourrait voir le jour d’ici le milieu des années 2030. À terme, une seule installation serait capable d’alimenter une ville comme Coventry — environ 345 000 habitants — ou de fournir l’électricité nécessaire aux centres de données d’IA, gourmands en énergie. Avec ce projet, le Royaume-Uni espère bien se placer à la pointe mondiale d’une course évaluée à 1 000 milliards de dollars par an d’ici 2050. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Si l’avenir de la mobilité passe par la voiture électrique, encore faut-il pouvoir la recharger facilement. En France, on se félicite d’un réseau qui atteint désormais 2,5 millions de bornes, publiques et privées confondues. Mais à plus de 9 000 kilomètres de là, la Californie vient de placer la barre bien plus haut.D’après les derniers chiffres de la California Energy Commission, l’État doré compte 201 180 bornes publiques ou partagées. Oui, vous avez bien entendu : 68 % de plus que le nombre de pompes à essence. Et ce n’est que la partie visible de l’iceberg, puisque près de 800 000 chargeurs résidentiels sont également installés dans les foyers californiens. Résultat : selon le gouverneur Gavin Newsom, 94 % des habitants vivent à moins de dix minutes d’une borne de recharge. Un record mondial qui illustre l’avance prise par la Californie, pionnière dans l’adoption du véhicule électrique. Il faut dire que la région concentre à la fois les constructeurs, les start-up et les politiques environnementales les plus ambitieuses des États-Unis.Mais pas question pour les autorités locales de s’arrêter en si bon chemin. « Notre objectif est de faire du véhicule électrique un choix évident pour tous les Californiens », explique Nancy Skinner, commissaire à la CEC. « Ces voitures sont agréables à conduire, ne nécessitent pas de vidange, ne polluent pas et leur recharge devient de plus en plus simple grâce aux infrastructures publiques. » En clair, la Californie n’a pas seulement construit un réseau : elle a créé un écosystème complet qui rend la voiture électrique aussi pratique que le plein d’essence. Un modèle que beaucoup de pays — la France comprise — pourraient bien regarder de près dans les années à venir. Parce que l’avenir de la route, là-bas, se branche déjà sur secteur. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Alors que les géants de la tech construisent à la chaîne des data centers toujours plus voraces, une startup américaine, Vaire Computing, vient peut-être de changer la donne. Son processeur expérimental baptisé « Ice River » a prouvé qu’il était possible… de recycler une partie de l’énergie utilisée pour calculer.Pour comprendre l’exploit, il faut d’abord rappeler le principe : dans une puce classique, chaque opération est un choc, comme un coup de marteau. À chaque calcul, un transistor commute et dissipe son énergie sous forme de chaleur — perdue à jamais. Ice River, lui, adopte le principe du pendule : l’énergie oscille et revient partiellement dans le cycle suivant. Résultat : près de 30 % de l’énergie récupérée lors des tests. Pour y parvenir, les ingénieurs de Vaire Computing ont combiné deux techniques rarement exploitées dans le silicium moderne. D’abord le calcul adiabatique, qui ajuste la tension progressivement pour éviter les pertes d’énergie brutales. Ensuite la logique réversible, un concept presque philosophique : « dé-calculer » une opération pour revenir à l’état initial, sans effacer l’information, donc sans gaspillage.Une approche prometteuse, mais encore lente. Ce type de calcul repose sur des variations de tension douces — idéales pour l’efficacité énergétique, moins pour la vitesse. Dans un secteur obsédé par la performance brute, la lenteur reste le talon d’Achille. Et si la démonstration a été menée sur une technologie de gravure éprouvée, en 22 nanomètres, il faudra encore des années pour l’intégrer à grande échelle dans les infrastructures d’IA. Mais l’idée fait son chemin. À l’heure où les serveurs d’intelligence artificielle consomment autant qu’un petit pays, Ice River montre que la sobriété peut venir du cœur même du silicium. Elle s’inscrit dans une tendance plus large, où des fondeurs comme TSMC utilisent déjà l’IA pour optimiser leurs propres circuits.En clair, cette innovation ne sauvera pas à elle seule la planète — mais elle rappelle qu’il existe encore de la marge de progrès. Et qu’entre la surchauffe énergétique et la quête de puissance infinie, la prochaine révolution pourrait bien être… un simple retour d’énergie. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Rendre visible ce que nos poumons subissent chaque jour… C’est l’ambition de la carte interactive de Climate TRACE. L’outil, déjà connu pour localiser les sites industriels les plus polluants, franchit une étape décisive : il montre désormais les panaches de particules fines – les fameux PM2,5 – que ces installations rejettent dans l’air que nous respirons.La plateforme ne couvre pas tout : seules apparaissent les centrales électriques, l’industrie lourde, les ports, les raffineries et les mines. Mais cela représente tout de même 9 560 sites répartis dans 2 572 zones urbaines. Gavin McCormick, cofondateur de Climate TRACE et directeur exécutif de l’ONG WattTime, confie avoir découvert qu’il vivait lui-même dans le panache d’un super-émetteur dont il ignorait l’existence. Et il n’est pas seul : selon les concepteurs, plus d’1,6 milliard de citadins sont exposés à un air contaminé par ces rejets.Derrière la carte, le message est clair : la pollution atmosphérique et la crise climatique ont la même racine, la combustion des énergies fossiles. « Les particules générées par ces installations retombent sur les quartiers voisins et provoquent 8,7 millions de morts chaque année », rappelle Al Gore, cofondateur du projet et ancien vice-président des États-Unis. L’analyse identifie aussi les « super-émetteurs », ces 10 % d’installations qui produisent la majorité des particules fines. Plus de 900 millions de personnes respirent un air directement contaminé par ces géants pollueurs.La carte révèle enfin les dix zones urbaines les plus exposées : Karachi arrive en tête, suivie de Guangzhou, Séoul, New York, Dhaka, Le Caire, Shanghai, Bangkok, Shenzhen et Tokyo. Autant de mégapoles où des millions d’habitants vivent au quotidien dans des nuages invisibles mais mortels. Pour illustrer ces données, les chercheurs citent « l’Allée du Cancer » en Louisiane. Dans ce couloir industriel, le taux de cancers atteint jusqu’à 50 fois la moyenne nationale. Si la région était un pays, elle figurerait parmi les pires émetteurs mondiaux de gaz à effet de serre. « Beaucoup savaient déjà qu’ils vivaient dans l’ombre des grands pollueurs », résume Gavin McCormick. Aujourd’hui, les preuves sont là, visibles par tous. Reste désormais à agir, insiste Al Gore, pour que ces nuages invisibles cessent d’étouffer les villes du monde. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Le réchauffement climatique révèle un danger que l’on n’avait pas vu venir. Derrière la fonte spectaculaire des glaciers, ce ne sont pas seulement des paysages qui disparaissent, mais aussi des substances toxiques qui se libèrent dans notre environnement. Une équipe de l’université de Milan et de la Fondation One Ocean a analysé seize glaciers italiens. Le constat est alarmant : en fondant, ces géants de glace relâchent dans l’air, les sols et les cours d’eau des polluants et des métaux lourds accumulés depuis des décennies. L’étude, publiée dans la revue Archives of Environmental Contamination and Toxicology et relayée par La Repubblica, tire une sonnette d’alarme sanitaire.Dans les échantillons, les chercheurs ont identifié des polluants organiques persistants comme des insecticides, des fongicides ou encore des isolants électriques. À cela s’ajoutent des métaux lourds tels que le plomb et le cadmium, mais aussi certaines substances naturelles qui, en forte concentration, deviennent problématiques. Tous ces polluants sont issus de nos propres activités humaines, piégés dans la glace pendant des décennies et aujourd’hui libérés par la fonte accélérée.Les conséquences pourraient être considérables. Ces substances contaminent les sols, les cultures et finissent par rejoindre nos mers. « Ce qui se passe au sommet des montagnes a des répercussions directes sur les écosystèmes des vallées et des mers », rappelle Jan Pachner, secrétaire général de la Fondation One Ocean. Certains glaciers inquiètent particulièrement les scientifiques. L’Ebenferner, par exemple, présente déjà des niveaux très élevés de métaux toxiques. « Cette approche nous permet de comprendre comment les contaminants sont transportés, accumulés et relâchés dans les écosystèmes », souligne Marco Paolini, auteur principal de l’étude. Face à cette menace invisible, les chercheurs appellent à développer rapidement des solutions : traitements pour dépolluer l’eau, systèmes de filtrage en amont et stratégies pour limiter la dispersion des substances toxiques. Car au-delà de la fonte des glaces, c’est un héritage chimique enfoui depuis des décennies qui refait surface et menace directement notre santé. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
loading
Comments (7)

Thibault de Changy

bonjour, vos podcasts semblent tous saturés !!!

Jun 29th
Reply

Thibault de Changy

est il possible de se passer des cette phrase aussi systématique qu'intitule : "c'est ce que je vous propose de ville dans cet épisode" ?! ça me tapé sur les nerfs, surtout quand on en écoute plusieurs d'affilée. tant qu'à février ce qui ne va pas, je trouverais plus agréable de ne pas crier dans le micro et exprimer les faits comme s'ils allaient tous changer le monde. c'est plutôt oppressant. Merci de faire cet effort svp.

Feb 18th
Reply

Thibault de Changy

erreur d'épisode

Nov 24th
Reply

Thibault de Changy

quelle bouffonnerie, ça c'est bien du Green washing puisque les ces carburants détruisent des espaces de culture comme jamais. voir le matos au Mexique etc. Privez nous de ce type d'info intitule svp.

Sep 8th
Reply

Thibault de Changy

vous actualités son certes sympathiques, mais il me semble que vous exprimez un engouement bien excessif à l'égard de simples découvertes dans applications approuvées. Un peu de retenue dans le ton sûr-motivé me semblerait plus judicieux et plus agréable. merci.

Aug 21st
Reply

Berda

Très bon comme d'habitude !!!

Feb 8th
Reply

Thibault de Changy

Merci d'ajouter le lien dans la description svp.

Feb 5th
Reply