DiscoverChoses à Savoir TECH VERTE
Choses à Savoir TECH VERTE
Claim Ownership

Choses à Savoir TECH VERTE

Author: Choses à Savoir

Subscribed: 2,850Played: 171,551
Share

Description

Tout ce qu'il faut savoir dans le domaine de la Green Tech.

Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

1231 Episodes
Reverse
Source : SDESLe rapport des Français à l’environnement évolue, mais reste marqué par une inquiétude persistante. C’est ce que révèle la dernière enquête du Service des données et études statistiques, publiée fin mars. Si les priorités changent légèrement, le changement climatique demeure en tête des préoccupations en 2025, malgré un recul notable de 15 points depuis 2022.Derrière lui, d’autres enjeux progressent. Les catastrophes naturelles gagnent du terrain, tout comme la pollution de l’eau, qui atteint son niveau le plus élevé depuis plus d’une décennie. Une tendance qui traduit une sensibilité accrue aux impacts concrets de la dégradation environnementale. Car au quotidien, les préoccupations des Français sont souvent plus immédiates. La pollution de l’air et les nuisances sonores arrivent en tête des désagréments, avec des différences marquées entre zones urbaines et rurales. Le manque de transports est également pointé du doigt. À l’inverse, les risques technologiques, comme les accidents industriels, restent peu cités.Autre enseignement : une part importante de la population ne se sent pas directement concernée. Un quart des Français déclare ne subir aucune nuisance près de chez lui. Et en 2025, 25 % des personnes interrogées estiment ne pas être exposées à des risques naturels, en hausse par rapport à 2023. Les vagues de chaleur restent toutefois la principale inquiétude liée au climat, notamment après plusieurs épisodes de canicule. Mais paradoxalement, le sentiment d’exposition aux événements extrêmes recule légèrement. Même tendance pour la perception de la nature : 45 % des Français estiment qu’elle s’est dégradée près de chez eux, un chiffre en baisse, mais seuls 8 % jugent qu’elle s’améliore.Face à ces enjeux, les attentes se tournent d’abord vers les pouvoirs publics. Environ un Français sur deux considère que l’État doit agir en priorité. Les entreprises sont également mises à contribution, mais les ménages se sentent moins concernés. Dans le détail, la lutte contre le changement climatique reste centrale, mais la pollution de l’eau devient désormais la principale attente. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Source : SDESC’est un signal encourageant pour la transition énergétique française. Selon les dernières données du Service des statistiques du ministère de la Transition écologique, les émissions de CO₂ liées à la consommation d’énergie ont reculé de 27 % entre 1990 et 2023 en France métropolitaine. Un résultat d’autant plus notable que, sur la même période, la population a augmenté de 17 % et l’activité économique, mesurée par le produit intérieur brut, a progressé de 40 %. Autrement dit, la France parvient progressivement à dissocier croissance et émissions.L’année 2024 confirme cette tendance. Les émissions liées à la combustion d’énergie ont encore diminué, de 2,3 %. Cette baisse concerne l’ensemble des secteurs, avec un rôle particulièrement important du système énergétique. Car l’un des piliers de cette trajectoire reste le mix énergétique français, largement dominé par le nucléaire. En 2024, la production d’énergie a bondi de près de 10 %, notamment grâce à la reprise des centrales nucléaires et à de bonnes conditions pour l’hydroélectricité, c’est-à-dire la production d’électricité à partir de l’eau, via des barrages ou des cours d’eau. Conséquence directe : le recours au gaz pour produire de l’électricité et de la chaleur a chuté de 32 % en un an. Moins de gaz, c’est moins d’émissions. Dans le même temps, la France a réduit sa dépendance énergétique extérieure.Les énergies renouvelables progressent également. L’éolien et le solaire continuent de se développer, et représentent désormais près de 16 % de la consommation primaire d’énergie. Sur le long terme, la part du pétrole a fortement reculé, passant de 50 % en 1990 à 38 % aujourd’hui, tandis que les renouvelables ont presque doublé. Mais tout n’est pas uniforme. Si l’industrie consomme un peu moins d’énergie, les secteurs résidentiel et tertiaire, autrement dit les logements et les services, sont en hausse. Et pour les ménages, la transition a un coût. Même si les prix de l’énergie ont légèrement baissé en 2024, ils restent bien supérieurs à leur niveau d’avant-crise. La fin progressive des aides publiques et la hausse de certaines taxes pèsent sur le pouvoir d’achat. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Le projet Cigéo, destiné à stocker les déchets nucléaires les plus dangereux en France, voit son coût nettement réévalué. Selon un arrêté publié au Journal officiel, l’enveloppe globale atteint désormais 33,36 milliards d’euros. Une hausse significative par rapport aux 25 milliards estimés en 2016. Cette nouvelle estimation repose sur les conditions économiques de janvier 2025. Elle reste toutefois dans la fourchette avancée récemment par l’Agence nationale pour la gestion des déchets radioactifs (Andra) qui pilote le projet. Celle-ci situait le coût total entre 26,1 et 37,5 milliards d’euros.Mais que couvre exactement cette somme ? Elle inclut l’ensemble du cycle de vie du site : la conception, la construction, l’exploitation… et même la fermeture. Un projet qui s’inscrit sur le très long terme, puisqu’il s’étend sur 151 ans à partir de 2016. Dans le détail, la phase de construction initiale est estimée à 9,74 milliards d’euros, tandis que la fiscalité associée représente environ 3,66 milliards. Cigéo, pour « centre industriel de stockage géologique », prévoit d’enfouir, à environ 500 mètres sous terre, les déchets nucléaires les plus radioactifs. On parle ici de déchets dits « de haute activité », mais aussi de « moyenne activité à vie longue ». Des catégories techniques qui désignent des substances à la fois très radioactives et dont la dangerosité persiste sur des milliers, voire des centaines de milliers d’années.Au total, ce sont environ 83 000 mètres cubes de déchets qui seraient stockés dans ce site souterrain. Le financement repose sur le principe du « pollueur-payeur ». Concrètement, ce sont les acteurs du nucléaire, EDF, Orano et le Commissariat à l’énergie atomique, qui doivent provisionner les sommes nécessaires pour couvrir ces coûts sur le long terme. Ce projet reste toutefois très controversé. Des associations locales et des organisations antinucléaires dénoncent depuis longtemps les incertitudes techniques et financières. Déjà en 2016, certains estimaient que le coût avait été sous-évalué. Aujourd’hui, cette nouvelle estimation doit servir de référence pour les industriels. Mais le projet n’est pas encore autorisé : l’Andra a déposé sa demande en 2023, et une décision n’est pas attendue avant 2027 ou 2028. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
La réduction des émissions de gaz à effet de serre est aujourd’hui un enjeu mondial. Et selon le Global Carbon Project, les émissions de CO₂ ont déjà retrouvé, dès 2021, leur niveau d’avant la crise du Covid-19. Dans ce contexte, chaque effort compte, y compris dans des domaines auxquels on pense moins, comme la recherche scientifique. C’est précisément ce qu’a voulu mesurer une équipe de l’Institut de Recherche en Astrophysique et Planétologie, à Toulouse. Dirigés par le chercheur Jürgen Knödlseder, ces scientifiques ont étudié l’empreinte carbone de leur propre discipline : l’astronomie. Leurs résultats ont été publiés en mars 2022 dans la revue Nature Astronomy.Premier constat : l’astronomie émet une quantité significative de CO₂. Et cette empreinte pourrait même être en hausse. Pour y parvenir, les chercheurs ont d’abord tenté d’évaluer les émissions de leur institut. Mais ils ont rapidement élargi leur analyse. Car dans ce domaine, les infrastructures sont dispersées à l’échelle mondiale : télescopes, observatoires, missions spatiales… Autant d’équipements énergivores. Au total, l’étude a porté sur une quarantaine d’observatoires et de télescopes, ainsi qu’une cinquantaine de missions spatiales majeures. Mais un obstacle important est apparu : le manque de données précises. Faute de transparence sur les émissions réelles, les chercheurs ont utilisé une méthode indirecte, appelée « ratio monétaire ». Elle consiste à estimer les émissions à partir du coût financier des projets, une approche utile, mais entachée d’incertitudes.Malgré ces limites, les résultats donnent un ordre de grandeur. Depuis leur création, ces infrastructures auraient généré environ 20,3 millions de tonnes de CO₂. En moyenne, cela correspond à environ 1,2 million de tonnes par an, soit l’équivalent des émissions d’un petit pays comme la Croatie. À l’échelle individuelle, chaque astronome serait responsable d’environ 36 tonnes de CO₂ par an, bien au-dessus de la moyenne française, autour de 10 tonnes. Cela équivaut, par exemple, aux émissions d’une voiture parcourant 150 000 kilomètres. Mais réduire cette empreinte s’annonce complexe. Les projets deviennent de plus en plus ambitieux, et donc plus gourmands en ressources. De nouvelles infrastructures sont en construction, comme l’Extremely Large Telescope en Europe. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Les terres rares, malgré leur nom, ne sont pas forcément rares… mais elles sont devenues stratégiques. Ce groupe de 17 métaux, parmi lesquels le néodyme, le samarium ou encore le dysprosium, est indispensable à de nombreuses technologies du quotidien. On les retrouve dans les moteurs de véhicules électriques, les éoliennes, les smartphones ou encore certains équipements électroniques.Le problème, c’est la dépendance. Aujourd’hui, la Chine domine largement ce marché. Elle assure environ 70 % de la production mondiale, et jusqu’à 90 % des opérations de traitement et de séparation, des étapes clés pour rendre ces matériaux utilisables. Même si des pays comme les États-Unis produisent aussi des terres rares, une grande partie du monde reste tributaire de l’industrie chinoise. Face à ce constat, la France tente de reprendre la main. L’État vient de soutenir un projet porté par Caremag, filiale du groupe Carester, spécialisée dans l’expertise des terres rares. Au total, 106 millions d’euros d’investissement public, auxquels s’ajoutent 110 millions apportés par le groupe japonais Iwatani Corporation. Ensemble, ils ont créé une coentreprise baptisée Japan France Rare Earth Company.Le projet : construire une usine de recyclage à Lacq, dans les Pyrénées-Atlantiques, avec une mise en service prévue fin 2026. L’objectif est ambitieux : recycler chaque année environ 2 000 tonnes d’aimants, ces composants riches en terres rares, et traiter jusqu’à 5 000 tonnes de concentrés miniers. L’installation pourrait devenir le premier site de recyclage de ce type en Europe, et un acteur majeur pour certaines terres rares dites « lourdes », comme le terbium ou le dysprosium. L’enjeu dépasse la seule industrie française. Il s’agit aussi de renforcer l’autonomie européenne, notamment dans la production d’aimants permanents, essentiels à la transition énergétique.Parallèlement, une autre piste est à l’étude : relancer l’exploitation minière sur le territoire. Un inventaire des ressources stratégiques vient d’être lancé, piloté par le Bureau de Recherches Géologiques et Minières. Mais à court terme, le recyclage apparaît comme une solution clé. Moins polluant, moins énergivore et moins gourmand en eau que l’extraction minière, il pourrait devenir un levier majeur pour sécuriser l’approvisionnement… tout en limitant l’impact environnemental. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
C’est une transformation discrète, mais potentiellement massive, qui se prépare sur les parkings français. Avec la loi du 10 mars 2023, l’État a affiché un objectif clair : accélérer le développement des énergies renouvelables pour combler le retard de la France, qui, encore récemment, peinait à atteindre les objectifs européens, notamment les 23 % d’énergie renouvelable dans sa consommation.Un décret publié en novembre 2024 vient désormais préciser les règles du jeu. Il impose aux parkings de plus de 1 500 m² d’installer des ombrières équipées de dispositifs de production d’énergie renouvelable, le plus souvent des panneaux photovoltaïques. Concrètement, il s’agit de structures couvertes, installées au-dessus des places de stationnement, capables à la fois de protéger les véhicules du soleil… et de produire de l’électricité.Le calendrier est fixé. Les plus grands parkings, ceux de plus de 10 000 m², devront être conformes dès juillet 2026. Pour les surfaces comprises entre 1 500 et 10 000 m², l’échéance est repoussée à 2028. Dans tous les cas, au moins 50 % de la surface devra être équipée. Les grandes surfaces sont en première ligne : leurs parkings représentent à eux seuls environ 70 millions de mètres carrés en France. Le texte prévoit aussi des sanctions. En cas de non-respect, l’amende peut atteindre 50 euros par mètre carré non équipé. Pour un parking de 3 000 m², cela représente potentiellement 150 000 euros. De quoi inciter fortement à se mettre en conformité. Malgré cela, certaines enseignes ont demandé un report de deux ans, sans succès.Au-delà de la contrainte, cette mesure change la nature même des parkings. D’espaces purement utilitaires, ils deviennent des sites de production énergétique. L’électricité générée pourra être utilisée localement, par exemple pour alimenter des bornes de recharge pour véhicules électriques. Certes, ces installations représentent un coût important à l’investissement. Mais elles participent à réduire l’empreinte carbone des grandes surfaces, souvent critiquées pour leur consommation énergétique. Autrement dit, demain, faire ses courses pourrait aussi contribuer, indirectement, à produire de l’énergie. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
On parle souvent de l’intelligence artificielle comme d’une course aux puces électroniques, ces fameux GPU, et à la mémoire ultra-rapide, comme la HBM. Mais une autre ressource devient tout aussi stratégique, et beaucoup moins visible : les batteries.Le groupe japonais Panasonic vient d’annoncer un virage industriel majeur. Objectif : tripler sa production de cellules lithium-ion au Japon et adapter certaines de ses usines, notamment aux États-Unis, pour répondre à une demande en forte hausse. À la clé, une ambition claire : atteindre 800 milliards de yens de chiffre d’affaires dans les batteries destinées aux datacenters d’ici 2029, soit environ 5 milliards de dollars, quatre fois plus qu’aujourd’hui.Mais attention, ces batteries ne servent pas directement à alimenter les serveurs. Elles jouent un rôle de sécurité. En cas de coupure électrique, elles prennent le relais pendant quelques minutes, comme des onduleurs, ces dispositifs qui stabilisent et maintiennent le courant. Elles permettent aussi de stocker de l’électricité pour la restituer lorsque les prix de l’énergie augmentent. Pour répondre à cette demande, Panasonic réoriente même une partie de ses lignes de production, initialement dédiées à l’automobile. Le groupe affirme que 80 % de sa capacité future est déjà réservée par des clients, et revendique environ 80 % de parts de marché sur ce segment. Des chiffres à prendre avec précaution : ils proviennent de l’entreprise elle-même et ne sont pas, à ce stade, confirmés par des sources indépendantes.En parallèle, Panasonic développe aussi des supercondensateurs, des composants capables de stocker et restituer de l’énergie très rapidement, utiles pour absorber les variations de charge dans les centres de données. Le contexte rend cette stratégie crédible. La demande énergétique des datacenters explose. Selon certaines estimations, leur consommation pourrait quadrupler d’ici 2030. Aux États-Unis, la puissance nécessaire pourrait atteindre 74 gigawatts d’ici 2028, avec un déficit important à la clé.Le scénario rappelle celui de certaines mémoires informatiques, déjà vendues avant même d’être produites. Alors, faut-il craindre une pénurie de batteries ? Il est encore trop tôt pour l’affirmer. Mais tous les ingrédients sont là : une demande en forte croissance, des capacités limitées… et une industrie sous tension. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
C’est un projet industriel qui illustre concrètement la transition énergétique en cours. Vendredi, l’entreprise HyforSeeds a obtenu un soutien public de 144 millions d’euros de l’État français, validé par la Commission européenne, pour construire une unité de production d’hydrogène renouvelable en Alsace. Au cœur du dispositif : un électrolyseur de 50 mégawatts. Cet équipement permet de produire de l’hydrogène à partir d’eau et d’électricité, à condition que cette électricité soit d’origine renouvelable, comme l’éolien ou le solaire. L’installation sera implantée dans la zone industrielle d’Ottmarsheim-Chalampé, dans le Haut-Rhin, directement sur le site du chimiste LAT Nitrogen, un acteur majeur de la production d’engrais.L’idée est simple : connecter cette nouvelle source d’hydrogène « vert » à une industrie qui consomme déjà massivement ce gaz. Car aujourd’hui, l’hydrogène utilisé pour fabriquer l’ammoniac, un composant essentiel des engrais, est majoritairement produit à partir de gaz naturel. Un procédé très émetteur de CO₂. Avec ce projet, jusqu’à 15 % de cet hydrogène fossile pourra être remplacé par une alternative renouvelable. Une proportion qui peut sembler modeste, mais dont l’impact est significatif : au moins 70 % de réduction des émissions liées à cette production, soit plus de 46 000 tonnes de CO₂ évitées chaque année, l’équivalent des émissions d’environ 25 000 voitures.Le financement public couvrira une partie des coûts, notamment la construction de l’électrolyseur et des infrastructures associées. La Commission européenne a estimé que cette aide était indispensable : sans elle, le projet n’aurait pas vu le jour. Elle a également vérifié qu’elle respectait les règles encadrant les aides d’État, conçues pour éviter toute distorsion de concurrence entre entreprises. Pour Bruxelles, ce projet s’inscrit pleinement dans les objectifs climatiques de l’Union. D’ici 2030, 42 % de l’hydrogène consommé par l’industrie devra être renouvelable, puis 60 % en 2035. Autrement dit, la transformation est déjà en marche. Et elle passera, concrètement, par ce type d’installations, déployées progressivement sur les grands sites industriels européens. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
C’est une annonce qui semble tout droit sortie de la science-fiction : en Australie, des chercheurs du CSIRO, l’agence nationale de recherche scientifique, en collaboration avec l’université de Melbourne et RMIT, ont mis au point un premier prototype de batterie quantique capable de réaliser un cycle complet : charge, stockage, puis décharge. Sur le papier, les perspectives sont vertigineuses. Le physicien James Quach évoque, à long terme, des voitures électriques rechargeables plus vite qu’un plein d’essence, ou encore des appareils alimentés à distance par laser. Mais il tempère immédiatement : à ce stade, la capacité du prototype est extrêmement faible, insuffisante pour alimenter le moindre appareil du quotidien.Concrètement, l’énergie stockée se mesure en milliards d’électronvolts, une unité utilisée en physique des particules, et surtout, elle ne reste disponible que quelques nanosecondes, c’est-à-dire des milliardièmes de seconde. Autant dire que l’énergie disparaît presque aussitôt stockée. Alors, qu’est-ce qui rend cette technologie si particulière ? Elle repose sur un phénomène quantique appelé « effet collectif ». Dans une batterie classique, comme celles au lithium-ion, plus vous ajoutez de cellules, plus le temps de charge augmente. Ici, c’est l’inverse : les unités de stockage interagissent entre elles et se comportent comme un seul système. Résultat, plus la batterie est grande, plus elle peut se charger rapidement. Théoriquement, si l’on multiplie le nombre d’unités, le temps de charge diminue selon une racine carrée, un gain spectaculaire.Le prototype repose sur une microcavité organique, une structure capable de piéger la lumière. Cette lumière est absorbée en un seul événement massif, appelé « super-absorption », permettant une charge extrêmement rapide. Les chercheurs ont mesuré des temps de charge de l’ordre de la femtoseconde, un millionième de milliardième de seconde, grâce à des lasers ultra-précis. Mais le défi reste immense : retenir l’énergie. Même après des progrès récents, une durée de stockage multipliée par mille en 2025, on reste très loin des besoins pratiques. Pour l’instant, cette technologie pourrait surtout trouver sa place dans les ordinateurs quantiques, qui nécessitent des sources d’énergie extrêmement stables et précises. En parallèle, les chercheurs explorent des solutions hybrides, combinant vitesse quantique et stockage classique. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Le Moyen-Orient reste un point névralgique pour l’économie mondiale, principalement en raison de son rôle central dans la production d’hydrocarbures. Mais ce que l’on sait moins, c’est que d’autres ressources stratégiques transitent aussi par le détroit d’Ormuz. Parmi elles : les engrais azotés, comme l’urée ou les ammonitrates, indispensables à l’agriculture, et un gaz discret mais crucial, l’hélium.Ce dernier est aujourd’hui au cœur des inquiétudes. Déjà, il y a plusieurs mois, des responsables sud-coréens alertaient sur les risques de tensions d’approvisionnement. Des avertissements restés sans effet… et qui prennent désormais tout leur sens. Car l’hélium est un marché très concentré. En 2025, les États-Unis dominent la production mondiale avec environ 41 %, suivis de près par le Qatar, qui en assure près d’un tiers. Problème : ce dernier ne peut plus exporter. Le blocage du détroit d’Ormuz par l’Iran, en réponse à des frappes américano-israéliennes, perturbe fortement les flux. Résultat, après plusieurs semaines, le spectre d’une pénurie commence à émerger. Selon l’agence Reuters, un responsable français du groupe Air Liquide évoque un risque réel à court terme. D’autres industriels confirment que l’absence du Qatar se fait déjà sentir dans les chaînes d’approvisionnement mondiales.Il faut dire que l’hélium est indispensable dans de nombreux secteurs de pointe. Dans le domaine médical, par exemple, il est utilisé sous forme liquide pour refroidir les aimants des IRM, ces appareils d’imagerie par résonance magnétique. Sans refroidissement, ces aimants supraconducteurs ne peuvent tout simplement pas fonctionner. Dans l’industrie des semi-conducteurs, au cœur de nos smartphones et ordinateurs, l’hélium sert à refroidir les plaques de silicium, appelées “wafers”, mais aussi à créer une atmosphère inerte, c’est-à-dire sans réaction chimique, pour éviter toute altération des matériaux. Les alternatives restent limitées. Après les États-Unis et le Qatar, la Russie et l’Algérie complètent le podium, mais avec des contraintes, notamment géopolitiques. Des pays clés comme la Corée du Sud ou Taïwan disposent bien de réserves, mais seulement pour quelques mois. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
À chaque variation du prix du pétrole, l’impact se fait sentir à l’échelle mondiale. Selon le think tank Ember, spécialisé dans la transition énergétique, une hausse de 10 dollars du baril entraîne environ 160 milliards de dollars de dépenses supplémentaires par an pour les importations de pétrole. Une dépendance coûteuse, qui pousse de plus en plus d’acteurs à chercher des alternatives. Parmi elles, l’électrification des transports apparaît comme un levier majeur. D’après les calculs d’Ember, basés sur des données de l’Agence internationale de l’énergie, le développement des véhicules électriques et hybrides rechargeables pourrait réduire d’un tiers les importations mondiales d’énergies fossiles. À la clé : une économie potentielle de 600 milliards de dollars par an.Les premiers effets sont déjà visibles. En Chine, où les voitures électriques représentent désormais près de la moitié des ventes, les économies sont significatives : plus de 28 milliards de dollars d’importations de pétrole évitées pour un baril autour de 80 dollars. En Europe, incluant le Royaume-Uni et la Norvège, le gain est estimé à environ 8 milliards de dollars. Ce contexte prend une résonance particulière alors que les tensions au Moyen-Orient perturbent les flux énergétiques. Près de 20 % du pétrole mondial transite par le détroit d’Ormuz, un point stratégique actuellement affecté par ces tensions, ce qui contribue à la volatilité des prix.À l’échelle des consommateurs, l’impact est tout aussi concret. L’ONG Transport & Environment estime qu’avec un carburant autour de 2 euros le litre, le coût mensuel moyen pour un véhicule thermique atteint environ 142 euros, contre 104 euros avant les récentes tensions. À l’inverse, un véhicule électrique nécessiterait environ 65 euros de recharge mensuelle pour une distance équivalente, soit une économie d’environ 77 euros par mois, ou près de 924 euros par an. À l’échelle européenne, les chiffres confirment cette tendance. Les 8 millions de voitures électriques déjà en circulation dans l’Union européenne auraient permis d’économiser 2,9 milliards d’euros d’importations de pétrole en 2025, sur un total de 67 milliards liés aux carburants pour automobiles. Pour l’ONG, renforcer les politiques de réduction des émissions de CO₂ dans le secteur automobile pourrait amplifier ce mouvement. Elle estime que cela permettrait d’économiser jusqu’à 45 milliards d’euros d’importations de pétrole entre 2026 et 2035. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Chaque 18 mars, la Journée mondiale du recyclage rappelle l’importance de repenser notre rapport aux déchets. Créée en 1994 aux États-Unis, elle s’est internationalisée en 2018 sous l’impulsion du Bureau of International Recycling. En France, elle en est aujourd’hui à sa cinquième édition. L’occasion de mettre en lumière des initiatives qui transforment nos rebuts… en ressources.Parmi elles, le travail du studio Bentu Design illustre une approche à la fois technique et esthétique du recyclage. À première vue, leurs créations semblent simples : des chaises, des tabourets. Mais leur fabrication raconte une autre histoire. Ces objets sont conçus à partir de déchets de chantiers urbains : béton, briques, gravats ou mortiers. Une fois récupérés, ces matériaux sont triés, broyés puis intégrés dans un mélange cimentaire utilisé pour l’impression 3D. Cette technique consiste à fabriquer un objet couche par couche à partir d’un matériau injecté, ici enrichi jusqu’à 85 % de déchets solides recyclés. Ce procédé présente plusieurs avantages. Il limite les transports — les matériaux sont issus du même environnement urbain — et réduit les émissions de CO₂ de 65 à 80 % par rapport à une production industrielle classique. Le taux d’utilisation de la matière atteint, lui, 92 %, ce qui réduit considérablement les pertes.Mais Bentu Design ne s’arrête pas aux déchets minéraux. Le studio explore aussi le potentiel du plastique urbain recyclé. Plutôt que de le considérer comme un problème, il le transforme en mobilier du quotidien. Les matériaux sont triés par type et par couleur, puis assemblés pour créer des pièces uniques, où chaque nuance raconte l’origine des fragments utilisés. Autre exemple : le tabouret Wu, fabriqué à partir de semelles de chaussures usagées. Un objet de 17 kilos, composé à 90 % de cette matière, soit l’équivalent d’une soixantaine de semelles. Un choix loin d’être anodin, quand on sait que plus de 20 milliards de paires de chaussures sont produites chaque année dans le monde, la plupart finissant incinérées ou en décharge.Au-delà de l’aspect environnemental, ces objets sont pensés pour être pratiques, modulables et durables, utilisables aussi bien en intérieur qu’en extérieur. À travers ces créations, Bentu Design propose une autre lecture du déchet : non plus comme une fin, mais comme le point de départ d’un nouveau cycle. Une manière concrète de montrer que recycler, ce n’est pas seulement traiter nos déchets… c’est aussi réinventer leur usage. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Chaque année, nous produisons toujours plus de déchets électroniques. En moyenne, près de huit kilos par personne. À l’échelle mondiale, cela représentait déjà 62 millions de tonnes en 2022. Et le rythme s’accélère : ces déchets augmentent cinq fois plus vite que les capacités de recyclage. Résultat, une grande partie finit enfouie ou incinérée.Le problème est bien connu : nos appareils électroniques sont extrêmement difficiles à recycler. Ils combinent des matériaux très différents, métaux, plastiques, semi-conducteurs, étroitement imbriqués. Et c’est encore plus vrai pour les robots souples, ces machines flexibles utilisées en agriculture ou en médecine. Leur structure repose sur des polymères complexes, mélangés à des composants électroniques classiques, ce qui rend leur traitement en fin de vie particulièrement compliqué.Mais une équipe de chercheurs sud-coréens, issue de l’université nationale de Séoul et de l’université Sogang, propose une piste radicalement différente : concevoir des robots entièrement biodégradables. Leur prototype, présenté dans la revue Nature Sustainability, repose sur un matériau clé : le poly(sébacate de glycérol), ou PGS. Il s’agit d’un élastomère, un matériau souple proche du caoutchouc, mais surtout biodégradable. Contrairement aux plastiques traditionnels, il peut se décomposer naturellement dans certaines conditions. Les chercheurs ne se sont pas arrêtés là. Ils ont également intégré des composants électroniques eux aussi conçus pour disparaître : des éléments à base de magnésium, de molybdène et de silicium, capables de se dégrader sans laisser de résidus toxiques.Malgré cette conception « éphémère », les performances sont au rendez-vous. Le robot peut embarquer des capteurs, température, humidité, des systèmes chauffants ou encore des dispositifs capables d’administrer des médicaments. Et surtout, il reste fonctionnel même après un million de cycles d’utilisation, ce qui témoigne d’une robustesse réelle. Une fois sa mission terminée, il suffit de le placer dans un environnement de compostage industriel, un procédé contrôlé qui accélère la décomposition des matières organiques, pour qu’il se désagrège complètement en quelques mois, sans impact environnemental notable. L’idée est simple, mais puissante : concevoir des machines capables de remplir leur rôle… puis de disparaître.Dans un monde confronté à une explosion des déchets électroniques, cette approche pourrait ouvrir une nouvelle voie : celle d’une technologie pensée non seulement pour être performante, mais aussi pour retourner à la nature une fois devenue inutile. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Le méthane est souvent moins médiatisé que le dioxyde de carbone, mais son rôle dans le réchauffement climatique est crucial. C’est même le deuxième gaz à effet de serre le plus important, responsable d’environ un quart du réchauffement d’origine humaine. Sa particularité ? Une durée de vie plus courte dans l’atmosphère, mais un pouvoir réchauffant extrêmement élevé : sur vingt ans, il retient jusqu’à 86 fois plus de chaleur que le CO₂ à masse égale.Pour mieux comprendre d’où viennent ces émissions, des chercheurs de l’université de Californie à Los Angeles ont mené une enquête inédite à l’aide de satellites d’observation. Ces instruments permettent de détecter depuis l’espace des « panaches » de méthane — autrement dit des fuites invisibles à l’œil nu, mais mesurables grâce à leur signature chimique.Leur analyse, portant sur l’année 2025, identifie les 25 sites industriels les plus polluants au monde dans le secteur du pétrole et du gaz. Et le résultat est frappant : 15 de ces 25 “super-émetteurs” se trouvent au Turkménistan, un pays rarement évoqué dans les débats climatiques. Les deux sites les plus émetteurs, situés dans la ville d’Esenguly, rejettent chacun plus de 10 tonnes de méthane par heure. Derrière, on retrouve plusieurs installations au Venezuela et en Iran. Un seul site américain figure dans le classement : à Stanton, au Texas, avec environ 5,5 tonnes par heure.À l’échelle climatique, ces chiffres sont vertigineux. Une fuite moyenne de ce classement — autour de 5 tonnes par heure — peut avoir, sur une année, le même impact qu’une centrale à charbon ou qu’un million de SUV. Le plus frappant, c’est que ces émissions ne sont pas inévitables. Selon les chercheurs, elles proviennent essentiellement d’infrastructures vieillissantes ou mal entretenues. En clair, des équipements défectueux qui laissent échapper du gaz… qui pourrait pourtant être capté et revendu.Autrement dit, une partie du problème pourrait être résolue avec des réparations relativement simples. Cette étude met en lumière un enjeu clé : réduire les fuites de méthane est l’un des moyens les plus rapides d’agir sur le climat à court terme. Car contrairement au CO₂, ses effets diminuent rapidement si les émissions baissent. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Une équipe de chercheurs américains, dirigée notamment par l’océanographe Lihini Aluwihare, vient de publier l’une des analyses chimiques les plus vastes jamais menées sur les océans. Plus de 2 300 échantillons d’eau de mer, prélevés entre 2017 et 2022 aux quatre coins du globe, ont été passés au crible. Et le constat est sans appel : l’empreinte chimique humaine est désormais omniprésente dans les mers.Pour parvenir à ce résultat, les scientifiques ont utilisé une méthode dite « non ciblée ». Contrairement aux analyses classiques, qui recherchent des substances précises, cette approche permet de détecter simultanément des milliers de composés, même inconnus au départ. Grâce à une technique appelée spectrométrie de masse, qui identifie les molécules en fonction de leur masse, les chercheurs ont mis en évidence 248 substances d’origine humaine. Parmi elles, des additifs plastiques, des lubrifiants industriels, des résidus de médicaments ou encore des pesticides. Autant de composés qui, pour beaucoup, étaient jusqu’ici peu surveillés. Le plus frappant, c’est leur diffusion. Les cinq substances les plus fréquentes ont été retrouvées dans plus de 30 % des échantillons, y compris en pleine haute mer. Près des côtes, les analyses révèlent davantage de traces de médicaments, comme des anxiolytiques, ou de répulsifs anti-insectes comme le DEET. Dans les estuaires, zones de transition entre fleuves et océans, les composés de synthèse peuvent représenter jusqu’à 76 % des substances détectées. Même les régions les plus isolées, comme certains récifs coralliens éloignés, ne sont pas épargnées.Pour les chercheurs, le plus préoccupant n’est pas seulement la quantité, mais l’ampleur de la dispersion. En haute mer, ces substances ne représentent parfois que 0,5 à 4 % des composés présents. Des chiffres faibles en apparence, mais qui témoignent d’une contamination globale. Et il reste des angles morts. Certaines molécules, comme les PFAS, ces « polluants éternels » très persistants, échappent encore aux méthodes actuelles. D’autres ne figurent pas dans les bases de données utilisées pour les identifier.Reste une question essentielle : quel impact sur les écosystèmes ? Les scientifiques reconnaissent qu’ils ne disposent pas encore de toutes les réponses. Mais une chose est sûre : ces composés, appelés xénobiotiques, s’accumulent et pourraient influencer le fonctionnement des océans, notamment le cycle du carbone. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Parmi toutes les énergies renouvelables, le solaire photovoltaïque apparaît aujourd’hui comme l’un des piliers de la transition énergétique. Selon l’ONU, début 2026, produire de l’électricité grâce au Soleil est désormais environ 41 % moins coûteux que les énergies fossiles. Un basculement économique majeur qui explique l’essor rapide de cette technologie dans de nombreux pays.Le potentiel est colossal. Chaque seconde, la Terre reçoit une quantité d’énergie solaire équivalente à près de 8 000 fois la consommation énergétique annuelle de l’humanité. Sur le papier, la ressource semble donc presque inépuisable. Pourtant, dans la pratique, la production solaire reste sensible aux caprices du climat. Des températures extrêmes peuvent réduire le rendement des panneaux, et des événements violents comme la grêle peuvent endommager des installations entières. Mais un autre facteur, moins connu, influence aussi la production d’électricité solaire : le cycle climatique El Niño – La Niña, souvent appelé ENSO par les climatologues. Une nouvelle étude publiée dans la revue Communications Earth & Environment montre que ce phénomène naturel peut modifier significativement l’ensoleillement à l’échelle mondiale.ENSO est l’une des principales sources de variabilité naturelle du climat. Il alterne entre deux phases : La Niña, associée à des eaux plus froides dans le Pacifique équatorial, et El Niño, caractérisée par un réchauffement de cette zone. Alors que La Niña touche actuellement à sa fin, les scientifiques anticipent un retour d’El Niño entre l’été et l’automne 2026. Or, selon les chercheurs, ces épisodes ont tendance à réduire l’irradiation solaire, c’est-à-dire la quantité de rayonnement qui atteint la surface de la Terre. L’analyse de données climatiques couvrant près de quarante ans montre que les épisodes El Niño provoquent des baisses persistantes de production solaire dans plusieurs grandes régions productrices : la Californie, le sud du désert d’Atacama, le bassin du Chaco en Amérique du Sud, le Moyen-Orient ou encore l’est de la Chine.Le phénomène s’explique notamment par l’augmentation de l’humidité dans l’atmosphère. El Niño modifie la circulation des masses d’air et favorise la formation de nuages, ce qui réduit la quantité de lumière atteignant les panneaux photovoltaïques. Les effets pourraient être particulièrement marqués lors des rares épisodes dits de « super El Niño ». Depuis les années 1980, seulement trois ont été observés. Selon l’étude, ces épisodes pourraient entraîner une baisse significative de la production solaire mondiale, obligeant temporairement certains pays à recourir davantage aux énergies fossiles et augmentant les émissions de CO₂ de plusieurs dizaines de millions de tonnes. En France, l’impact direct semble plus limité en été. En revanche, durant l’automne et l’hiver, El Niño est souvent associé à un ciel plus nuageux et à des conditions plus humides, ce qui pourrait aussi influencer, modestement, la production solaire nationale. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Produire de l’électricité grâce au Soleil… même en pleine nuit. L’idée peut sembler paradoxale, et pourtant une start-up américaine veut tenter l’expérience. Son nom : Reflect Orbital. Son projet : envoyer dans l’espace des milliers de miroirs capables de rediriger la lumière solaire vers la Terre après le coucher du soleil.Le concept est simple sur le papier. Plutôt que de produire de l’énergie directement dans l’espace — comme certains projets de centrales solaires orbitales qui envisagent ensuite de transmettre l’électricité vers la Terre — Reflect Orbital propose de faire l’inverse : renvoyer la lumière du Soleil vers la surface terrestre, afin d’éclairer des zones plongées dans la nuit. Pour y parvenir, l’entreprise californienne envisage de déployer jusqu’à 50 000 miroirs en orbite terrestre. Ces satellites fonctionneraient comme des réflecteurs géants capables de rediriger la lumière vers des zones ciblées au sol.Selon le New York Times, la société se prépare déjà à lancer un premier prototype : un miroir d’environ 18 mètres de large. Mais avant cela, elle doit obtenir l’autorisation de la Federal Communications Commission, l’autorité américaine chargée notamment de réguler les communications et les satellites. Si le projet est validé, Reflect Orbital prévoit d’envoyer environ 1 000 satellites d’ici 2028. Chacun serait capable d’éclairer une zone d’environ 5 kilomètres de diamètre.Les premiers tests seraient modestes. L’objectif est d’atteindre cette année une intensité lumineuse de 0,1 lux pendant cinq minutes, soit à peu près l’équivalent de la lumière d’une pleine lune. Mais l’entreprise voit plus grand. Elle vise 100 lux en 2028, 5 000 lux en 2030, puis 36 000 lux d’ici 2035 lorsque la constellation complète sera opérationnelle. À titre de comparaison, 36 000 lux correspondent à un niveau de luminosité proche d’un plein soleil en journée.La lumière deviendrait alors un service commercial : éclairer des fermes solaires pour produire de l’électricité la nuit, soutenir des opérations de secours, illuminer des villes ou encore stimuler la production agricole. Mais ce projet suscite aussi des critiques. Des scientifiques et des environnementalistes s’inquiètent de ses effets potentiels. Une lumière artificielle venue du ciel pourrait perturber les observations astronomiques, distraire les pilotes d’avion ou encore modifier les rythmes biologiques des animaux et des plantes. L’astronome Michael Brown, de l’université Monash, se montre également sceptique sur les calculs de l’entreprise. Selon lui, plus de 3 000 satellites seraient nécessaires pour produire seulement 20 % de l’ensoleillement de midi sur un seul site. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
L’essor de l’intelligence artificielle pose un défi de plus en plus visible : son appétit énergétique. Les modèles d’IA nécessitent d’énormes quantités de calculs informatiques, et ces calculs demandent à la fois de l’électricité pour alimenter les serveurs… et encore plus d’énergie pour refroidir les centres de données où ces machines fonctionnent en continu.Pour tenter de réduire cette consommation, des chercheurs de l’université de Sydney explorent une piste radicalement différente : remplacer l’électricité par la lumière pour effectuer certains calculs. Dans une étude publiée dans la revue Nature Communications, ils présentent un prototype de puce photonique, spécialement conçue pour l’intelligence artificielle. Le principe repose sur une idée simple mais ambitieuse. Dans les processeurs traditionnels, les calculs sont réalisés grâce au déplacement d’électrons dans des circuits électriques. La puce développée par les chercheurs, elle, utilise des photons, les particules de lumière, pour traiter l’information.Cette approche présente plusieurs avantages. D’abord la vitesse : la lumière se déplace extrêmement rapidement, ce qui permet d’effectuer certains calculs en quelques picosecondes, c’est-à-dire en un millième de milliardième de seconde. Ensuite l’efficacité énergétique : contrairement aux électrons, les photons ne rencontrent quasiment pas de résistance lorsqu’ils circulent. Résultat, beaucoup moins d’énergie est dissipée sous forme de chaleur, ce qui réduit fortement les besoins en refroidissement.Pour construire cette puce, les chercheurs ont gravé de minuscules structures optiques appelées nanostructures photoniques. Chacune mesure seulement quelques dizaines de micromètres, soit une fraction de millimètre. Lorsque la lumière traverse ces structures, sa trajectoire et ses propriétés sont modifiées de manière très précise. En combinant des milliers de ces nanostructures, les scientifiques ont créé un système capable de reproduire le fonctionnement d’un réseau neuronal, c’est-à-dire l’architecture mathématique utilisée par de nombreux modèles d’intelligence artificielle. La densité de calcul obtenue est impressionnante : environ 400 millions de paramètres par millimètre carré. Pour tester leur prototype, les chercheurs l’ont entraîné à analyser plus de 10 000 images médicales, notamment des IRM. Les résultats sont prometteurs : selon les expériences, la précision de classification se situe entre 90 et 99 %.Si cette technologie devait un jour être industrialisée, elle pourrait transformer l’infrastructure de l’IA. En intégrant directement des réseaux neuronaux dans des circuits optiques, il serait possible de réduire considérablement la consommation énergétique des centres de données. Dans un contexte où la demande en puissance de calcul explose, certains experts évoquent même le risque d’une pénurie d’énergie liée à l’IA. Les puces photoniques pourraient donc représenter l’une des clés pour continuer à développer ces technologies… sans faire exploser la facture énergétique mondiale. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
L’essor de l’intelligence artificielle pose un défi énergétique majeur. Selon l’Agence internationale de l’énergie, les centres de données devraient consommer entre 2 et 3 % de l’électricité mondiale dès 2026, soit environ 500 térawattheures par an. Pour donner un ordre de grandeur, c’est l’équivalent de la consommation électrique d’un pays comme la France. Et avec la généralisation de l’IA générative, cette demande pourrait doubler d’ici 2030. Face à cette explosion des besoins, les géants du numérique cherchent des solutions capables d’assurer une alimentation électrique stable, tout en réduisant les émissions de CO₂. L’une des pistes les plus prometteuses consiste à associer énergies renouvelables et stockage massif d’électricité grâce à de gigantesques batteries.C’est précisément la stratégie adoptée par Google, qui prépare un projet spectaculaire aux États-Unis, sur un site de 200 hectares à Pine Island. L’installation sera alimentée par un portefeuille d’électricité renouvelable, essentiellement éolien et solaire, capable de fournir 1 600 mégawatts de puissance. Mais la pièce maîtresse du projet réside dans son système de stockage. Google prévoit d’y installer une batterie géante de 300 mégawatts, capable de fournir de l’énergie pendant près de 100 heures consécutives, soit environ quatre jours d’autonomie. Une performance inédite pour ce type d’infrastructure.L’objectif est clair : garantir une alimentation continue du centre de données sans dépendre des centrales fossiles ou des générateurs diesel, encore utilisés par près de 80 % des centres de données dans le monde pour assurer les secours en cas de panne. La technologie retenue est développée par la start-up américaine Form Energy. Elle repose sur un système dit « fer-air », basé sur un principe chimique simple : l’oxydation et la réduction du fer. En stockant l’électricité sous forme de réaction chimique, ces batteries peuvent accumuler de grandes quantités d’énergie et la restituer pendant de longues périodes, tout en supportant des milliers de cycles.Par sa capacité énergétique, ce dispositif pourrait devenir la plus grande batterie du monde. À titre de comparaison, il serait capable d’alimenter plus de 100 000 foyers américains pendant une journée. Pour Google, ce projet constitue un véritable laboratoire. L’entreprise veut démontrer qu’il est possible d’alimenter ses centres de données 24 heures sur 24 et 7 jours sur 7 avec de l’énergie décarbonée, sans recourir à des compensations carbone. Un enjeu stratégique pour le groupe, dont les émissions de CO₂ ont augmenté d’environ 50 % depuis 2019, notamment en raison du développement massif de l’intelligence artificielle. L’équation énergétique du numérique devient donc l’un des grands défis technologiques de la décennie. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Dans l’industrie spatiale, un nouveau pari technologique pourrait bien changer les règles du jeu. La start-up américaine Lux Aeterna, fondée en 2024, veut rendre les satellites… réutilisables. À sa tête, on trouve Brian Taylor, un ingénieur chevronné passé par SpaceX et Amazon, où il a participé au développement des mégaconstellations Starlink et Project Kuiper.Aujourd’hui, la plupart des satellites ont une durée de vie relativement courte. En orbite basse, ils fonctionnent généralement entre cinq et dix ans, avant d’être désorbités, c’est-à-dire volontairement détruits dans l’atmosphère, ou envoyés vers une orbite cimetière, une zone éloignée où l’on place les satellites hors service. Ce modèle implique de fabriquer régulièrement de nouveaux engins, ce qui représente un coût très élevé.L’ambition de Lux Aeterna est de rompre avec cette logique. L’entreprise veut créer des satellites capables de revenir sur Terre, d’être remis à niveau, puis relancés. L’idée ressemble à ce que SpaceX a déjà réussi avec les fusées réutilisables, mais appliquée cette fois aux satellites eux-mêmes. Le principal obstacle est thermique. Lorsqu’un objet rentre dans l’atmosphère, il subit des températures extrêmes, parfois plusieurs milliers de degrés, à cause du frottement avec l’air. Pour survivre à cette phase critique, Lux Aeterna prévoit d’intégrer un bouclier thermique directement dans la structure du satellite.Ce système permettrait au satellite de revenir intact sur Terre, avec sa charge utile, c’est-à-dire les instruments embarqués, comme des caméras, des capteurs scientifiques ou des systèmes de communication. L’intérêt est évident : au lieu de construire un nouveau satellite pour chaque évolution technologique, les opérateurs pourraient mettre à jour les équipements puis relancer l’appareil. Le premier prototype de la start-up s’appelle Delphi. Il mesure environ 1,1 mètre de large pour une masse d’environ 200 kilogrammes. Son lancement est prévu pour le premier trimestre 2027, à bord d’une fusée Falcon 9 de SpaceX. Après sa mission, l’engin doit effectuer un retour contrôlé et être récupéré en Australie.Lux Aeterna travaille déjà sur une génération suivante de satellites plus grands, qui pourraient à terme être lancés par Starship, la future fusée géante de SpaceX. Mais le défi reste immense. La technologie doit non seulement fonctionner, mais aussi être économiquement rentable. Les économies réalisées grâce à la réutilisation devront compenser les coûts liés au retour, à la récupération et à la remise en état des satellites. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
loading
Comments (7)

Thibault de Changy

bonjour, vos podcasts semblent tous saturés !!!

Jun 29th
Reply

Thibault de Changy

est il possible de se passer des cette phrase aussi systématique qu'intitule : "c'est ce que je vous propose de ville dans cet épisode" ?! ça me tapé sur les nerfs, surtout quand on en écoute plusieurs d'affilée. tant qu'à février ce qui ne va pas, je trouverais plus agréable de ne pas crier dans le micro et exprimer les faits comme s'ils allaient tous changer le monde. c'est plutôt oppressant. Merci de faire cet effort svp.

Feb 18th
Reply

Thibault de Changy

erreur d'épisode

Nov 24th
Reply

Thibault de Changy

quelle bouffonnerie, ça c'est bien du Green washing puisque les ces carburants détruisent des espaces de culture comme jamais. voir le matos au Mexique etc. Privez nous de ce type d'info intitule svp.

Sep 8th
Reply

Thibault de Changy

vous actualités son certes sympathiques, mais il me semble que vous exprimez un engouement bien excessif à l'égard de simples découvertes dans applications approuvées. Un peu de retenue dans le ton sûr-motivé me semblerait plus judicieux et plus agréable. merci.

Aug 21st
Reply

Berda

Très bon comme d'habitude !!!

Feb 8th
Reply

Thibault de Changy

Merci d'ajouter le lien dans la description svp.

Feb 5th
Reply