Discover
Choses à Savoir SCIENCES
Choses à Savoir SCIENCES
Author: Choses à Savoir
Subscribed: 13,719Played: 679,830Subscribe
Share
© Choses à Savoir
Description
Développez facilement votre culture scientifique grâce à un podcast quotidien !
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
2489 Episodes
Reverse
Longtemps, cette idée a relevé du cliché ou du malaise social. Pourtant, la science a fini par montrer qu’il existe bien une base biologique objective à ce phénomène. Des chercheurs japonais ont identifié le composé chimique principalement responsable de cette odeur particulière, que la langue japonaise appelle avec pudeur kareishu, littéralement « l’odeur de l’âge ».La molécule en question s’appelle le 2-nonénal. Elle dégage une odeur souvent décrite comme grasse, légèrement herbacée, parfois proche du carton humide ou de l’huile rance. Ce qui rend cette découverte fascinante, c’est que le 2-nonénal est le seul composé odorant dont la concentration augmente systématiquement avec l’âge, indépendamment de l’hygiène ou du mode de vie.Pour comprendre pourquoi, il faut regarder du côté de la peau. En vieillissant, notre métabolisme change. La production de certaines graisses cutanées, notamment les acides gras insaturés, évolue. Parmi eux, l’acide palmitoléique devient plus abondant. Or, sous l’effet de l’oxydation — un processus chimique lié au stress oxydatif — cet acide se dégrade et produit du 2-nonénal. Avec l’âge, la peau se renouvelle moins vite, les mécanismes antioxydants sont moins efficaces, et cette molécule a davantage tendance à s’accumuler.Autre point clé : le 2-nonénal est peu soluble dans l’eau. Contrairement à la sueur classique, il n’est pas facilement éliminé par une simple douche. Il adhère aux tissus, aux vêtements, aux cheveux et peut persister même chez des personnes ayant une hygiène irréprochable. C’est pour cela que cette odeur est parfois perçue comme tenace et difficile à masquer avec des parfums traditionnels.Il est important de souligner que cette odeur n’a rien à voir avec la saleté ou la négligence. Elle n’est ni une maladie ni un signe d’un mauvais état de santé. Elle reflète simplement des transformations biochimiques normales liées au vieillissement. D’ailleurs, certaines cultures asiatiques, notamment au Japon, abordent ce phénomène de manière plus neutre, voire pragmatique, en développant des produits spécifiquement conçus pour neutraliser le 2-nonénal.Enfin, cette découverte rappelle une chose essentielle : notre odeur corporelle est un signal biologique complexe, influencé par l’âge, les hormones, l’alimentation et le métabolisme. Le vieillissement ne modifie pas seulement notre apparence ou notre énergie, il modifie aussi subtilement notre signature chimique. Une réalité scientifique… que notre nez perçoit parfois avant notre esprit. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
La bibliothèque d’Alexandrie est devenue le symbole absolu du savoir perdu. Mais contrairement à la légende, elle n’a probablement pas été détruite en une seule nuit par un incendie spectaculaire. Ce qui lui est arrivé est plus complexe, plus lent… et finalement plus humain.La bibliothèque naît au début du IIIᵉ siècle avant notre ère, sous le règne des souverains ptolémaïques, dans l’Égypte grecque. Son ambition est sans précédent : rassembler tous les savoirs du monde connu. Des centaines de milliers de rouleaux y sont conservés, copiés, traduits et étudiés. Mathématiques, astronomie, médecine, géographie, philosophie : Alexandrie devient le cœur intellectuel de la Méditerranée. Des savants comme Euclide, Ératosthène ou Héron d’Alexandrie y travaillent.La première catastrophe souvent évoquée est celle de 48 av. J.-C., lors de la guerre entre Jules César et les forces égyptiennes. Un incendie aurait éclaté dans le port d’Alexandrie et se serait propagé à des entrepôts contenant des manuscrits. Il est probable que des textes aient été détruits, mais rien ne prouve que la bibliothèque principale ait été anéantie à ce moment-là. Les sources antiques sont vagues et parfois contradictoires.En réalité, la bibliothèque n’est pas un bâtiment unique. Elle comprend une institution principale, le Mouseîon, et des bibliothèques annexes, notamment celle du Sérapéum. Cela explique pourquoi elle continue d’exister et de fonctionner pendant plusieurs siècles après César. Le vrai déclin commence plus tard, pour des raisons structurelles.À partir du IIIᵉ siècle de notre ère, Alexandrie traverse une période d’instabilité politique, économique et religieuse. Les financements diminuent, les savants partent, et l’entretien des collections devient secondaire. En 391, l’empereur Théodose interdit les cultes païens. Le Sérapéum est détruit, ce qui entraîne la disparition d’une partie importante des collections restantes. Là encore, il ne s’agit pas d’un autodafé géant du savoir, mais d’un effondrement institutionnel.Une autre légende accuse la conquête arabe du VIIᵉ siècle d’avoir brûlé la bibliothèque. Mais aucun texte contemporain fiable ne confirme cet épisode. Les historiens s’accordent aujourd’hui pour dire que, si une bibliothèque existait encore à cette époque, elle était déjà largement vidée de sa substance.En résumé, la bibliothèque d’Alexandrie n’a pas été “brûlée” une fois pour toutes. Elle est morte lentement, par négligence, crises politiques, changements culturels et désintérêt progressif pour la conservation du savoir. Sa disparition rappelle une vérité essentielle : le savoir ne se perd pas seulement par le feu, mais aussi par l’indifférence. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Alfred Nobel est célèbre pour les prix Nobel. Bien sûr ! Mais au départ, sa célébrité vient bien d’un explosif précis : la dynamite.Nobel naît en 1833 à Stockholm, dans une époque où l’Europe construit tunnels, voies ferrées, ports et canaux. Le problème, c’est que faire sauter la roche est long, coûteux, et dangereux. On utilise alors la poudre noire, peu puissante. Puis arrive une découverte capitale : la nitroglycérine, un liquide explosif très puissant, mais terriblement instable. Un choc, une variation de température, une mauvaise manipulation… et c’est l’accident. Des catastrophes surviennent, y compris dans l’entourage de Nobel.L’idée géniale de Nobel, dans les années 1860, est de rendre la nitroglycérine “transportable” et “utilisable” de façon beaucoup plus sûre. Il cherche un matériau poreux capable d’absorber ce liquide et de le stabiliser. Il trouve une solution avec une poudre minérale appelée kieselguhr (terre de diatomées), qui agit comme une éponge. En mélangeant nitroglycérine et kieselguhr, il obtient une pâte malléable, qu’on peut façonner en bâtons : c’est la dynamite, brevetée en 1867.Pourquoi est-ce une révolution ? Parce que la dynamite offre une puissance énorme, mais surtout une mise en œuvre bien plus contrôlable. Elle n’explose pas toute seule “au moindre frisson” comme la nitroglycérine pure. Pour déclencher l’explosion, Nobel met aussi au point des systèmes d’amorçage efficaces, notamment des détonateurs au fulminate (un explosif très sensible) qui transmettent l’onde de choc au “gros” explosif. Résultat : les chantiers gagnent en rapidité, en productivité et, relativement, en sécurité. La dynamite devient l’outil standard des grands travaux : mines, carrières, tunnels alpins, canaux, construction de chemins de fer… Elle participe directement à l’accélération de l’industrialisation.Mais cette invention a un revers : un explosif pratique est aussi un explosif militaire. Nobel le sait, et cette ambivalence colle à son nom. Une anecdote souvent citée raconte qu’un journal l’aurait qualifié de “marchand de mort” après une confusion sur un décès. Qu’elle soit totalement exacte ou embellie, elle résume un fait : Nobel a été confronté à la portée morale de ses inventions.À sa mort, en 1896, il décide de léguer sa fortune pour récompenser chaque année les avancées majeures en physique, chimie, médecine, littérature et paix. Ironie de l’histoire : l’homme de la dynamite devient surtout, aujourd’hui, le symbole mondial de la science récompensée. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Une étude récente publiée dans la revue AIP Advances propose une idée déroutante : et si la gravité n’était pas une force fondamentale, mais le symptôme d’un univers gouverné par l’information ? Autrement dit, ce que nous appelons « gravité » pourrait être le résultat d’une loi informationnelle profonde, baptisée seconde loi de l’infodynamique.Pour comprendre cette hypothèse, il faut d’abord rappeler ce qu’est la gravité dans la physique classique. Depuis Newton, elle est vue comme une force d’attraction entre les masses. Einstein a ensuite bouleversé cette vision : la gravité n’est plus une force au sens strict, mais une conséquence de la courbure de l’espace-temps provoquée par la masse et l’énergie. Cette description fonctionne remarquablement bien, mais elle ne dit pas pourquoi la gravité existe.La nouvelle approche part d’un autre angle : celui de l’information. En physique moderne, l’information n’est plus un concept abstrait réservé aux ordinateurs. Elle est devenue une grandeur fondamentale, au même titre que l’énergie ou l’entropie. La seconde loi de l’infodynamique, proposée par les auteurs, affirme que les systèmes physiques évoluent spontanément vers des états qui maximisent l’efficacité de stockage et de traitement de l’information.Selon cette idée, la gravité émergerait naturellement de cette tendance. Lorsque des particules ou des objets se rapprochent, le système global devient plus simple à décrire, plus compressible sur le plan informationnel. L’attraction gravitationnelle serait donc une conséquence statistique : les configurations où la matière est regroupée seraient favorisées parce qu’elles optimisent la gestion de l’information dans l’univers.C’est ici qu’intervient la notion d’univers simulé. Dans une simulation informatique, les ressources sont limitées : mémoire, calcul, énergie. Regrouper les données, simplifier les structures, réduire la complexité globale sont des stratégies efficaces. La gravité, dans ce cadre, ressemblerait à un algorithme de compression cosmique : elle ferait « tomber » la matière là où l’information est la plus simple à gérer.Attention toutefois : cette étude ne prouve pas que nous vivons dans une simulation. Elle montre seulement qu’un univers régi par des lois informationnelles produit naturellement un comportement ressemblant à la gravité, sans avoir besoin de postuler une force fondamentale mystérieuse. C’est une approche conceptuelle, encore loin d’être validée expérimentalement.Mais ses implications sont vertigineuses. Si la gravité est une propriété émergente de l’information, alors l’espace, le temps et la matière pourraient eux-mêmes être secondaires, issus d’un substrat informationnel plus profond. La physique ne décrirait plus seulement ce que fait l’univers, mais comment il calcule.Une idée encore spéculative, mais qui illustre une tendance forte des sciences modernes : au fond du réel, il n’y aurait peut-être pas des objets… mais de l’information. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
L’Atlantide est sans doute le continent perdu le plus célèbre de l’histoire… et pourtant, son existence repose sur une source unique. L’origine du récit remonte au IVᵉ siècle avant notre ère, dans deux dialogues du philosophe grec Platon : Timée et Critias. Platon y décrit une civilisation immense et prospère, située « au-delà des Colonnes d’Hercule » — généralement identifiées au détroit de Gibraltar. L’Atlantide y apparaît comme une puissance maritime technologiquement avancée, riche, orgueilleuse, qui finit par être engloutie par la mer en une seule nuit à la suite d’un cataclysme.Chez Platon, le récit a une fonction avant tout philosophique. L’Atlantide sert de contre-exemple moral à Athènes : une société devenue corrompue par sa richesse et sa soif de domination, punie par les dieux. Le texte n’est pas présenté comme un mythe poétique, mais comme un récit transmis par Solon après un voyage en Égypte. C’est précisément cette ambiguïté — récit moral ou témoignage historique ? — qui a nourri les débats pendant plus de deux millénaires.Du point de vue scientifique, le constat est clair : aucune preuve archéologique directe ne confirme l’existence de l’Atlantide telle que décrite par Platon. Aucun vestige d’un continent englouti, aucune trace d’une civilisation avancée disparue brutalement dans l’Atlantique. La tectonique des plaques, bien comprise aujourd’hui, rend d’ailleurs très improbable l’engloutissement soudain d’un continent entier en quelques heures.Cependant, certains chercheurs estiment que Platon a pu s’inspirer d’événements réels, déformés par la transmission orale. L’hypothèse la plus souvent citée concerne l’île de Santorin, dans la mer Égée. Vers 1600 av. J.-C., une éruption volcanique majeure détruit une grande partie de l’île de Théra et affaiblit la civilisation minoenne. Tsunamis, explosions, effondrements : le scénario rappelle étrangement la fin de l’Atlantide, même si la localisation ne correspond pas au texte de Platon.D’autres théories placent l’Atlantide en Espagne, au Maroc, aux Açores ou même en Antarctique, mais elles reposent sur des interprétations spéculatives, souvent sans validation scientifique solide. Aucune n’a résisté à l’examen rigoureux des géologues et des archéologues.En résumé, l’Atlantide n’a très probablement jamais existé comme civilisation réelle et autonome. Elle est plutôt un mythe philosophique, possiblement nourri de catastrophes naturelles bien réelles. Mais sa puissance symbolique demeure : l’Atlantide incarne la fascination humaine pour les mondes perdus, et la crainte intemporelle que le progrès, sans sagesse, mène à la chute. Un mythe, donc — mais un mythe extraordinairement efficace. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
L'énergie noire, également appelée énergie sombre, est une composante hypothétique de l'univers introduite pour expliquer l'accélération observée de son expansion. Elle représenterait environ 70 % du contenu énergétique de l'univers, le reste étant constitué de matière noire et de matière ordinaire. Cependant, sa nature exacte demeure l'une des plus grandes énigmes de la cosmologie moderne.Observations soutenant l'existence de l'énergie noireEn 1998, des observations de supernovae de type Ia ont révélé que l'univers est en expansion accélérée. Ces supernovae, utilisées comme chandelles standard en raison de leur luminosité prévisible, apparaissaient moins lumineuses que prévu, suggérant qu'elles étaient plus éloignées qu'estimé. Pour expliquer cette accélération, les cosmologistes ont proposé l'existence d'une forme d'énergie exerçant une pression négative, d'où le concept d'énergie noire. Modèles théoriques et constantes cosmologiquesL'une des explications proposées est l'ajout d'une constante cosmologique aux équations de la relativité générale d'Einstein. Cette constante représenterait une densité d'énergie du vide spatial, responsable de l'accélération de l'expansion cosmique. Cependant, la valeur observée de cette constante diffère de plusieurs ordres de grandeur des prédictions théoriques, posant un défi majeur aux physiciens. Défis et controverses récentsMalgré son acceptation généralisée, l'existence de l'énergie noire est remise en question. Une étude récente menée par des chercheurs néo-zélandais propose une alternative sans recourir à l'énergie noire. Selon leur modèle, appelé "paysage temporel", l'accélération apparente de l'expansion de l'univers pourrait être due à des variations locales du taux d'écoulement du temps, influencées par la distribution inégale de la matière dans l'univers. Cette approche suggère que les différences de gravité entre les régions denses, comme les galaxies, et les vides cosmiques pourraient créer l'illusion d'une accélération globale. Observations et missions en coursPour approfondir la compréhension de l'énergie noire, des missions spatiales telles qu'Euclid de l'Agence spatiale européenne ont été lancées. Euclid vise à cartographier la distribution des galaxies et à étudier la géométrie de l'univers pour fournir des indices sur la nature de l'énergie noire. Les premières images de cette mission ont été publiées récemment, offrant un aperçu prometteur des données à venir. ConclusionL'existence de l'énergie noire reste un sujet de débat au sein de la communauté scientifique. Bien que les observations actuelles suggèrent une accélération de l'expansion de l'univers, les explications varient, et la nature exacte de cette force demeure incertaine. Les recherches en cours, tant théoriques qu'observationnelles, sont essentielles pour élucider ce mystère cosmique. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Les lunes ne possèdent généralement pas d'anneaux comme les planètes en raison de plusieurs facteurs physiques et dynamiques liés à leur taille, à leur gravité et à leur environnement orbital. Voici les principales raisons :1. Gravité insuffisanteLes planètes géantes, comme Saturne ou Jupiter, ont une forte gravité qui leur permet de capturer et de maintenir des débris en orbite sous forme d'anneaux. En revanche, les lunes, étant beaucoup plus petites, ne disposent pas d'une gravité suffisante pour retenir durablement un système d'anneaux stable. Les particules tendraient à retomber sur la surface de la lune ou à être éjectées dans l'espace interplanétaire.2. Forces de marée des planètes principalesLes lunes sont généralement en orbite autour d'une planète plus massive, et les forces gravitationnelles de cette planète perturbent l'équilibre des particules qui pourraient former des anneaux autour de la lune. Ces forces de marée tendent à disperser les débris au lieu de leur permettre de s'agréger et de former un système stable autour de la lune.3. Collision avec des débris planétairesLes lunes orbitent souvent à proximité d'autres satellites et de ceintures de débris en formation autour de la planète hôte. Les interactions gravitationnelles et les impacts de micrométéorites peuvent empêcher la formation et le maintien d'anneaux autour des lunes.4. Espace limité dans la sphère de HillLa sphère de Hill représente la région où une lune peut gravitationnellement retenir des objets en orbite autour d'elle-même. Pour une lune, cette région est relativement petite par rapport à celle d'une planète, ce qui rend difficile la formation et la stabilité d'un anneau autour d'elle.5. Durée de vie des anneauxSi des anneaux venaient à se former autour d'une lune, ils seraient de courte durée en raison des forces de marée de la planète hôte, des perturbations gravitationnelles et de l'action des forces non gravitationnelles comme la pression de radiation solaire et les effets électrostatiques dus au vent solaire.6. Exemples exceptionnelsBien que rares, certaines lunes pourraient avoir des structures temporaires similaires à des anneaux. Par exemple, la lune de Saturne Rhéa a été soupçonnée d'avoir un disque de matière autour d'elle, mais cela n'a pas été confirmé de manière définitive.En conclusion, la combinaison de la faible gravité des lunes, des perturbations gravitationnelles exercées par leur planète hôte et des dynamiques orbitales instables empêche généralement la formation d'anneaux autour des lunes, contrairement aux planètes géantes qui bénéficient d'un environnement plus favorable pour leur maintien. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
La valeur nutritive de la chair humaine a été étudiée par l'anthropologue James Cole de l'Université de Brighton, dont les travaux ont été publiés en 2017 dans la revue Scientific Reports. Cette recherche visait à comprendre les motivations potentielles du cannibalisme chez les populations préhistoriques en évaluant l'apport calorique qu'un corps humain pouvait fournir.Composition calorique détaillée :Selon les estimations de Cole, un corps humain adulte moyen d'environ 65 kg offrirait un total approximatif de 125 822 calories. Cette énergie est répartie entre les différents tissus et organes du corps de la manière suivante :- Muscles (environ 28 kg) : environ 32 376 calories, soit environ 1 150 calories par kilogramme de muscle.- Graisse (environ 10,5 kg) : environ 49 940 calories, soit environ 4 756 calories par kilogramme de graisse.- Peau (environ 3,5 kg) : environ 10 280 calories, soit environ 2 937 calories par kilogramme de peau.- Foie (environ 1,05 kg) : environ 2 569 calories, soit environ 2 447 calories par kilogramme de foie.- Cerveau (environ 1,4 kg) : environ 2 706 calories, soit environ 1 933 calories par kilogramme de cerveau.- Poumons (environ 1,3 kg) : environ 1 956 calories, soit environ 1 505 calories par kilogramme de poumons.- Cœur (environ 0,3 kg) : environ 651 calories, soit environ 2 170 calories par kilogramme de cœur.- Reins (environ 0,3 kg) : environ 376 calories, soit environ 1 253 calories par kilogramme de reins.- Sang (environ 5,5 kg) : environ 2 706 calories, soit environ 492 calories par kilogramme de sang.Ces chiffres indiquent que les muscles et la graisse constituent les principales sources caloriques du corps humain, représentant ensemble plus de 80 % de l'apport énergétique total.Comparaison avec d'autres espèces :Pour mettre ces données en perspective, Cole a comparé la valeur calorique de la chair humaine à celle d'autres animaux chassés par les populations préhistoriques :- Sanglier : environ 1 800 calories pour 500 g de muscle.- Castor : environ 1 800 calories pour 500 g de muscle.- Humain : environ 650 calories pour 500 g de muscle.Ainsi, la viande humaine est moins calorique que celle de nombreux animaux, ce qui suggère que le cannibalisme chez les populations préhistoriques n'était probablement pas motivé principalement par des besoins nutritionnels. D'autres facteurs, tels que des pratiques culturelles, rituelles ou des situations de survie extrême, pourraient expliquer cette pratique. En conclusion, bien que le corps humain puisse fournir une quantité notable de calories, sa valeur nutritive est inférieure à celle de nombreuses proies animales disponibles pour les chasseurs-cueilleurs préhistoriques. Cela suggère que le cannibalisme avait probablement des motivations complexes dépassant le simple apport énergétique. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Sorti en 1997 et réalisé par Andrew Niccol, "Bienvenue à Gattaca" (Gattaca en version originale) est considéré par la NASA comme le film de science-fiction le plus réaliste de tous les temps. Cette distinction repose sur la plausibilité scientifique du scénario, qui aborde un futur où le génie génétique joue un rôle central dans la société humaine. Contrairement à d'autres films de science-fiction centrés sur des technologies lointaines ou futuristes, "Bienvenue à Gattaca" explore des avancées qui pourraient devenir réalité dans un avenir proche.L'intrigue du film se déroule dans un monde où les enfants sont conçus en laboratoire, permettant aux parents de choisir les caractéristiques génétiques idéales pour garantir la santé, l'intelligence et les aptitudes physiques optimales. Ceux qui naissent de manière naturelle, sans intervention génétique, sont désavantagés et subissent une discrimination institutionnalisée. Le personnage principal, Vincent Freeman, est un "invalide", c'est-à-dire un individu né sans sélection génétique, qui rêve d'intégrer Gattaca, une prestigieuse institution spatiale. Pour contourner les barrières génétiques, il usurpe l'identité d'un individu génétiquement "supérieur", soulevant ainsi des questions éthiques fondamentales sur le déterminisme génétique et le libre arbitre.Ce que la NASA a particulièrement apprécié dans "Bienvenue à Gattaca", c'est son approche réaliste des avancées en biotechnologie et en eugénisme. Avec les progrès actuels dans la manipulation du génome humain, comme la technologie CRISPR-Cas9, il est désormais envisageable de modifier l'ADN pour prévenir certaines maladies héréditaires et optimiser les caractéristiques humaines. Le film soulève des préoccupations sur l'émergence potentielle d'une société divisée entre "génétiquement privilégiés" et "naturels", ce qui résonne fortement avec les débats bioéthiques actuels.En plus de son réalisme scientifique, le film se distingue par son atmosphère épurée et son style rétro-futuriste, mettant en avant une vision dystopique où les progrès scientifiques conduisent à de nouvelles formes de discrimination. L'absence de technologies extravagantes renforce l'impression que ce futur est à portée de main, rendant le récit d'autant plus crédible.En conclusion, "Bienvenue à Gattaca" offre une réflexion percutante sur les dérives possibles du génie génétique, en s'appuyant sur des fondements scientifiques solides. Sa reconnaissance par la NASA témoigne de la pertinence de ses questionnements et de sa capacité à anticiper les défis éthiques et sociaux liés aux avancées biotechnologiques modernes. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
La périhélie est le point de l'orbite d'un objet céleste, comme une planète, une comète ou un astéroïde, où il se trouve au plus proche du Soleil. Le terme vient du grec peri- (autour, proche) et helios (Soleil). À l'opposé, le point le plus éloigné du Soleil est appelé aphélie.La périhélie dans le contexte du mouvement planétaireLes planètes du Système solaire, y compris la Terre, suivent des orbites elliptiques selon les lois de Kepler, et non circulaires parfaites. Cela signifie qu'elles ont deux points caractéristiques sur leur orbite :- La périhélie, où la planète est la plus proche du Soleil.- L'aphélie, où la planète est la plus éloignée du Soleil.La Terre atteint sa périhélie autour du 3 au 5 janvier chaque année, à une distance d'environ 147 millions de kilomètres du Soleil. À l'aphélie, en juillet, la Terre est à environ 152 millions de kilomètres.Effets de la périhélieBien que la Terre soit plus proche du Soleil en janvier, cela ne signifie pas nécessairement qu'il fait plus chaud sur notre planète. En effet, les saisons terrestres sont principalement influencées par l'inclinaison de l'axe de rotation de la Terre (environ 23,5°), et non par la distance au Soleil. C’est pourquoi l’hémisphère nord connaît l’hiver en janvier, malgré la proximité accrue du Soleil.Cependant, la périhélie influence légèrement la vitesse orbitale de la Terre. Selon la deuxième loi de Kepler, une planète se déplace plus rapidement lorsqu'elle est proche du Soleil et plus lentement lorsqu'elle est éloignée. Ainsi, en janvier, la Terre se déplace légèrement plus vite dans son orbite qu'en juillet.La périhélie pour d'autres objets célestesD'autres corps du Système solaire, comme les comètes, ont des orbites hautement elliptiques, ce qui signifie qu'elles subissent des variations extrêmes entre leur périhélie et leur aphélie. Par exemple, la comète de Halley, qui suit une orbite très allongée, atteint sa périhélie environ tous les 76 ans, lorsqu'elle est visible depuis la Terre.ConclusionLa périhélie est donc un concept clé en astronomie pour comprendre le mouvement orbital des objets autour du Soleil. Elle a des implications sur la vitesse orbitale, les températures saisonnières (dans une moindre mesure) et la dynamique des objets célestes comme les planètes et les comètes. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Oui, plusieurs espèces animales semblent manifester des comportements assimilables au deuil lorsqu'elles perdent un proche. Bien que le concept du deuil tel que nous l'entendons chez les humains soit difficile à prouver scientifiquement chez les animaux, de nombreuses observations indiquent des réactions émotionnelles face à la perte d'un congénère. Voici quelques exemples d'animaux qui montrent des signes de deuil :1. Les éléphantsLes éléphants sont souvent cités comme l'exemple le plus frappant de comportements liés au deuil. Ils peuvent rester près du corps d’un membre décédé pendant des heures, voire des jours, le toucher doucement avec leur trompe, le recouvrir de branches ou de terre et émettre des vocalisations particulières. Des études montrent qu’ils reconnaissent même les ossements d’anciens compagnons longtemps après leur mort.2. Les dauphins et les orquesCes cétacés présentent également des comportements de deuil marqués. Il n’est pas rare d’observer des dauphins portant le corps de leur petit décédé sur leur dos pendant des jours, ou de voir des membres d'un groupe rester autour d’un individu mort, comme s’ils tentaient de le réanimer ou de comprendre sa disparition.3. Les chimpanzés et autres primatesLes chimpanzés, très proches de l’humain sur le plan évolutif, montrent des comportements de deuil remarquables. Ils peuvent rester aux côtés du corps d’un proche, le toucher, le toiletter et exprimer des signes de détresse émotionnelle tels que la perte d’appétit ou l’isolement temporaire. Certaines mères chimpanzés transportent le corps de leur petit décédé pendant des jours, voire des semaines.4. Les corvidés (corbeaux, pies, geais)Les corvidés, connus pour leur intelligence, organisent parfois ce qui ressemble à des « funérailles ». Lorsqu’un congénère meurt, ils se rassemblent autour du corps, le scrutent et poussent des cris spécifiques. Certains scientifiques estiment qu’il s’agit d’une forme d’apprentissage du danger, mais d’autres pensent qu'il pourrait s'agir d'un processus émotionnel plus complexe.5. Les girafesDes observations ont montré que les girafes restent parfois auprès du cadavre d'un de leurs petits pendant plusieurs heures, le léchant ou le reniflant à plusieurs reprises, témoignant potentiellement d'une forme de chagrin.6. Les loupsDans les meutes de loups, la perte d’un membre entraîne des changements de comportement notables. Les loups peuvent chercher leur compagnon disparu, hurler de manière inhabituelle, et certains montrent des signes de repli social, indiquant qu'ils ressentent une perte émotionnelle.Interprétation scientifiqueLes comportements observés chez ces animaux sont souvent interprétés comme des expressions d'attachement fort plutôt qu'un véritable deuil conscient. Néanmoins, ces observations suggèrent que la perte d'un proche a un impact émotionnel et comportemental profond dans de nombreuses espèces sociales.Ainsi, bien que nous ne puissions pas affirmer avec certitude que ces animaux « pleurent » à la manière des humains, ils montrent des signes indéniables de détresse et d'attachement face à la perte de leurs proches. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
La mer d’Aral, autrefois l’un des plus grands lacs du monde, est aujourd’hui l’un des plus grands désastres écologiques causés par l’homme. Située en Asie centrale, à cheval entre le Kazakhstan et l’Ouzbékistan, cette mer intérieure a commencé à se réduire drastiquement à partir des années 1960, en grande partie à cause des décisions prises par l’Union soviétique. Mais pourquoi l’URSS a-t-elle asséché la mer d’Aral ?Tout remonte aux années 1950, lorsque les dirigeants soviétiques ont lancé un ambitieux programme de développement agricole. L’objectif était de transformer l’Asie centrale en un immense grenier à coton, surnommé "l’or blanc", pour répondre aux besoins croissants de l’économie soviétique. Pour irriguer ces vastes plantations de coton, l’URSS a détourné les deux principaux fleuves qui alimentaient la mer d’Aral : l’Amou-Daria et le Syr-Daria. Des milliers de kilomètres de canaux d’irrigation ont été construits, souvent de manière peu efficace, avec d’importantes pertes d’eau par infiltration et évaporation.À court terme, cette politique a permis une augmentation massive de la production agricole, rendant l’Union soviétique autosuffisante en coton et renforçant son économie. Cependant, les conséquences écologiques n’ont pas tardé à apparaître. Privée d’une grande partie de son alimentation en eau douce, la mer d’Aral a commencé à se rétrécir rapidement, perdant environ 90 % de sa superficie en quelques décennies.Les répercussions de cet assèchement ont été catastrophiques. La salinité de l’eau a fortement augmenté, rendant impossible la survie de nombreuses espèces aquatiques. Les ports autrefois prospères sont aujourd’hui des cimetières de bateaux échoués dans le désert. Le climat local s’est également détérioré, avec des hivers plus froids et des étés plus chauds, accentuant les difficultés agricoles.De plus, les sédiments exposés, chargés de pesticides et de produits chimiques utilisés autrefois pour l’agriculture intensive, ont été soulevés par le vent, provoquant des problèmes de santé majeurs parmi les populations locales, comme des maladies respiratoires et des cancers.Aujourd’hui, des efforts sont entrepris pour restaurer partiellement la mer d’Aral, notamment par le Kazakhstan, qui a construit un barrage pour préserver sa partie nord. Toutefois, la majeure partie de l’ancien bassin est irrémédiablement perdue, laissant derrière lui une leçon amère sur les conséquences d’une gestion non durable des ressources naturelles. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
La Chine prévoit de déployer un drapeau simulant un effet de flottement sur la Lune lors de sa mission Chang’e-7, prévue pour 2026. Cette initiative vise à donner l'illusion d'un drapeau flottant, malgré l'absence d'atmosphère et donc de vent sur la Lune. Conception technique du drapeau flottant Pour créer l'illusion de flottement, les ingénieurs chinois ont développé un système basé sur des interactions électromagnétiques. Le drapeau intègre des fils en boucle fermée parcourus par des courants alternatifs. Ces courants génèrent des champs magnétiques qui induisent un mouvement d'ondulation du drapeau, simulant ainsi un effet de flottement. Objectifs éducatifs et symboliques Cette initiative s'inspire d'une proposition d'élèves d'écoles primaires de Changsha, dans la province du Hunan. Elle vise à susciter l'intérêt des jeunes pour l'exploration spatiale et à renforcer leur compréhension des technologies spatiales chinoises. En réalisant cette démonstration technique, la Chine souhaite également afficher sa capacité d'innovation et son engagement envers l'éducation scientifique. Contexte du programme spatial chinois La mission Chang’e-7 s'inscrit dans le cadre du programme d'exploration lunaire de la Chine, qui comprend plusieurs missions ambitieuses. Précédemment, la mission Chang’e-6 a réussi à prélever des échantillons de la face cachée de la Lune et à y déployer un drapeau chinois fabriqué à partir de basalte lunaire, démontrant ainsi la capacité du pays à utiliser les ressources extraterrestres. En parallèle, la Chine développe des technologies pour l'exploration du pôle sud lunaire, notamment avec des rovers plus grands et plus autonomes, comme celui prévu pour la mission Chang’e-7. Ces efforts s'inscrivent dans une stratégie à long terme visant à établir une présence humaine sur la Lune d'ici 2030 et à construire une base lunaire. En conclusion, la Chine prévoit de déployer un drapeau simulant un effet de flottement sur la Lune en 2026 grâce à une technologie innovante basée sur des interactions électromagnétiques. Cette initiative, à la fois éducative et symbolique, reflète l'ambition croissante du pays dans le domaine de l'exploration spatiale et son engagement à inspirer les futures générations. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Les astronautes ne peuvent pas manger de pain dans l’espace en raison des conditions uniques de microgravité qui rendent les miettes de pain dangereuses et gênantes. Voici les principales raisons : 1. Les miettes flottantesDans l’espace, l’absence de gravité empêche les miettes de pain de tomber au sol comme sur Terre. Ces miettes flottent librement dans l’habitacle, ce qui pose plusieurs problèmes : - Danger pour les équipements : Les miettes peuvent s’introduire dans les instruments électroniques sensibles, causant des dysfonctionnements ou des pannes. - Risque pour la santé des astronautes : Si une miette est inhalée par inadvertance, elle peut obstruer les voies respiratoires et provoquer des difficultés respiratoires. 2. Durée de conservationLe pain frais a une durée de vie relativement courte et peut rapidement moisir. Dans un environnement spatial où le ravitaillement est limité et où la fraîcheur des aliments est cruciale, le pain n’est pas pratique. 3. Problèmes d’hygièneLes miettes flottantes peuvent atterrir sur les vêtements, les surfaces ou dans les zones difficiles à nettoyer, compromettant ainsi l’hygiène et la propreté de l’environnement confiné. Alternatives au pain dans l’espacePour éviter ces problèmes, les astronautes consomment des substituts comme les tortillas. Les tortillas ont plusieurs avantages : - Pas de miettes : Contrairement au pain, elles ne se désagrègent pas facilement. - Longue conservation : Elles peuvent être fabriquées avec des conservateurs pour durer plusieurs mois sans se détériorer. - Facilité d’utilisation : Elles sont flexibles et peuvent envelopper divers aliments sans s’effriter. En résumé, le pain est inadapté à l’espace en raison des miettes flottantes, des risques pour les équipements et la santé, et de sa faible durée de conservation. Les tortillas, plus pratiques, ont remplacé le pain pour les repas en apesanteur. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Une équipe de linguistes de l'institut Max-Planck de psycholinguistique aux Pays-Bas a fait une découverte remarquable en 2013 : l'existence d'un mot véritablement universel, "hein?" (ou ses équivalents), présent dans 31 langues différentes à travers le monde. Ce qui rend cette découverte particulièrement intéressante est que ce mot ne semble pas avoir été emprunté d'une langue à une autre, mais s'être développé de manière indépendante dans diverses cultures. Pour parvenir à cette conclusion, les chercheurs ont mené une étude approfondie, analysant des conversations informelles dans des contextes très variés, allant des grandes métropoles aux villages les plus reculés. Dans certains cas, ils se sont même immergés pendant plusieurs semaines dans des communautés isolées pour observer et enregistrer des échanges spontanés. Ce mot universel partage des caractéristiques phonétiques remarquablement similaires dans toutes les langues étudiées. Il est systématiquement monosyllabique, prononcé avec une intonation interrogative, et souvent accompagné d'un léger coup de glotte. Sa fonction est également identique partout : il sert à signaler une incompréhension et à demander une clarification dans la conversation. Les chercheurs expliquent ce phénomène par ce qu'ils appellent une "convergence évolutive", concept emprunté à la biologie. Tout comme différentes espèces peuvent développer des caractéristiques similaires face à des défis environnementaux communs, les langues auraient évolué vers une solution commune pour répondre au besoin universel de gérer les incompréhensions dans les conversations. Cette découverte est d'autant plus significative qu'elle remet en question l'un des principes fondamentaux de la linguistique : l'arbitraire du signe, selon lequel il n'existe normalement pas de lien direct entre le son d'un mot et sa signification. "Hein?" semble constituer une rare exception à cette règle. Contrairement à des sons instinctifs comme les pleurs ou les gémissements, "hein?" est un mot qui s'apprend au cours du développement linguistique. Les enfants l'acquièrent en observant son usage dans les interactions sociales. Sa simplicité phonétique et sa prosodie interrogative en font un outil optimal pour réagir rapidement et clarifier une situation sans interrompre le flux naturel de la conversation. Cette découverte, récompensée par un Ig Nobel en 2013, illustre comment le langage humain peut développer des solutions universelles pour répondre à des besoins de communication fondamentaux, transcendant ainsi les barrières culturelles et linguistiques. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Vers l’âge de deux ans, les enfants commencent à faire quelque chose d’extraordinaire : ils interagissent avec des objets qui n’existent pas. Une tasse vide devient brûlante, un repas imaginaire est servi avec sérieux. Ce comportement n’est pas anecdotique : il révèle l’apparition du jeu symbolique, la capacité à suspendre la réalité pour en créer une autre. Longtemps, les scientifiques ont vu dans cette aptitude une signature exclusive de l’esprit humain, à l’origine de notre créativité, de nos récits et de notre culture. Mais une expérience récente invite à reconsidérer cette certitude. Cette étude, publiée dans la revue Science, met en scène un bonobo exceptionnel : Kanzi. Kanzi n’est pas un primate ordinaire. Depuis les années 1980, il est connu pour sa capacité à comprendre des centaines de symboles lexigrammes et des phrases complexes en anglais. Mais l’expérience du jus invisible va encore plus loin.Le protocole est volontairement simple. Un expérimentateur fait mine de verser du jus dans des récipients… totalement vides. Aucun liquide réel n’est présent. Il boit ensuite ce « jus invisible », puis propose à Kanzi d’en faire autant, ou de servir à son tour. La question est cruciale : Kanzi va-t-il simplement imiter des gestes mécaniques, ou va-t-il entrer dans la fiction, comme le ferait un enfant humain ?Le résultat est troublant. Kanzi ne se contente pas de porter la tasse à sa bouche. Il adapte ses gestes : il incline le récipient, attend, boit, parfois essuie sa bouche. Mieux encore, lorsqu’il « sert » quelqu’un d’autre, il respecte la logique de la scène imaginaire. Autrement dit, il agit comme si le jus existait, tout en sachant qu’il n’existe pas réellement.C’est précisément ce « comme si » qui fascine les chercheurs. Le jeu symbolique suppose une double représentation mentale : savoir ce qui est réel, tout en acceptant temporairement une réalité fictive. Jusqu’ici, cette capacité était considérée comme un marqueur clé de l’esprit humain, observable très tôt chez l’enfant, mais absente chez les autres espèces.L’expérience du jus invisible suggère donc que la frontière cognitive entre l’humain et les grands singes est plus poreuse qu’on ne le pensait. Elle ne prouve pas que les bonobos imaginent des mondes complexes ou racontent des histoires, mais qu’ils peuvent, dans certaines conditions, partager une fiction intentionnelle.Les implications sont profondes. Si l’imagination n’est pas exclusivement humaine, alors ses racines évolutives sont bien plus anciennes. L’art, le langage symbolique et la culture pourraient reposer sur des capacités déjà présentes chez nos cousins primates.En somme, quand Kanzi boit un jus qui n’existe pas, ce n’est pas un simple jeu. C’est peut-être une fenêtre ouverte sur l’origine biologique de notre pouvoir le plus singulier : imaginer ce qui n’est pas encore réel. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Pendant longtemps, certaines capacités cognitives ont été considérées comme un privilège humain. Se représenter un nombre abstrait, savoir si l’on sait ou si l’on ignore quelque chose, ou encore manipuler mentalement des concepts sans support concret. Or, une expérience récente menée en Allemagne est venue sérieusement bousculer cette frontière. Les héroïnes de cette découverte ne sont ni des singes ni des dauphins, mais… des corneilles.L’étude est conduite par l’équipe du neurobiologiste Andreas Nieder à l’Université de Tübingen. Son objectif : tester si ces oiseaux sont capables de ce que l’on appelle la métacognition, c’est-à-dire la capacité à évaluer ses propres connaissances. En clair : savoir si l’on a la bonne réponse… ou savoir que l’on ne l’a pas.Le protocole est redoutablement précis. Les corneilles sont entraînées à observer brièvement un écran affichant un certain nombre de points. Ensuite, l’image disparaît, et l’oiseau doit indiquer si le nombre présenté correspond à une valeur cible. Jusque-là, rien d’exceptionnel : beaucoup d’animaux savent distinguer des quantités simples. Mais voici la subtilité décisive. Dans certaines conditions, les corneilles ont la possibilité de renoncer à répondre lorsqu’elles ne sont pas sûres, évitant ainsi une pénalité.Et c’est là que l’exploit se produit. Les corneilles ne répondent pas au hasard. Elles choisissent de répondre lorsqu’elles ont vu clairement le stimulus… et s’abstiennent lorsqu’il est trop bref ou ambigu. Autrement dit, elles évaluent leur propre degré de certitude. Exactement le comportement attendu chez un humain conscient de ses limites.Mais l’expérience va encore plus loin. Les chercheurs enregistrent l’activité neuronale dans une zone du cerveau aviaire fonctionnellement équivalente au cortex préfrontal humain. Ils observent que certains neurones s’activent non pas en fonction de la réponse correcte, mais en fonction de la certitude subjective de l’oiseau. Ce signal neuronal de la confiance — que l’on pensait réservé aux primates — est bien présent chez la corneille.Jusqu’ici, ce type de test était considéré comme un marqueur fort de conscience de soi minimale. Il avait été validé chez l’humain, et de façon très débattue chez certains grands singes. Le voir réussi par un oiseau, dont le cerveau est organisé de manière très différente, est une surprise majeure.Cette découverte a des implications profondes. Elle montre que des fonctions cognitives dites “supérieures” peuvent émerger sans cortex cérébral, par des architectures neuronales totalement différentes. En clair : l’intelligence n’a pas un seul modèle biologique.Les corneilles ne parlent pas, n’écrivent pas, ne philosophent pas. Mais elles viennent de réussir un test qui, jusqu’à récemment, servait précisément à définir ce qui nous rendait uniques. Et cela oblige la science à revoir une vieille certitude : l’humain n’a peut-être jamais été aussi seul qu’il le croyait au sommet de l’intelligence. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
La question paraît anodine, presque ludique, pourtant, elle a occupé certains des plus grands mathématiciens modernes. Et la réponse est aujourd’hui claire, chiffrée, et contre-intuitive.Tout commence avec le mélange à l’américaine, appelé riffle shuffle : on coupe le paquet en deux, puis on entrelace les cartes. C’est le geste le plus courant chez les joueurs de poker et les croupiers. Mais est-il efficace ? Dans les années 1990, le mathématicien et ancien magicien Persi Diaconis, alors à Stanford, décide de répondre scientifiquement à la question.Avec ses collègues, il modélise mathématiquement le mélange de cartes comme un processus aléatoire et compare l’ordre du paquet après chaque mélange à un ordre parfaitement aléatoire. Leur verdict, publié en 1992, est sans appel : il faut exactement 7 mélanges riffle pour qu’un jeu de 52 cartes soit véritablement aléatoire.Avant 7 mélanges, le jeu n’est pas vraiment mélangé. Des structures subsistent, des cartes restent statistiquement proches de leur position d’origine. Après 7 mélanges, en revanche, on observe un phénomène brutal appelé transition de coupure (cutoff phenomenon) : le paquet passe soudainement d’un état “prévisible” à un état “indiscernable du hasard total”. Un 6ᵉ mélange est insuffisant ; le 7ᵉ fait basculer le système.Ce résultat est frappant quand on le compare au nombre total de configurations possibles d’un jeu de cartes : 52!, soit environ80 658 175 170 943 878 571 660 636 856 403 766 975…Un nombre si gigantesque que, si chaque personne sur Terre mélangeait un paquet chaque seconde depuis le Big Bang, il est extrêmement probable qu’aucun ordre n’ait jamais été répété. Et pourtant, seulement 7 mélanges bien faits suffisent pour atteindre cet océan de possibilités.Cette découverte a des implications bien au-delà des cartes. Les mêmes mathématiques servent à analyser :la sécurité des algorithmes cryptographiques,les méthodes de tirage au sort,le brassage des données en informatique,ou encore le mélange des particules en physique statistique.Conclusion surprenante : mélanger trop peu n’est pas du hasard, mais trop mélanger ne sert à rien. Les mathématiciens ont tranché : pour un jeu standard, 7 mélanges suffisent. Ni plus, ni moins. Une rare situation où le chaos obéit à une règle précise. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
À l’âge adulte, le corps humain compte environ 37 trillions de cellules. Pour comprendre pourquoi elles se divisent (certaines tout au long de leur vie comme les cellules de la peau, ou de l’intestin, il faut revenir à la fonction la plus fondamentale du vivant : se maintenir, se réparer et se transmettre. La division cellulaire n’est pas un détail technique de la biologie, c’est le mécanisme central qui rend la vie possible à toutes les échelles.La première raison est la croissance. Un organisme pluricellulaire, comme un humain, commence par une seule cellule : l’œuf fécondé. Pour devenir un corps composé de dizaines de milliers de milliards de cellules, il n’existe qu’une solution : se diviser encore et encore. Chaque division double le nombre de cellules, permettant la construction progressive des tissus, des organes, puis de l’organisme entier. Sans division cellulaire, aucun être complexe ne pourrait exister.La deuxième raison est le renouvellement. Les cellules ne sont pas immortelles. Elles s’usent, accumulent des dommages, ou sont simplement programmées pour mourir. Dans le corps humain, certaines cellules vivent très longtemps, mais d’autres sont renouvelées en permanence. Les cellules de la peau, par exemple, sont remplacées en quelques semaines. Les globules rouges vivent environ 120 jours. La division cellulaire permet donc de maintenir l’intégrité des tissus, en remplaçant continuellement ce qui disparaît.Troisième raison : la réparation. Lorsqu’un tissu est endommagé — une coupure, une brûlure, une fracture — ce sont les divisions cellulaires qui rendent la cicatrisation possible. Les cellules voisines se multiplient pour combler la perte, reconstruire la structure et restaurer la fonction. Sans cette capacité à se diviser, la moindre blessure serait irréversible.Mais il existe une raison encore plus fondamentale : la transmission de l’information génétique. Avant de se diviser, une cellule copie son ADN avec une extrême précision. La division permet ainsi de transmettre à chaque cellule fille une copie complète du programme biologique. C’est ce mécanisme qui assure la stabilité des espèces au fil des générations, mais aussi la reproduction chez les organismes unicellulaires, pour lesquels se diviser, c’est littéralement se reproduire.Enfin, la division cellulaire est strictement contrôlée. Une cellule ne se divise pas “par envie”, mais parce qu’elle reçoit des signaux précis : besoins de l’organisme, disponibilité des nutriments, absence de dommages génétiques. Lorsque ce contrôle échoue, les divisions deviennent anarchiques. C’est exactement ce qui se produit dans le cancer : des cellules se divisent sans raison fonctionnelle, au détriment de l’organisme.En résumé, les cellules se divisent pour grandir, durer, réparer et transmettre la vie. La division cellulaire n’est pas un accident de l’évolution : c’est l’un des piliers invisibles sur lesquels repose toute la biologie du vivant. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
En 1696, un défi mathématique bouleverse l’Europe savante. Une question simple, presque enfantine, est posée publiquement : par quel chemin un objet tombe-t-il le plus vite d’un point à un autre, sous l’effet de la gravité, sans frottement ? Ce problème prend un nom étrange, venu du grec : brachistochrone, littéralement « le temps le plus court ».À première vue, la réponse semble évidente. Le chemin le plus rapide devrait être la ligne droite, puisqu’il est le plus court. Pourtant, cette intuition est fausse. Et c’est précisément ce paradoxe qui rend le défi si célèbre.Le problème est formulé par Johann Bernoulli, l’un des plus brillants mathématiciens de son époque. Il lance un appel à tous les savants d’Europe. Parmi ceux qui relèvent le défi figurent Isaac Newton, Gottfried Wilhelm Leibniz et Jacob Bernoulli. Newton, raconte-t-on, reçoit l’énoncé en fin de journée et envoie sa solution… le lendemain matin.La solution est contre-intuitive : le chemin le plus rapide n’est ni une droite, ni un arc de cercle, mais une cycloïde. Il s’agit de la courbe décrite par un point situé sur une roue qui roule sans glisser. Cette trajectoire plonge d’abord très rapidement vers le bas, afin que l’objet acquière vite une grande vitesse, avant de s’adoucir progressivement à l’approche du point final.Pourquoi cela fonctionne-t-il ? Parce que le temps de parcours dépend non seulement de la distance, mais surtout de la vitesse acquise. En descendant plus brutalement au départ, l’objet gagne rapidement de l’énergie cinétique, ce qui lui permet de parcourir la suite du trajet beaucoup plus vite, même si le chemin est plus long que la ligne droite.Ce résultat marque un tournant majeur dans l’histoire des sciences. Le défi de la brachistochrone contribue à la naissance du calcul des variations, une branche des mathématiques qui cherche à optimiser des quantités comme le temps, l’énergie ou la distance. Ces outils seront ensuite essentiels en mécanique, en optique, en ingénierie… et même dans l’économie moderne.La brachistochrone a aussi une portée pédagogique remarquable. Elle montre que la nature n’obéit pas toujours à notre intuition, et que l’optimal n’est pas forcément le plus simple. On retrouve ce principe dans des domaines aussi variés que la conception des montagnes russes, la trajectoire des satellites ou l’optimisation des réseaux.Plus de trois siècles plus tard, ce défi reste un chef-d’œuvre intellectuel : une question apparemment anodine, capable de révéler toute la profondeur des lois du mouvement. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.






toujours des doublons du podcast sciences
sounds dress episodes science !!
continuer 😊🌹
merci merci merci, un vrai plaisir de vous écouter. J'ai une question : quel est la raison d'un bégaiement ? comment ça se déclenche/ fonctionne ?
Que Dieu aïe pitié de tous les utilisateurs de cette appli.
le contenu du podcast est erroné
j'adore! un seul reproche : l'accélération de l'enregistrement est très souvent exagéré, et nuit au plaisir de l'écoute.
g5y nth. h
👏🏻
C'est peut-être une question bête mais... pourquoi partir du principe que Hercule et la tortue courent à la même vitesse ? C'est peu vraisemblable
je les ecoutent tous. vous avez 3 podcasts cesr bien ça?
Mon rituel du matin, pendant que je me lave ! Très instructif et ludique. J'écoute également Choses à savoir Culture générale et Choses à savoir Santé.