DiscoverChoses à Savoir SCIENCES
Choses à Savoir SCIENCES
Claim Ownership

Choses à Savoir SCIENCES

Author: Choses à Savoir

Subscribed: 13,704Played: 678,887
Share

Description

Développez facilement votre culture scientifique grâce à un podcast quotidien !

Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

2479 Episodes
Reverse
Oui, plusieurs espèces animales semblent manifester des comportements assimilables au deuil lorsqu'elles perdent un proche. Bien que le concept du deuil tel que nous l'entendons chez les humains soit difficile à prouver scientifiquement chez les animaux, de nombreuses observations indiquent des réactions émotionnelles face à la perte d'un congénère. Voici quelques exemples d'animaux qui montrent des signes de deuil :1. Les éléphantsLes éléphants sont souvent cités comme l'exemple le plus frappant de comportements liés au deuil. Ils peuvent rester près du corps d’un membre décédé pendant des heures, voire des jours, le toucher doucement avec leur trompe, le recouvrir de branches ou de terre et émettre des vocalisations particulières. Des études montrent qu’ils reconnaissent même les ossements d’anciens compagnons longtemps après leur mort.2. Les dauphins et les orquesCes cétacés présentent également des comportements de deuil marqués. Il n’est pas rare d’observer des dauphins portant le corps de leur petit décédé sur leur dos pendant des jours, ou de voir des membres d'un groupe rester autour d’un individu mort, comme s’ils tentaient de le réanimer ou de comprendre sa disparition.3. Les chimpanzés et autres primatesLes chimpanzés, très proches de l’humain sur le plan évolutif, montrent des comportements de deuil remarquables. Ils peuvent rester aux côtés du corps d’un proche, le toucher, le toiletter et exprimer des signes de détresse émotionnelle tels que la perte d’appétit ou l’isolement temporaire. Certaines mères chimpanzés transportent le corps de leur petit décédé pendant des jours, voire des semaines.4. Les corvidés (corbeaux, pies, geais)Les corvidés, connus pour leur intelligence, organisent parfois ce qui ressemble à des « funérailles ». Lorsqu’un congénère meurt, ils se rassemblent autour du corps, le scrutent et poussent des cris spécifiques. Certains scientifiques estiment qu’il s’agit d’une forme d’apprentissage du danger, mais d’autres pensent qu'il pourrait s'agir d'un processus émotionnel plus complexe.5. Les girafesDes observations ont montré que les girafes restent parfois auprès du cadavre d'un de leurs petits pendant plusieurs heures, le léchant ou le reniflant à plusieurs reprises, témoignant potentiellement d'une forme de chagrin.6. Les loupsDans les meutes de loups, la perte d’un membre entraîne des changements de comportement notables. Les loups peuvent chercher leur compagnon disparu, hurler de manière inhabituelle, et certains montrent des signes de repli social, indiquant qu'ils ressentent une perte émotionnelle.Interprétation scientifiqueLes comportements observés chez ces animaux sont souvent interprétés comme des expressions d'attachement fort plutôt qu'un véritable deuil conscient. Néanmoins, ces observations suggèrent que la perte d'un proche a un impact émotionnel et comportemental profond dans de nombreuses espèces sociales.Ainsi, bien que nous ne puissions pas affirmer avec certitude que ces animaux « pleurent » à la manière des humains, ils montrent des signes indéniables de détresse et d'attachement face à la perte de leurs proches. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
La mer d’Aral, autrefois l’un des plus grands lacs du monde, est aujourd’hui l’un des plus grands désastres écologiques causés par l’homme. Située en Asie centrale, à cheval entre le Kazakhstan et l’Ouzbékistan, cette mer intérieure a commencé à se réduire drastiquement à partir des années 1960, en grande partie à cause des décisions prises par l’Union soviétique. Mais pourquoi l’URSS a-t-elle asséché la mer d’Aral ?Tout remonte aux années 1950, lorsque les dirigeants soviétiques ont lancé un ambitieux programme de développement agricole. L’objectif était de transformer l’Asie centrale en un immense grenier à coton, surnommé "l’or blanc", pour répondre aux besoins croissants de l’économie soviétique. Pour irriguer ces vastes plantations de coton, l’URSS a détourné les deux principaux fleuves qui alimentaient la mer d’Aral : l’Amou-Daria et le Syr-Daria. Des milliers de kilomètres de canaux d’irrigation ont été construits, souvent de manière peu efficace, avec d’importantes pertes d’eau par infiltration et évaporation.À court terme, cette politique a permis une augmentation massive de la production agricole, rendant l’Union soviétique autosuffisante en coton et renforçant son économie. Cependant, les conséquences écologiques n’ont pas tardé à apparaître. Privée d’une grande partie de son alimentation en eau douce, la mer d’Aral a commencé à se rétrécir rapidement, perdant environ 90 % de sa superficie en quelques décennies.Les répercussions de cet assèchement ont été catastrophiques. La salinité de l’eau a fortement augmenté, rendant impossible la survie de nombreuses espèces aquatiques. Les ports autrefois prospères sont aujourd’hui des cimetières de bateaux échoués dans le désert. Le climat local s’est également détérioré, avec des hivers plus froids et des étés plus chauds, accentuant les difficultés agricoles.De plus, les sédiments exposés, chargés de pesticides et de produits chimiques utilisés autrefois pour l’agriculture intensive, ont été soulevés par le vent, provoquant des problèmes de santé majeurs parmi les populations locales, comme des maladies respiratoires et des cancers.Aujourd’hui, des efforts sont entrepris pour restaurer partiellement la mer d’Aral, notamment par le Kazakhstan, qui a construit un barrage pour préserver sa partie nord. Toutefois, la majeure partie de l’ancien bassin est irrémédiablement perdue, laissant derrière lui une leçon amère sur les conséquences d’une gestion non durable des ressources naturelles. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
La Chine prévoit de déployer un drapeau simulant un effet de flottement sur la Lune lors de sa mission Chang’e-7, prévue pour 2026. Cette initiative vise à donner l'illusion d'un drapeau flottant, malgré l'absence d'atmosphère et donc de vent sur la Lune. Conception technique du drapeau flottant Pour créer l'illusion de flottement, les ingénieurs chinois ont développé un système basé sur des interactions électromagnétiques. Le drapeau intègre des fils en boucle fermée parcourus par des courants alternatifs. Ces courants génèrent des champs magnétiques qui induisent un mouvement d'ondulation du drapeau, simulant ainsi un effet de flottement.  Objectifs éducatifs et symboliques Cette initiative s'inspire d'une proposition d'élèves d'écoles primaires de Changsha, dans la province du Hunan. Elle vise à susciter l'intérêt des jeunes pour l'exploration spatiale et à renforcer leur compréhension des technologies spatiales chinoises. En réalisant cette démonstration technique, la Chine souhaite également afficher sa capacité d'innovation et son engagement envers l'éducation scientifique.  Contexte du programme spatial chinois La mission Chang’e-7 s'inscrit dans le cadre du programme d'exploration lunaire de la Chine, qui comprend plusieurs missions ambitieuses. Précédemment, la mission Chang’e-6 a réussi à prélever des échantillons de la face cachée de la Lune et à y déployer un drapeau chinois fabriqué à partir de basalte lunaire, démontrant ainsi la capacité du pays à utiliser les ressources extraterrestres.  En parallèle, la Chine développe des technologies pour l'exploration du pôle sud lunaire, notamment avec des rovers plus grands et plus autonomes, comme celui prévu pour la mission Chang’e-7. Ces efforts s'inscrivent dans une stratégie à long terme visant à établir une présence humaine sur la Lune d'ici 2030 et à construire une base lunaire.  En conclusion, la Chine prévoit de déployer un drapeau simulant un effet de flottement sur la Lune en 2026 grâce à une technologie innovante basée sur des interactions électromagnétiques. Cette initiative, à la fois éducative et symbolique, reflète l'ambition croissante du pays dans le domaine de l'exploration spatiale et son engagement à inspirer les futures générations. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Les astronautes ne peuvent pas manger de pain dans l’espace en raison des conditions uniques de microgravité qui rendent les miettes de pain dangereuses et gênantes. Voici les principales raisons :  1. Les miettes flottantesDans l’espace, l’absence de gravité empêche les miettes de pain de tomber au sol comme sur Terre. Ces miettes flottent librement dans l’habitacle, ce qui pose plusieurs problèmes :  - Danger pour les équipements : Les miettes peuvent s’introduire dans les instruments électroniques sensibles, causant des dysfonctionnements ou des pannes.  - Risque pour la santé des astronautes : Si une miette est inhalée par inadvertance, elle peut obstruer les voies respiratoires et provoquer des difficultés respiratoires.  2. Durée de conservationLe pain frais a une durée de vie relativement courte et peut rapidement moisir. Dans un environnement spatial où le ravitaillement est limité et où la fraîcheur des aliments est cruciale, le pain n’est pas pratique.  3. Problèmes d’hygièneLes miettes flottantes peuvent atterrir sur les vêtements, les surfaces ou dans les zones difficiles à nettoyer, compromettant ainsi l’hygiène et la propreté de l’environnement confiné.  Alternatives au pain dans l’espacePour éviter ces problèmes, les astronautes consomment des substituts comme les tortillas. Les tortillas ont plusieurs avantages :  - Pas de miettes : Contrairement au pain, elles ne se désagrègent pas facilement.  - Longue conservation : Elles peuvent être fabriquées avec des conservateurs pour durer plusieurs mois sans se détériorer.  - Facilité d’utilisation : Elles sont flexibles et peuvent envelopper divers aliments sans s’effriter. En résumé, le pain est inadapté à l’espace en raison des miettes flottantes, des risques pour les équipements et la santé, et de sa faible durée de conservation. Les tortillas, plus pratiques, ont remplacé le pain pour les repas en apesanteur. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Une équipe de linguistes de l'institut Max-Planck de psycholinguistique aux Pays-Bas a fait une découverte remarquable en 2013 : l'existence d'un mot véritablement universel, "hein?" (ou ses équivalents), présent dans 31 langues différentes à travers le monde. Ce qui rend cette découverte particulièrement intéressante est que ce mot ne semble pas avoir été emprunté d'une langue à une autre, mais s'être développé de manière indépendante dans diverses cultures. Pour parvenir à cette conclusion, les chercheurs ont mené une étude approfondie, analysant des conversations informelles dans des contextes très variés, allant des grandes métropoles aux villages les plus reculés. Dans certains cas, ils se sont même immergés pendant plusieurs semaines dans des communautés isolées pour observer et enregistrer des échanges spontanés. Ce mot universel partage des caractéristiques phonétiques remarquablement similaires dans toutes les langues étudiées. Il est systématiquement monosyllabique, prononcé avec une intonation interrogative, et souvent accompagné d'un léger coup de glotte. Sa fonction est également identique partout : il sert à signaler une incompréhension et à demander une clarification dans la conversation. Les chercheurs expliquent ce phénomène par ce qu'ils appellent une "convergence évolutive", concept emprunté à la biologie. Tout comme différentes espèces peuvent développer des caractéristiques similaires face à des défis environnementaux communs, les langues auraient évolué vers une solution commune pour répondre au besoin universel de gérer les incompréhensions dans les conversations. Cette découverte est d'autant plus significative qu'elle remet en question l'un des principes fondamentaux de la linguistique : l'arbitraire du signe, selon lequel il n'existe normalement pas de lien direct entre le son d'un mot et sa signification. "Hein?" semble constituer une rare exception à cette règle. Contrairement à des sons instinctifs comme les pleurs ou les gémissements, "hein?" est un mot qui s'apprend au cours du développement linguistique. Les enfants l'acquièrent en observant son usage dans les interactions sociales. Sa simplicité phonétique et sa prosodie interrogative en font un outil optimal pour réagir rapidement et clarifier une situation sans interrompre le flux naturel de la conversation. Cette découverte, récompensée par un Ig Nobel en 2013, illustre comment le langage humain peut développer des solutions universelles pour répondre à des besoins de communication fondamentaux, transcendant ainsi les barrières culturelles et linguistiques.  Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Vers l’âge de deux ans, les enfants commencent à faire quelque chose d’extraordinaire : ils interagissent avec des objets qui n’existent pas. Une tasse vide devient brûlante, un repas imaginaire est servi avec sérieux. Ce comportement n’est pas anecdotique : il révèle l’apparition du jeu symbolique, la capacité à suspendre la réalité pour en créer une autre. Longtemps, les scientifiques ont vu dans cette aptitude une signature exclusive de l’esprit humain, à l’origine de notre créativité, de nos récits et de notre culture. Mais une expérience récente invite à reconsidérer cette certitude. Cette étude, publiée dans la revue Science, met en scène un bonobo exceptionnel : Kanzi. Kanzi n’est pas un primate ordinaire. Depuis les années 1980, il est connu pour sa capacité à comprendre des centaines de symboles lexigrammes et des phrases complexes en anglais. Mais l’expérience du jus invisible va encore plus loin.Le protocole est volontairement simple. Un expérimentateur fait mine de verser du jus dans des récipients… totalement vides. Aucun liquide réel n’est présent. Il boit ensuite ce « jus invisible », puis propose à Kanzi d’en faire autant, ou de servir à son tour. La question est cruciale : Kanzi va-t-il simplement imiter des gestes mécaniques, ou va-t-il entrer dans la fiction, comme le ferait un enfant humain ?Le résultat est troublant. Kanzi ne se contente pas de porter la tasse à sa bouche. Il adapte ses gestes : il incline le récipient, attend, boit, parfois essuie sa bouche. Mieux encore, lorsqu’il « sert » quelqu’un d’autre, il respecte la logique de la scène imaginaire. Autrement dit, il agit comme si le jus existait, tout en sachant qu’il n’existe pas réellement.C’est précisément ce « comme si » qui fascine les chercheurs. Le jeu symbolique suppose une double représentation mentale : savoir ce qui est réel, tout en acceptant temporairement une réalité fictive. Jusqu’ici, cette capacité était considérée comme un marqueur clé de l’esprit humain, observable très tôt chez l’enfant, mais absente chez les autres espèces.L’expérience du jus invisible suggère donc que la frontière cognitive entre l’humain et les grands singes est plus poreuse qu’on ne le pensait. Elle ne prouve pas que les bonobos imaginent des mondes complexes ou racontent des histoires, mais qu’ils peuvent, dans certaines conditions, partager une fiction intentionnelle.Les implications sont profondes. Si l’imagination n’est pas exclusivement humaine, alors ses racines évolutives sont bien plus anciennes. L’art, le langage symbolique et la culture pourraient reposer sur des capacités déjà présentes chez nos cousins primates.En somme, quand Kanzi boit un jus qui n’existe pas, ce n’est pas un simple jeu. C’est peut-être une fenêtre ouverte sur l’origine biologique de notre pouvoir le plus singulier : imaginer ce qui n’est pas encore réel. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Pendant longtemps, certaines capacités cognitives ont été considérées comme un privilège humain. Se représenter un nombre abstrait, savoir si l’on sait ou si l’on ignore quelque chose, ou encore manipuler mentalement des concepts sans support concret. Or, une expérience récente menée en Allemagne est venue sérieusement bousculer cette frontière. Les héroïnes de cette découverte ne sont ni des singes ni des dauphins, mais… des corneilles.L’étude est conduite par l’équipe du neurobiologiste Andreas Nieder à l’Université de Tübingen. Son objectif : tester si ces oiseaux sont capables de ce que l’on appelle la métacognition, c’est-à-dire la capacité à évaluer ses propres connaissances. En clair : savoir si l’on a la bonne réponse… ou savoir que l’on ne l’a pas.Le protocole est redoutablement précis. Les corneilles sont entraînées à observer brièvement un écran affichant un certain nombre de points. Ensuite, l’image disparaît, et l’oiseau doit indiquer si le nombre présenté correspond à une valeur cible. Jusque-là, rien d’exceptionnel : beaucoup d’animaux savent distinguer des quantités simples. Mais voici la subtilité décisive. Dans certaines conditions, les corneilles ont la possibilité de renoncer à répondre lorsqu’elles ne sont pas sûres, évitant ainsi une pénalité.Et c’est là que l’exploit se produit. Les corneilles ne répondent pas au hasard. Elles choisissent de répondre lorsqu’elles ont vu clairement le stimulus… et s’abstiennent lorsqu’il est trop bref ou ambigu. Autrement dit, elles évaluent leur propre degré de certitude. Exactement le comportement attendu chez un humain conscient de ses limites.Mais l’expérience va encore plus loin. Les chercheurs enregistrent l’activité neuronale dans une zone du cerveau aviaire fonctionnellement équivalente au cortex préfrontal humain. Ils observent que certains neurones s’activent non pas en fonction de la réponse correcte, mais en fonction de la certitude subjective de l’oiseau. Ce signal neuronal de la confiance — que l’on pensait réservé aux primates — est bien présent chez la corneille.Jusqu’ici, ce type de test était considéré comme un marqueur fort de conscience de soi minimale. Il avait été validé chez l’humain, et de façon très débattue chez certains grands singes. Le voir réussi par un oiseau, dont le cerveau est organisé de manière très différente, est une surprise majeure.Cette découverte a des implications profondes. Elle montre que des fonctions cognitives dites “supérieures” peuvent émerger sans cortex cérébral, par des architectures neuronales totalement différentes. En clair : l’intelligence n’a pas un seul modèle biologique.Les corneilles ne parlent pas, n’écrivent pas, ne philosophent pas. Mais elles viennent de réussir un test qui, jusqu’à récemment, servait précisément à définir ce qui nous rendait uniques. Et cela oblige la science à revoir une vieille certitude : l’humain n’a peut-être jamais été aussi seul qu’il le croyait au sommet de l’intelligence. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
La question paraît anodine, presque ludique, pourtant, elle a occupé certains des plus grands mathématiciens modernes. Et la réponse est aujourd’hui claire, chiffrée, et contre-intuitive.Tout commence avec le mélange à l’américaine, appelé riffle shuffle : on coupe le paquet en deux, puis on entrelace les cartes. C’est le geste le plus courant chez les joueurs de poker et les croupiers. Mais est-il efficace ? Dans les années 1990, le mathématicien et ancien magicien Persi Diaconis, alors à Stanford, décide de répondre scientifiquement à la question.Avec ses collègues, il modélise mathématiquement le mélange de cartes comme un processus aléatoire et compare l’ordre du paquet après chaque mélange à un ordre parfaitement aléatoire. Leur verdict, publié en 1992, est sans appel : il faut exactement 7 mélanges riffle pour qu’un jeu de 52 cartes soit véritablement aléatoire.Avant 7 mélanges, le jeu n’est pas vraiment mélangé. Des structures subsistent, des cartes restent statistiquement proches de leur position d’origine. Après 7 mélanges, en revanche, on observe un phénomène brutal appelé transition de coupure (cutoff phenomenon) : le paquet passe soudainement d’un état “prévisible” à un état “indiscernable du hasard total”. Un 6ᵉ mélange est insuffisant ; le 7ᵉ fait basculer le système.Ce résultat est frappant quand on le compare au nombre total de configurations possibles d’un jeu de cartes : 52!, soit environ80 658 175 170 943 878 571 660 636 856 403 766 975…Un nombre si gigantesque que, si chaque personne sur Terre mélangeait un paquet chaque seconde depuis le Big Bang, il est extrêmement probable qu’aucun ordre n’ait jamais été répété. Et pourtant, seulement 7 mélanges bien faits suffisent pour atteindre cet océan de possibilités.Cette découverte a des implications bien au-delà des cartes. Les mêmes mathématiques servent à analyser :la sécurité des algorithmes cryptographiques,les méthodes de tirage au sort,le brassage des données en informatique,ou encore le mélange des particules en physique statistique.Conclusion surprenante : mélanger trop peu n’est pas du hasard, mais trop mélanger ne sert à rien. Les mathématiciens ont tranché : pour un jeu standard, 7 mélanges suffisent. Ni plus, ni moins. Une rare situation où le chaos obéit à une règle précise. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
À l’âge adulte, le corps humain compte environ 37 trillions de cellules. Pour comprendre pourquoi elles se divisent (certaines tout au long de leur vie comme les cellules de la peau, ou de l’intestin, il faut revenir à la fonction la plus fondamentale du vivant : se maintenir, se réparer et se transmettre. La division cellulaire n’est pas un détail technique de la biologie, c’est le mécanisme central qui rend la vie possible à toutes les échelles.La première raison est la croissance. Un organisme pluricellulaire, comme un humain, commence par une seule cellule : l’œuf fécondé. Pour devenir un corps composé de dizaines de milliers de milliards de cellules, il n’existe qu’une solution : se diviser encore et encore. Chaque division double le nombre de cellules, permettant la construction progressive des tissus, des organes, puis de l’organisme entier. Sans division cellulaire, aucun être complexe ne pourrait exister.La deuxième raison est le renouvellement. Les cellules ne sont pas immortelles. Elles s’usent, accumulent des dommages, ou sont simplement programmées pour mourir. Dans le corps humain, certaines cellules vivent très longtemps, mais d’autres sont renouvelées en permanence. Les cellules de la peau, par exemple, sont remplacées en quelques semaines. Les globules rouges vivent environ 120 jours. La division cellulaire permet donc de maintenir l’intégrité des tissus, en remplaçant continuellement ce qui disparaît.Troisième raison : la réparation. Lorsqu’un tissu est endommagé — une coupure, une brûlure, une fracture — ce sont les divisions cellulaires qui rendent la cicatrisation possible. Les cellules voisines se multiplient pour combler la perte, reconstruire la structure et restaurer la fonction. Sans cette capacité à se diviser, la moindre blessure serait irréversible.Mais il existe une raison encore plus fondamentale : la transmission de l’information génétique. Avant de se diviser, une cellule copie son ADN avec une extrême précision. La division permet ainsi de transmettre à chaque cellule fille une copie complète du programme biologique. C’est ce mécanisme qui assure la stabilité des espèces au fil des générations, mais aussi la reproduction chez les organismes unicellulaires, pour lesquels se diviser, c’est littéralement se reproduire.Enfin, la division cellulaire est strictement contrôlée. Une cellule ne se divise pas “par envie”, mais parce qu’elle reçoit des signaux précis : besoins de l’organisme, disponibilité des nutriments, absence de dommages génétiques. Lorsque ce contrôle échoue, les divisions deviennent anarchiques. C’est exactement ce qui se produit dans le cancer : des cellules se divisent sans raison fonctionnelle, au détriment de l’organisme.En résumé, les cellules se divisent pour grandir, durer, réparer et transmettre la vie. La division cellulaire n’est pas un accident de l’évolution : c’est l’un des piliers invisibles sur lesquels repose toute la biologie du vivant. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
En 1696, un défi mathématique bouleverse l’Europe savante. Une question simple, presque enfantine, est posée publiquement : par quel chemin un objet tombe-t-il le plus vite d’un point à un autre, sous l’effet de la gravité, sans frottement ? Ce problème prend un nom étrange, venu du grec : brachistochrone, littéralement « le temps le plus court ».À première vue, la réponse semble évidente. Le chemin le plus rapide devrait être la ligne droite, puisqu’il est le plus court. Pourtant, cette intuition est fausse. Et c’est précisément ce paradoxe qui rend le défi si célèbre.Le problème est formulé par Johann Bernoulli, l’un des plus brillants mathématiciens de son époque. Il lance un appel à tous les savants d’Europe. Parmi ceux qui relèvent le défi figurent Isaac Newton, Gottfried Wilhelm Leibniz et Jacob Bernoulli. Newton, raconte-t-on, reçoit l’énoncé en fin de journée et envoie sa solution… le lendemain matin.La solution est contre-intuitive : le chemin le plus rapide n’est ni une droite, ni un arc de cercle, mais une cycloïde. Il s’agit de la courbe décrite par un point situé sur une roue qui roule sans glisser. Cette trajectoire plonge d’abord très rapidement vers le bas, afin que l’objet acquière vite une grande vitesse, avant de s’adoucir progressivement à l’approche du point final.Pourquoi cela fonctionne-t-il ? Parce que le temps de parcours dépend non seulement de la distance, mais surtout de la vitesse acquise. En descendant plus brutalement au départ, l’objet gagne rapidement de l’énergie cinétique, ce qui lui permet de parcourir la suite du trajet beaucoup plus vite, même si le chemin est plus long que la ligne droite.Ce résultat marque un tournant majeur dans l’histoire des sciences. Le défi de la brachistochrone contribue à la naissance du calcul des variations, une branche des mathématiques qui cherche à optimiser des quantités comme le temps, l’énergie ou la distance. Ces outils seront ensuite essentiels en mécanique, en optique, en ingénierie… et même dans l’économie moderne.La brachistochrone a aussi une portée pédagogique remarquable. Elle montre que la nature n’obéit pas toujours à notre intuition, et que l’optimal n’est pas forcément le plus simple. On retrouve ce principe dans des domaines aussi variés que la conception des montagnes russes, la trajectoire des satellites ou l’optimisation des réseaux.Plus de trois siècles plus tard, ce défi reste un chef-d’œuvre intellectuel : une question apparemment anodine, capable de révéler toute la profondeur des lois du mouvement. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
La Grande Pyramide de Gizeh est traditionnellement attribuée au pharaon Khéops, vers 2600 avant notre ère. Ce consensus archéologique repose sur des inscriptions, des datations indirectes et le contexte historique de l’Ancien Empire égyptien. Pourtant, une hypothèse récente vient bousculer cette chronologie bien établie : et si les pharaons n’avaient pas construit la pyramide, mais simplement restauré un monument beaucoup plus ancien ?Cette idée est défendue par Alberto Donini, ingénieur à l’University of Bologna. Dans une étude encore préliminaire et non validée par les pairs, il suggère que la Grande Pyramide pourrait remonter à une période antérieure à l’émergence de la civilisation égyptienne classique.Son raisonnement s’appuie sur plusieurs observations. D’abord, certaines parties internes du monument présentent des traces d’érosion et d’altération qui, selon lui, seraient difficiles à expliquer par seulement 4 600 ans d’exposition. Il évoque notamment des formes d’usure qui pourraient indiquer un contact prolongé avec de grandes quantités d’eau, dans un contexte climatique beaucoup plus humide que celui de l’Égypte pharaonique connue.Autre argument : l’extraordinaire précision géométrique de la pyramide. L’alignement quasi parfait sur les points cardinaux et les proportions mathématiques remarquables suscitent depuis longtemps l’admiration. Pour Donini, ce niveau de maîtrise pourrait provenir d’un héritage technologique antérieur, transmis ou redécouvert par les bâtisseurs égyptiens, plutôt que d’une invention purement locale et soudaine.Dans ce scénario, les pharaons auraient trouvé une structure déjà existante, partiellement endommagée, qu’ils auraient consolidée, habillée de nouveaux blocs et intégrée à leur propre tradition religieuse, en la transformant en tombe royale. Autrement dit, Khéops n’aurait pas été le constructeur originel, mais le grand rénovateur d’un édifice hérité.Cependant, cette hypothèse reste hautement controversée. Les égyptologues soulignent que les carrières identifiées, les outils retrouvés, les graffitis de chantiers et l’organisation logistique connue de l’Ancien Empire concordent fortement avec une construction sous le règne de Khéops. De plus, aucune preuve matérielle indiscutable ne démontre l’existence d’une civilisation antérieure capable d’ériger un tel monument sur le plateau de Gizeh.Ce débat illustre un aspect essentiel de la science : la remise en question permanente. Proposer une idée audacieuse ne suffit pas ; elle doit être testée, vérifiée et confrontée aux données existantes. Pour l’instant, l’hypothèse d’une pyramide pré-pharaonique demeure spéculative.Mais elle a le mérite de rappeler à quel point la Grande Pyramide reste un objet de fascination et de mystère. Même après des siècles d’études, ce monument continue de nourrir des questions fondamentales sur les capacités techniques, l’organisation sociale et l’histoire profonde de l’humanité. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Pendant des décennies, la science a accumulé des preuves solides montrant que l’activité physique régulière réduit le risque de développer plusieurs types de cancers. Pourtant, une question demeurait : comment, concrètement, le mouvement protège-t-il nos cellules ? Une équipe de chercheurs de l’Yale University a récemment mis en lumière un mécanisme fascinant : l’exercice physique affame littéralement les tumeurs.Pour comprendre cette découverte, il faut s’intéresser au carburant principal des cellules : le glucose, un sucre issu de notre alimentation. Les cellules cancéreuses en sont particulièrement friandes. Elles consomment d’énormes quantités d’énergie afin de soutenir leur croissance rapide. C’est d’ailleurs cette voracité qui est exploitée dans certains examens d’imagerie médicale, où l’on injecte du glucose marqué pour repérer les zones anormalement actives.Lorsque nous faisons du sport, un phénomène majeur se produit : les muscles deviennent extrêmement gourmands en énergie. Pour se contracter, ils puisent massivement dans le glucose circulant dans le sang. Cette captation est si importante qu’elle provoque une véritable compétition entre les muscles et les autres tissus de l’organisme.Or, les chercheurs ont observé que, durant l’effort, les muscles gagnent cette compétition. Ils captent une grande partie du glucose disponible, ce qui laisse moins de carburant accessible aux cellules cancéreuses. Résultat : privées d’une ressource essentielle, ces cellules voient leur croissance ralentir, et certaines finissent même par mourir.Ce mécanisme va au-delà d’un simple « manque d’énergie ». Les scientifiques ont constaté que l’environnement métabolique créé par l’exercice modifie profondément le comportement des tumeurs. Les voies biologiques qui favorisent leur prolifération deviennent moins actives, tandis que des signaux associés au stress cellulaire augmentent. En clair, l’effort physique transforme l’organisme en un terrain beaucoup moins favorable au développement du cancer.Autre point important : cet effet n’est pas réservé aux sportifs de haut niveau. Des activités modérées, comme la marche rapide, le vélo ou la natation, suffisent à déclencher cette redistribution de l’énergie. Ce qui compte avant tout, c’est la régularité.Cette découverte ouvre des perspectives majeures. Elle renforce l’idée que l’activité physique n’est pas seulement un outil de prévention, mais pourrait aussi devenir un complément thérapeutique aux traitements existants. En association avec la chimiothérapie, l’immunothérapie ou la radiothérapie, le sport pourrait contribuer à fragiliser les tumeurs en réduisant leur accès aux ressources énergétiques.En résumé, bouger ne se contente pas de renforcer le cœur ou les muscles : cela modifie profondément la façon dont l’énergie circule dans le corps. Et dans ce nouvel équilibre, ce sont les cellules cancéreuses qui se retrouvent perdantes. Une raison supplémentaire de considérer l’activité physique comme un véritable acte de santé. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Compter sur ses doigts est souvent perçu comme une habitude enfantine dont il faudrait se défaire rapidement. Pourtant, cette stratégie intuitive joue un rôle fondamental dans l’apprentissage des mathématiques. Une étude récente menée par Jennifer Way et Katherine Cartwright, chercheuses à l’University of Sydney, montre que l’usage des doigts constitue un véritable atout pour le développement du sens du nombre, en particulier chez les enfants de moins de sept ans.Dès les premières années de vie, les enfants apprennent à associer des quantités à des symboles. Or, les chiffres sont abstraits : le « 5 » écrit ne ressemble en rien à cinq objets réels. Les doigts, eux, offrent une représentation concrète et immédiatement disponible. Lorsque l’enfant lève trois doigts, il ne voit pas seulement un symbole, il perçoit physiquement la quantité. Cette correspondance directe aide à construire des bases solides pour comprendre ce que représentent réellement les nombres.L’étude montre que les enfants qui utilisent régulièrement leurs doigts développent souvent une meilleure précision dans les petites additions et soustractions. Les doigts servent alors de support temporaire, une sorte de « mémoire externe » qui allège la charge cognitive. Au lieu de tout garder en tête, l’enfant peut s’appuyer sur ses mains pour visualiser les opérations, ce qui libère des ressources mentales pour réfléchir au raisonnement.Un autre avantage important est le lien entre mouvement et cognition. Le cerveau humain est fortement influencé par les actions du corps. Bouger ses doigts pendant qu’on compte active simultanément des zones impliquées dans la motricité et dans le traitement des nombres. Cette double activation renforce les connexions neuronales associées au calcul et favorise une compréhension plus profonde.Contrairement à une idée répandue, compter sur ses doigts ne retarde pas l’accès au calcul mental. Au contraire, il constitue une étape naturelle vers l’abstraction. Avec le temps et l’entraînement, l’enfant n’a plus besoin de lever physiquement les doigts, mais il conserve une représentation mentale interne des quantités, héritée de cette expérience concrète.Les chercheuses soulignent cependant que cette méthode est surtout bénéfique avant l’âge de sept ans. Passé ce stade, l’objectif n’est pas d’interdire les doigts, mais d’accompagner progressivement l’enfant vers des stratégies plus mentales, en respectant son rythme.Encourager un enfant à compter sur ses doigts, ce n’est donc pas encourager une « facilité », mais soutenir un mécanisme naturel d’apprentissage. Les doigts sont les premiers outils mathématiques de l’être humain. Les accepter comme tels, c’est offrir aux enfants une base solide pour construire, plus tard, des compétences numériques durables et confiantes. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Lorsque l’hiver arrive dans l’hémisphère nord, beaucoup de personnes ont la même impression : le ciel nocturne semble plus spectaculaire. Les étoiles paraissent plus nombreuses, plus nettes, parfois même plus scintillantes. Pourtant, leur luminosité intrinsèque ne change pas au fil des saisons. Ce sont surtout les conditions d’observation depuis la Terre qui évoluent, et elles deviennent particulièrement favorables en hiver.En hiver, l’air est généralement plus froid et plus sec. Or, la vapeur d’eau contenue dans l’atmosphère agit comme un filtre : elle diffuse et absorbe une partie de la lumière provenant des étoiles. Quand l’air contient moins d’humidité, il devient plus transparent, ce qui permet à davantage de lumière stellaire d’atteindre nos yeux.De plus, les basses températures réduisent les mouvements turbulents de l’air. Ces turbulences, fréquentes en été lorsque les masses d’air chaud et froid se mélangent, déforment légèrement les rayons lumineux et donnent l’impression que les étoiles « tremblent » ou perdent en netteté. En hiver, l’atmosphère est souvent plus stable, ce qui améliore la précision et la luminosité apparente des étoiles.Les beaux jours favorisent la présence de pollen, de poussières et de polluants en suspension dans l’air. Ces particules diffusent la lumière artificielle et naturelle, créant une sorte de voile lumineux qui affaiblit le contraste du ciel nocturne. En hiver, l’air est souvent plus « propre », notamment après le passage de systèmes météorologiques qui chassent les particules vers le sol. Résultat : un fond de ciel plus sombre et des étoiles qui ressortent davantage.Un autre facteur évident joue en faveur de l’hiver : la durée de la nuit. Les nuits plus longues permettent d’observer le ciel dans des conditions de noirceur plus marquées, loin des lueurs du crépuscule. Plus le ciel est sombre, plus l’œil humain est capable de percevoir des étoiles faibles, ce qui renforce l’impression de richesse et de brillance du ciel.L’hiver correspond aussi à l’apparition de certaines constellations parmi les plus spectaculaires. Orion, par exemple, abrite plusieurs étoiles très brillantes. Sirius, l’étoile la plus lumineuse du ciel nocturne, est également une vedette des nuits hivernales. La présence de ces astres remarquables contribue fortement à l’impression globale d’un ciel plus éclatant.En résumé, les étoiles ne produisent pas plus de lumière en hiver. Elles paraissent plus brillantes parce que l’atmosphère laisse mieux passer leur lumière, que le ciel est plus sombre, et que des étoiles intrinsèquement très lumineuses dominent la voûte céleste. L’hiver agit ainsi comme un « nettoyeur » naturel du ciel, offrant aux observateurs un spectacle cosmique particulièrement saisissant. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
La propulsion autophage est un concept expérimental en ingénierie spatiale qui désigne un type de moteur-fusée capable de consommer une partie de sa propre structure pour produire de la poussée. Autrement dit, le moteur utilise certains de ses composants solides à la fois comme éléments de structure et comme carburant.Dans une fusée classique, le carburant et le comburant sont stockés dans des réservoirs distincts, puis acheminés vers une chambre de combustion à l’aide de pompes ou de systèmes sous pression. Ces réservoirs, canalisations et structures représentent une masse importante qui ne participe pas directement à la propulsion. La propulsion autophage cherche à réduire cette masse « inutile » en fusionnant plusieurs fonctions en une seule.Le principe repose sur l’utilisation d’un matériau solide, souvent un polymère spécifique, qui constitue la paroi du moteur. Sous l’effet de la chaleur interne, ce matériau est progressivement fondu ou décomposé chimiquement. La matière obtenue est ensuite dirigée vers la chambre de combustion, où elle est mélangée à un oxydant, généralement stocké dans un réservoir séparé. Le mélange brûle, produisant des gaz chauds expulsés par la tuyère, ce qui génère la poussée. À mesure que le moteur fonctionne, ses parois sont donc lentement consommées.Ce fonctionnement explique l’appellation « autophage », qui signifie littéralement « qui se mange soi-même ».Ce concept présente plusieurs avantages théoriques. D’abord, il permet une réduction importante de la masse totale du lanceur, car une partie de la structure devient utile à la propulsion. Ensuite, il simplifie l’architecture du moteur, en diminuant le nombre de réservoirs, de conduites et de composants complexes. Enfin, cette approche pourrait améliorer le rapport entre la masse de carburant et la masse totale, ce qui est un facteur clé pour augmenter les performances des fusées.La propulsion autophage se rapproche des moteurs hybrides, qui combinent un carburant solide et un oxydant liquide, mais avec une différence majeure : dans un moteur hybride classique, le carburant solide est un bloc distinct, alors que dans un moteur autophage, la structure elle-même joue ce rôle.On peut citer le cas de la start-up française Alpha Impulsion, qui se distingue par le développement d’une technologie de propulsion autophage appliquée aux lanceurs spatiaux. L’entreprise mise sur des matériaux et des procédés permettant au moteur de consommer sa propre structure de manière contrôlée, avec l’objectif de réduire la masse des systèmes, de limiter les déchets et d’abaisser l’empreinte environnementale des lancements. Selon Alpha Impulsion, cette approche pourrait contribuer à rendre l’accès à l’espace à la fois plus économique et plus durable, en simplifiant la conception des fusées tout en améliorant leur efficacité globale. Malgré son potentiel, cette technologie reste au stade de la recherche. Plusieurs défis techniques subsistent, notamment le contrôle précis de la vitesse de consommation du matériau, la stabilité de la combustion et la garantie de la solidité mécanique du moteur pendant que sa structure s’amincit. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Juste après le décollage, beaucoup de passagers ressentent une sensation déroutante : l’impression que l’avion, après avoir grimpé, se met soudainement à redescendre. Certains parlent même d’une « chute » quelques dizaines de secondes après avoir quitté le sol. Pourtant, du point de vue de la physique, l’avion continue bel et bien de monter. Cette impression est une illusion sensorielle, née d’un décalage entre ce que font réellement l’appareil et ce que perçoit notre corps.Commençons par le déroulement d’un décollage. Lorsqu’un avion quitte la piste, les moteurs délivrent une poussée maximale pour atteindre la vitesse nécessaire à l’envol. L’appareil adopte ensuite un angle de montée relativement prononcé afin de gagner rapidement de l’altitude. Cette phase initiale est énergivore, mais indispensable pour s’éloigner du sol et des obstacles.Environ 20 à 40 secondes après le décollage, les pilotes réduisent volontairement la puissance des moteurs. Cette étape, parfaitement normale, s’appelle la réduction de poussée ou « thrust reduction ». Elle vise à préserver les moteurs, diminuer le bruit et optimiser la consommation de carburant. L’avion continue de grimper, mais avec une accélération moindre.C’est précisément ce changement qui trompe notre cerveau. Pendant la forte accélération initiale, notre corps est plaqué contre le siège. Lorsque la poussée diminue, cette pression se relâche légèrement. Le cerveau interprète alors ce relâchement comme une perte d’altitude, alors qu’il s’agit simplement d’une variation d’accélération.À cela s’ajoute le rôle central de l’oreille interne, et plus précisément du système vestibulaire. Ce système est chargé de détecter les mouvements et les accélérations de la tête. Il fonctionne très bien pour les mouvements courants, mais il est facilement trompé dans des environnements inhabituels comme un avion. Lorsqu’une accélération change brusquement, l’oreille interne peut envoyer au cerveau un signal erroné suggérant une descente.La vision joue également un rôle. Dans un avion, surtout de nuit ou par temps couvert, il n’y a souvent aucun repère visuel extérieur permettant de confirmer la montée. Privé d’indices visuels, le cerveau se fie davantage aux sensations internes, plus sujettes à l’erreur.Il existe même un nom pour ce type d’illusion : l’illusion somatogravique. Elle correspond à une mauvaise interprétation des accélérations linéaires comme des variations d’orientation ou d’altitude.En résumé, l’avion ne tombe pas après le décollage. Il poursuit son ascension, mais avec une puissance moteur réduite. La sensation de chute est une construction de notre cerveau, prise au piège par ses propres capteurs biologiques. Une preuve de plus que, face à la physique du vol, nos sens ne sont pas toujours des instruments fiables. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Quand on imagine la fonte de l’Antarctique, on pense spontanément à une glace qui disparaît par le dessus, sous l’effet de l’air plus chaud. Pourtant, la réalité est plus complexe : l’Antarctique fond en grande partie par le dessous. Et ce processus discret, invisible depuis la surface, joue un rôle majeur dans l’accélération de la perte de glace.La calotte glaciaire antarctique repose sur un socle rocheux irrégulier. Dans de nombreuses régions, ce socle se situe même sous le niveau de la mer. Entre la roche et la glace circule de l’eau liquide, formant un immense réseau de rivières et de lacs sous-glaciaires. Cette eau provient principalement de deux sources : la chaleur géothermique émise par la Terre et la pression énorme exercée par la glace elle-même, qui abaisse le point de fusion.Cette fine couche d’eau agit comme un lubrifiant. Elle réduit la friction entre la glace et le sol, permettant aux glaciers de glisser plus facilement vers l’océan. Plus l’eau est abondante, plus la glace se déplace rapidement. Et lorsque ces glaciers atteignent la mer, ils contribuent directement à l’élévation du niveau des océans.À cela s’ajoute un autre mécanisme clé : l’intrusion d’eaux océaniques relativement chaudes sous les plateformes de glace flottantes. Autour de l’Antarctique, certaines masses d’eau profondes sont quelques degrés plus chaudes que l’eau de surface. Elles s’infiltrent sous les plateformes glaciaires et provoquent une fonte basale, c’est-à-dire par le dessous. Ce phénomène amincit la glace, la fragilise et facilite le détachement d’icebergs.Longtemps, ces processus ont été difficiles à quantifier, car ils se déroulent sous plusieurs kilomètres de glace. Mais des chercheurs ont récemment développé un modèle informatique de nouvelle génération capable de simuler, à l’échelle du continent entier, la circulation de l’eau sous-glaciaire et son interaction avec le mouvement de la glace. Ce modèle combine données satellitaires, topographie du socle, température, pression et dynamique des glaciers.Les résultats montrent que l’eau sous-glaciaire ne s’écoule pas au hasard. Elle suit des chemins organisés, influencés par les pentes du terrain et l’épaisseur de la glace. Ces flux contrôlent directement la vitesse des glaciers. Dans certaines régions, un léger changement dans la distribution de l’eau peut suffire à accélérer fortement l’écoulement vers la mer.En résumé, l’Antarctique ne fond pas seulement en surface : il fond par en dessous, sous l’effet conjoint de la chaleur interne de la Terre et des eaux océaniques plus chaudes. Comprendre ces mécanismes est essentiel, car ils conditionnent la stabilité future de la calotte glaciaire et donc l’ampleur de la montée des océans dans les décennies à venir. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Lorsqu’un objet se brise, notre impression immédiate est celle du chaos : des morceaux de tailles variées, projetés dans toutes les directions, sans logique apparente. Pourtant, qu’il s’agisse d’un verre qui éclate, d’un sucre que l’on écrase ou d’une bulle de savon qui disparaît, ces phénomènes obéissent à des règles étonnamment similaires. C’est ce que révèle une avancée récente en physique : la fragmentation suit une loi universelle.Pour comprendre cela, il faut d’abord s’intéresser à la notion de contraintes internes. Tous les matériaux, même les plus solides, contiennent des défauts microscopiques : fissures invisibles, zones plus fragiles, irrégularités dans leur structure. Lorsqu’une force est appliquée — choc, pression, tension — l’énergie se propage dans l’objet sous forme d’ondes mécaniques. Ces ondes se concentrent naturellement autour des défauts, où la rupture commence.Ce qui est remarquable, c’est que la façon dont l’énergie se répartit dans le matériau détermine directement la taille et le nombre des fragments produits. Un physicien français a récemment proposé une équation capable de décrire cette répartition, quel que soit l’objet étudié. Verre, céramique, sucre, métal mince ou même bulles de liquide : tous suivent la même courbe statistique.Cette courbe montre que les petits fragments sont toujours très nombreux, tandis que les gros morceaux sont beaucoup plus rares. Autrement dit, il existe une relation mathématique stable entre la taille d’un fragment et sa probabilité d’apparition. Ce type de relation est appelé une loi d’échelle : on retrouve la même forme de distribution, que l’on casse un grain de sucre ou un bloc de roche.Pourquoi une telle universalité ? Parce que, au moment de la rupture, le matériau n’« hésite » pas. Dès que la contrainte dépasse un seuil critique, un réseau de fissures se propage à grande vitesse, se ramifie et se croise. Ce processus de propagation est gouverné par des équations fondamentales de la mécanique et de la physique des matériaux, indépendantes de la nature précise de l’objet.Même une bulle de savon suit cette logique. Lorsqu’elle éclate, la fine membrane liquide se déchire en multiples filaments, qui se fragmentent à leur tour en microgouttelettes. Là encore, la distribution des tailles des gouttes correspond à la même loi que celle observée pour des solides.Cette découverte a des implications concrètes. Elle permet d’améliorer la conception de matériaux résistants aux chocs, de mieux comprendre l’érosion des roches, ou encore d’optimiser des procédés industriels comme le broyage et le concassage.En résumé, si un objet semble se briser « toujours de la même façon », ce n’est pas par hasard. Derrière le désordre visible se cache un ordre mathématique profond : une loi universelle de la fragmentation, qui révèle que le chaos, en physique, est souvent bien plus organisé qu’il n’y paraît. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
La question « Où se trouve Dieu dans l’Univers ? » traverse l’histoire humaine depuis des millénaires. Religieuse, philosophique, mais aussi scientifique, elle touche à notre besoin profond de situer l’infini dans un cadre compréhensible. Récemment, un ancien physicien de Harvard, le Dr Michael Guillén, a relancé le débat en avançant une idée spectaculaire : Dieu pourrait avoir une localisation précise dans l’espace.Selon lui, des calculs issus de modèles cosmologiques conduiraient à situer Dieu à environ 439 milliards de milliards de kilomètres de la Terre, une distance vertigineuse qui dépasse largement notre capacité d’imagination. L’argument repose sur une réflexion autour des limites observables de l’Univers et de l’idée qu’au-delà de ce que nous pouvons mesurer, il existerait une frontière ultime, assimilée à un point d’origine ou de transcendance.Cette proposition intrigue, car elle semble donner une « adresse » à une entité traditionnellement décrite comme immatérielle, éternelle et omniprésente. Or, c’est précisément là que le problème apparaît.Du point de vue de la physique moderne, l’Univers n’est pas une structure fixe avec un centre clairement défini. Depuis les travaux d’Edwin Hubble au XXᵉ siècle, nous savons que l’Univers est en expansion : toutes les galaxies s’éloignent les unes des autres. Mais cette expansion ne part pas d’un point central comme une explosion classique. Chaque région de l’espace s’étire, ce qui signifie qu’il n’existe pas de « milieu » absolu de l’Univers.Autrement dit, parler d’un endroit précis où se situerait Dieu pose une difficulté majeure : l’espace lui-même est en mouvement, et ses dimensions évoluent constamment. Une distance calculée aujourd’hui n’aurait donc pas de valeur fixe dans le temps cosmique.De plus, la science ne peut étudier que ce qui est mesurable. Les instruments observent des particules, des champs, de l’énergie. Dieu, par définition théologique, échappe à ces catégories. Le placer quelque part dans l’espace revient à le transformer en objet physique, ce qui contredit la conception dominante des grandes religions, pour lesquelles Dieu est hors de l’espace et du temps.L’hypothèse de Michael Guillén peut alors être comprise moins comme une affirmation scientifique stricte que comme une métaphore : une tentative de traduire en langage mathématique une idée spirituelle, celle d’un principe premier situé au-delà du monde observable.Finalement, la science répond surtout à une chose : elle ne sait pas localiser Dieu. Elle peut décrire l’âge de l’Univers, sa taille approximative, ses lois fondamentales, mais elle s’arrête aux portes du sens ultime.La question « Où est Dieu ? » demeure donc, pour l’instant, du domaine de la foi et de la philosophie. Peut-être que, plutôt que d’être quelque part dans l’Univers, Dieu serait — pour ceux qui y croient — ce qui rend l’Univers possible. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Et si, demain, votre mot de passe le plus sûr n’était plus votre visage, votre doigt… mais votre cerveau ? Cette idée, qui relevait encore récemment de la science-fiction, est en train de devenir une réalité grâce à un nouveau champ de recherche : l’identification neuronale.L’identification neuronale repose sur un principe simple en apparence : chaque cerveau produit une activité électrique unique. Lorsque nous pensons, regardons une image ou réagissons à un stimulus, des milliards de neurones s’activent selon des schémas spécifiques. Or, ces schémas varient d’un individu à l’autre, un peu comme une signature invisible. L’objectif est donc de transformer cette activité cérébrale en identifiant biométrique.Concrètement, cette technologie utilise des capteurs capables d’enregistrer des signaux cérébraux, souvent via des électroencéphalogrammes, ou EEG. L’utilisateur porte un casque ou un dispositif léger qui capte les ondes émises par son cerveau pendant qu’il effectue une tâche simple : regarder une forme, écouter un son, ou se concentrer sur une image. Ces données sont ensuite analysées par des algorithmes d’intelligence artificielle, qui extraient des caractéristiques stables propres à chaque personne.C’est précisément l’approche développée par la start-up française Yneuro avec son système Neuro ID, présenté comme la première solution d’authentification biométrique fondée sur l’activité cérébrale. L’ambition est claire : proposer une alternative aux méthodes actuelles comme les empreintes digitales, la reconnaissance faciale ou l’iris.Pourquoi chercher à dépasser ces technologies déjà très répandues ? Parce qu’elles ont des failles. Un visage peut être copié à partir d’une photo, une empreinte digitale peut être reproduite, et les bases de données biométriques peuvent être piratées. Le cerveau, lui, est beaucoup plus difficile à imiter. Les signaux neuronaux sont dynamiques, complexes, et quasiment impossibles à deviner sans être physiquement la personne concernée.Autre avantage majeur : l’identification neuronale pourrait permettre une authentification dite « vivante ». Autrement dit, le système ne vérifie pas seulement une caractéristique statique, mais une activité cérébrale en temps réel, ce qui réduit fortement les risques d’usurpation.Pour autant, cette technologie ne rendra pas immédiatement obsolètes les méthodes actuelles. Les capteurs doivent encore être miniaturisés, rendus confortables et peu coûteux. Des questions éthiques majeures se posent aussi : que devient la confidentialité des données cérébrales ? Qui les stocke ? Et dans quel but ?L’identification neuronale ouvre donc une nouvelle ère de la biométrie. Une ère fascinante, prometteuse… mais qui exigera des garde-fous solides. Car pour la première fois, ce n’est plus notre corps que l’on utilise comme clé d’accès, mais l’intimité même de notre activité mentale. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
loading
Comments (13)

Thibault de Changy

toujours des doublons du podcast sciences

Apr 18th
Reply

Thibault de Changy

sounds dress episodes science !!

Apr 10th
Reply

bouclé

continuer 😊🌹

Apr 28th
Reply

Mina Duchateau

merci merci merci, un vrai plaisir de vous écouter. J'ai une question : quel est la raison d'un bégaiement ? comment ça se déclenche/ fonctionne ?

Mar 19th
Reply

Yvan Shema

Que Dieu aïe pitié de tous les utilisateurs de cette appli.

Mar 16th
Reply

Thibault de Changy

le contenu du podcast est erroné

Sep 2nd
Reply

marc Genevey

j'adore! un seul reproche : l'accélération de l'enregistrement est très souvent exagéré, et nuit au plaisir de l'écoute.

Jul 27th
Reply

unknow1991

g5y nth. h

Jul 10th
Reply (1)

Artin akbari

👏🏻

Jan 22nd
Reply

Inès B

C'est peut-être une question bête mais... pourquoi partir du principe que Hercule et la tortue courent à la même vitesse ? C'est peu vraisemblable

Feb 17th
Reply

guipoum

je les ecoutent tous. vous avez 3 podcasts cesr bien ça?

Nov 28th
Reply

Valérie Schneider

Mon rituel du matin, pendant que je me lave ! Très instructif et ludique. J'écoute également Choses à savoir Culture générale et Choses à savoir Santé.

Jul 20th
Reply