Discover
Choses à Savoir SCIENCES

Choses à Savoir SCIENCES
Author: Choses à Savoir
Subscribed: 13,561Played: 661,245Subscribe
Share
© Choses à Savoir
Description
Développez facilement votre culture scientifique grâce à un podcast quotidien !
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
2384 Episodes
Reverse
Lorsque l’on observe un singe sautant de branche en branche ou un chien remuant joyeusement l’arrière-train, une question s’impose : pourquoi nous, humains, avons-nous perdu la queue, alors qu’elle reste si utile chez beaucoup d’animaux ? La réponse n’est pas seulement une curiosité anatomique : elle raconte une partie de notre histoire évolutive.Une relique dans notre corpsChez l’embryon humain, une petite queue apparaît bel et bien. Vers la quatrième semaine de développement, un bourgeon caudal se forme, constitué de plusieurs vertèbres. Mais très vite, ce prolongement régresse et disparaît presque complètement. À la naissance, il ne reste qu’un vestige : le coccyx, situé tout en bas de la colonne vertébrale. Comme le souligne Jean-François Bodart, professeur de biologie cellulaire et du développement à l’université de Lille, « le coccyx est un témoin discret mais indiscutable de notre passé : il atteste que nous descendons bien d’ancêtres pourvus d’une queue ».Une question d’évolutionLa queue a longtemps joué un rôle majeur dans l’équilibre et la locomotion de nos ancêtres. Mais à partir du moment où les hominidés ont adopté une posture bipède, il y a environ 20 millions d’années, son utilité a progressivement disparu. En marchant debout, les humains ont trouvé un nouvel équilibre centré sur le bassin. « La sélection naturelle n’a pas conservé la queue chez nos ancêtres car elle ne représentait plus un avantage fonctionnel », explique Jean-François Bodart.Quand la génétique s’en mêleRécemment, les chercheurs ont identifié des mutations génétiques qui auraient contribué à cette perte. Un gène appelé TBXT (ou T-box transcription factor T) est particulièrement suspecté. Présent chez de nombreux vertébrés, il joue un rôle clé dans la formation de la colonne et du bourgeon caudal. Des variations dans son expression auraient pu conduire, chez les primates supérieurs, à une régression de la queue. Pour Bodart, « il ne s’agit pas d’un événement unique, mais d’un processus progressif au cours duquel plusieurs modifications génétiques se sont accumulées ».Une fonction remplacéeSans queue, avons-nous perdu quelque chose ? Pas vraiment. Le coccyx, loin d’être inutile, sert de point d’ancrage à plusieurs muscles et ligaments essentiels pour la posture assise et la continence. En un sens, il s’agit d’une transformation plutôt qu’une disparition. « L’évolution recycle en permanence ce qui existe déjà, rappelle Bodart. Le coccyx est devenu une pièce de charpente interne adaptée à notre mode de vie bipède. »Une histoire d’adaptationEn définitive, si nous n’avons plus de queue, c’est parce que nous n’en avions plus besoin. Notre évolution a privilégié la station debout et la libération des mains, au détriment d’un appendice devenu superflu. Ce petit vestige osseux que nous sentons parfois en tombant sur les fesses est la preuve silencieuse de millions d’années d’adaptations. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
On imagine souvent les arbres des villes comme fragiles, souffrant de la pollution, du manque d’espace ou de l’asphalte qui les entoure. Pourtant, une découverte récente menée par un chercheur québécois vient bousculer cette idée reçue. En étudiant la résistance des érables à Montréal, il a constaté que ceux plantés le long des rues semblaient… mieux résister à la sécheresse que leurs congénères installés dans les parcs et espaces verts. Une conclusion pour le moins surprenante, mais qui s’explique par des mécanismes biologiques subtils.L’expérience montréalaiseL’objectif de l’étude était clair : comprendre comment les arbres réagissent aux épisodes de sécheresse, qui se multiplient avec le réchauffement climatique. Pour cela, le chercheur a comparé les érables qui bordent les rues de Montréal avec ceux des grands espaces verts de la ville. En mesurant différents paramètres physiologiques, comme l’ouverture des stomates (ces minuscules pores qui régulent l’entrée et la sortie de l’air et de l’eau), il a observé une différence notable entre les deux groupes.Le paradoxe des arbres de rueLes résultats ont montré que les arbres urbains, pourtant soumis à un environnement a priori plus hostile — chaleur accrue, sols compactés, pollution —, développaient une meilleure tolérance à la sécheresse. Comment est-ce possible ? L’explication réside dans un phénomène d’adaptation : exposés en permanence à des conditions difficiles, ces arbres finissent par “entraîner” leur physiologie pour mieux gérer le stress hydrique.Une gestion plus stricte de l’eauConcrètement, les érables de rue ont appris à fermer plus rapidement leurs stomates pour éviter la perte d’eau, et à optimiser leur système racinaire pour puiser l’humidité disponible. Cette stratégie leur permet de survivre plus facilement aux périodes de manque d’eau. À l’inverse, les arbres des parcs, qui bénéficient d’un sol plus favorable et d’une relative abondance en eau, ne développent pas les mêmes mécanismes de défense. Lorsque survient une sécheresse, ils y sont paradoxalement plus vulnérables.Des leçons pour l’avenirCette découverte n’est pas qu’une curiosité scientifique : elle apporte des enseignements précieux pour l’aménagement urbain. Elle montre que les arbres ne sont pas seulement des victimes passives de la ville, mais qu’ils peuvent s’y adapter de manière surprenante. À l’heure où les épisodes de chaleur et de sécheresse s’intensifient, comprendre ces mécanismes d’adaptation pourrait aider les urbanistes à mieux choisir les espèces à planter, ou à développer des techniques favorisant la résilience des espaces verts.Une vision renouvelée des arbres urbainsAu final, cette étude québécoise rappelle que les arbres des villes ne sont pas que des décorations de trottoir : ce sont de véritables athlètes de la survie, capables de transformer les contraintes en avantages adaptatifs. Loin d’être condamnés, ils pourraient bien devenir nos alliés les plus résistants face aux défis climatiques à venir. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Entre 50 et 160 kilomètres au-dessus de nos têtes s’étend une région méconnue de l’atmosphère. Les scientifiques l’appellent l’ignorosphère, un surnom qui traduit bien l’état actuel de nos connaissances : presque rien. Cette zone, située entre la stratosphère et l’espace, reste l’un des grands angles morts de la recherche atmosphérique.Trop haute pour les avions, trop basse pour les satellitesPourquoi l’ignorosphère est-elle si mal connue ? Parce qu’elle occupe un territoire inaccessible. Les avions commerciaux plafonnent autour de 12 kilomètres d’altitude, les avions de chasse peuvent monter un peu plus haut, mais aucun ne peut atteindre durablement les 80 ou 100 kilomètres où commence cette zone. Quant aux satellites, ils évoluent beaucoup plus haut, à plusieurs centaines de kilomètres. Résultat : cette tranche de l’atmosphère est coincée entre deux mondes, trop éloignée pour nos moyens classiques d’exploration.Un rôle pourtant crucialCe n’est pas parce qu’elle est ignorée que cette zone est sans importance. L’ignorosphère influence directement les phénomènes météorologiques et climatiques à la surface de la Terre. C’est là que se forment certaines ondes atmosphériques qui transportent de l’énergie sur de longues distances. C’est aussi une région clef pour comprendre les interactions entre le rayonnement solaire et notre planète. Autrement dit, percer ses secrets pourrait améliorer nos modèles climatiques, affiner les prévisions météorologiques et mieux anticiper l’impact du Soleil sur nos systèmes de communication.Une découverte qui change la donneRécemment, des chercheurs de l’université Harvard ont proposé une idée révolutionnaire pour explorer l’ignorosphère. Ils ont mis au point des membranes ultra-légères capables de s’élever dans les airs grâce à une seule source d’énergie : la lumière du Soleil. Ces structures, parfois comparées à des voiles solaires miniatures, exploitent le flux lumineux pour générer une portance suffisante et atteindre des altitudes inaccessibles jusqu’ici.Vers une exploration inéditeSi cette technologie tient ses promesses, elle ouvrirait une voie totalement nouvelle. Ces membranes pourraient emporter des instruments de mesure, cartographier l’ignorosphère et enregistrer ses variations en temps réel. Contrairement aux fusées-sondes, qui offrent seulement des fenêtres d’observation de quelques minutes, elles permettraient un suivi continu. Ce serait une avancée majeure pour percer les mystères de cette zone restée dans l’ombre.Le chaînon manquant entre ciel et espaceEn somme, l’ignorosphère n’est pas seulement un vide entre deux altitudes : c’est un territoire scientifique encore vierge, mais essentiel. La possibilité de l’explorer grâce à la simple énergie solaire ouvre un champ d’investigation inédit. Peut-être découvrirons-nous que cette région recèle des dynamiques encore insoupçonnées, capables d’influencer le climat terrestre ou même nos technologies de communication.Longtemps inaccessible, l’ignorosphère pourrait bien devenir, grâce à la lumière du Soleil, le prochain grand terrain d’exploration de l’humanité. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
À première vue, le langage humain semble foisonnant, foisonnant au point d’être chaotique. Chaque langue possède ses milliers de mots, ses tournures, ses exceptions et ses bizarreries. Pourtant, derrière cette apparente complexité, se cachent des règles d’une rigueur étonnamment… mathématique. L’une des plus fascinantes a été mise en lumière dans les années 1930 par le linguiste américain George Zipf : la loi d’abréviation.Une loi simple mais puissanteFormulée par Zipf, cette règle décrit une tendance universelle : plus un mot est fréquemment utilisé, plus il tend à être court. Prenons un exemple en français : “et”, “de”, “à” ou “je”. Ces mots ultra-fréquents ne comptent qu’une ou deux lettres. À l’inverse, les termes plus rares – “chlorophylle”, “hétérozygote” ou “incommensurable” – sont plus longs. En d’autres termes, notre cerveau, en quête permanente d’efficacité, réserve la brièveté aux mots du quotidien et accepte la longueur pour les mots occasionnels.L’efficacité comme moteurCette loi n’a rien d’un hasard : elle illustre ce que Zipf appelait le principe du moindre effort. Quand nous communiquons, nous cherchons naturellement à transmettre un maximum d’informations avec un minimum d’effort. Les mots courts, faciles à prononcer et rapides à écrire, remplissent ce rôle pour les idées que nous utilisons le plus souvent. Cette logique contribue à rendre les échanges plus fluides et à limiter la fatigue cognitive, aussi bien pour celui qui parle que pour celui qui écoute.Une règle universelle ?Ce qui intrigue les chercheurs, c’est que cette loi ne semble pas se limiter aux langues humaines. Des travaux récents en bioacoustique ont montré que certains oiseaux suivent exactement la même tendance. Les sons les plus fréquents qu’ils utilisent – pour marquer un territoire, avertir d’un danger ou attirer un partenaire – sont plus courts que leurs vocalisations plus rares. Autrement dit, les oiseaux appliquent eux aussi, sans le savoir, la loi d’abréviation de Zipf.Quand l’évolution rejoint les mathématiquesPourquoi cette convergence entre humains et oiseaux ? Les scientifiques avancent que cette règle pourrait refléter un principe fondamental de toute communication efficace. Que l’on manipule des mots ou des chants, l’économie d’énergie et de temps favorise la survie. Les individus capables de transmettre rapidement l’essentiel de l’information disposent d’un avantage, qu’il s’agisse de fuir un prédateur ou de collaborer en groupe.Un langage moins chaotique qu’il n’y paraîtAu fond, ce que révèle Zipf, c’est que nos langues, si diverses soient-elles, obéissent à des forces universelles. Elles ne sont pas des constructions aléatoires, mais des systèmes façonnés par la recherche d’efficacité. Et lorsque nous découvrons que les oiseaux – et peut-être d’autres espèces encore – obéissent à la même loi, cela suggère que les mathématiques ne se contentent pas de décrire le monde physique : elles gouvernent aussi la manière dont nous échangeons des idées et des émotions.Ainsi, derrière nos conversations quotidiennes, se cache une règle mathématique discrète mais incontournable, qui relie l’homme… aux oiseaux. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Et si l’avenir de la dentisterie se trouvait dans un simple brin de laine de mouton ? Cela peut sembler absurde, presque digne d’un conte, et pourtant c’est le résultat très sérieux de recherches menées au King’s College de Londres. Des scientifiques y ont fait une découverte surprenante : la laine, une matière que l’on associe d’ordinaire aux pulls ou aux couvertures, pourrait bientôt servir à réparer nos dents.Un problème mondial : l’émail qui ne repousse pasPour comprendre l’importance de cette découverte, il faut rappeler que nos dents sont recouvertes d’un bouclier naturel, l’émail. C’est la substance la plus dure du corps humain, mais elle a un défaut majeur : une fois abîmée, elle ne se régénère pas. L’acidité des aliments, les bactéries de la plaque dentaire et une hygiène insuffisante peuvent le fragiliser. Résultat : la carie, un problème de santé publique colossal. On estime qu’elle touche près de 2 milliards de personnes dans le monde, ce qui en fait l’une des affections les plus répandues.De la laine à l’émailC’est là que la laine de mouton entre en scène. Elle contient une protéine bien connue : la kératine. En laboratoire, les chercheurs ont réussi à transformer cette kératine en peptides, c’est-à-dire en petites chaînes de protéines. Ces peptides possèdent une propriété fascinante : ils sont capables d’imiter le processus biologique naturel qui construit l’émail. En pratique, lorsqu’on applique ce matériau sur une dent endommagée, il attire les minéraux environnants et déclenche la reconstruction d’une couche protectrice très proche de l’émail d’origine.Une alternative aux résines plastiquesAujourd’hui, pour réparer une dent, les dentistes utilisent des amalgames ou des résines plastiques. Si elles remplissent leur rôle, elles ont néanmoins des limites : certaines peuvent contenir des substances controversées, et leur rendu esthétique reste imparfait, car elles ne reproduisent ni la transparence ni la dureté de l’émail naturel. Le biomatériau issu de la laine, lui, se distingue par son innocuité et son aspect visuel. Les chercheurs affirment qu’une dent réparée ainsi ressemblerait beaucoup plus à une dent “neuve”.Une arrivée imminenteLa bonne nouvelle, c’est que cette technologie n’appartient pas à un futur lointain. Selon l’équipe du King’s College, elle pourrait être disponible dans les cabinets dentaires d’ici deux à trois ans. Si les essais cliniques confirment les résultats observés au laboratoire, les dentistes disposeront d’un outil inédit : non plus combler, mais véritablement régénérer.Un espoir pour l’avenirIl serait exagéré de dire que la carie va disparaître. L’hygiène bucco-dentaire restera indispensable, avec le brossage et le fil dentaire. Mais ce traitement pourrait réduire considérablement le recours aux résines plastiques, prolonger la durée de vie de nos dents et améliorer le confort des patients.Ainsi, une ressource aussi humble que la laine de mouton pourrait bien inaugurer une nouvelle ère en dentisterie : celle où l’on ne répare plus seulement nos dents, mais où on les reconstruit. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Le deuil est souvent décrit comme une douleur psychologique, mais il s’agit en réalité aussi d’un bouleversement biologique. La Dre Lisa M. Shulman, neurologue à la faculté de médecine de l’Université du Maryland, l’explique clairement : notre cerveau perçoit une perte traumatique – comme celle d’un être cher – non pas comme une simple émotion, mais comme une véritable menace pour notre survie... Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Imaginer que l’espace-temps — ce tissu invisible qui structure l’univers — puisse onduler comme une mer agitée, c’est déjà vertigineux. Mais tenter de « voir » ces ondulations à des milliards de kilomètres, c’est l’objectif extraordinaire de la mission LISA (Laser Interferometer Space Antenna), un projet spatial ambitieux de l’Agence spatiale européenne (ESA), en collaboration avec la NASA, prévu pour un lancement vers 2035.Mais que cherche-t-on à observer exactement ? Et pourquoi parle-t-on d’un pari scientifique presque insensé ?Pour le comprendre, il faut revenir à Albert Einstein. En 1916, dans sa théorie de la relativité générale, il prédit que des événements cosmiques extrêmement violents — comme la fusion de trous noirs ou l’explosion d’étoiles massives — provoquent des ondes gravitationnelles. Ces ondes sont des déformations de l’espace-temps, voyageant à la vitesse de la lumière, un peu comme des rides sur l’eau.Ces ondes ont été détectées pour la première fois en 2015 par les détecteurs LIGO et Virgo, installés sur Terre. Mais leur sensibilité reste limitée. Elles captent surtout des signaux « courts » et très puissants. Pour aller plus loin, pour capter les ondes gravitationnelles les plus basses fréquences, les plus longues et les plus anciennes — celles qui pourraient révéler la formation des galaxies ou les premiers instants de l’univers — il faut sortir de la Terre. D’où LISA.La mission LISA sera composée de trois satellites positionnés en triangle, séparés de 2,5 millions de kilomètres, qui flotteront dans l’espace en suivant l’orbite terrestre autour du Soleil. Ces satellites seront reliés par des faisceaux laser ultra-précis, capables de mesurer des variations de distance de l’ordre du milliardième de millimètre. Si une onde gravitationnelle traverse ce triangle, elle déformera très légèrement l’espace entre les satellites. Cette infime variation sera détectée grâce aux interférences des lasers.C’est là que le pari devient vertigineux : LISA ne « voit » rien au sens classique, elle mesure des distorsions minuscules dans un vide spatial, provoquées par des événements cosmiques survenus parfois il y a des milliards d’années. Un exploit technologique et scientifique, qui demande une stabilité extrême, une précision au-delà de tout ce que l’humanité a construit jusque-là dans l’espace.LISA, c’est donc bien plus qu’un télescope : c’est une oreille cosmique, tendue dans le silence spatial pour écouter les battements les plus profonds de l’univers. Et si elle réussit, elle nous offrira une nouvelle façon de faire de l’astronomie, non plus en observant la lumière, mais en sentant les vibrations de l’espace-temps lui-même. Une révolution silencieuse… mais bouleversante. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Pour regarder la vidéo et me donner votre avis:https://youtu.be/OuZtEbMl9_M?si=fkljzQLMrFOsNstsMerci ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Avant que la tectonique des plaques ne s’impose comme le modèle dominant de la dynamique terrestre, une autre hypothèse, aujourd’hui presque tombée dans l’oubli, a passionné des générations de géologues : celle de l’expansion terrestre. Selon cette théorie, notre planète ne conserverait pas une taille constante, mais gonflerait lentement, comme un ballon, au fil des millions d’années.L’idée peut sembler farfelue à première vue, mais elle a pourtant été sérieusement débattue jusqu’au milieu du XXe siècle. Tout part d’un constat troublant : les continents semblent s’emboîter comme les pièces d’un puzzle. L’Afrique et l’Amérique du Sud, par exemple, présentent des côtes étonnamment complémentaires. Avant que la dérive des continents ne soit expliquée par les mouvements des plaques tectoniques, certains scientifiques ont proposé une autre solution : et si les continents s’étaient éloignés parce que la Terre elle-même avait grossi ?L’un des défenseurs les plus emblématiques de cette hypothèse fut l’Australien Samuel Warren Carey. Dans les années 1950, il propose que la surface terrestre se soit formée à partir d’un supercontinent unique qui aurait éclaté, non pas parce que les plaques glissaient, mais parce que le rayon de la Terre augmentait, entraînant une fissuration progressive de la croûte. Les océans ne seraient donc pas apparus par subduction ou collision, mais comme des zones de dilatation entre des continents poussés vers l’extérieur par la croissance de la planète.Mais qu’est-ce qui ferait gonfler la Terre ? Les partisans de cette théorie évoquaient divers mécanismes : accumulation d’énergie interne, transformation de la matière dans le noyau, voire production de nouvelle matière – autant de processus restés très spéculatifs.Ce modèle a été largement abandonné à partir des années 1960, avec l’avènement de la tectonique des plaques, appuyée par de nouvelles données géophysiques et océanographiques. La découverte des dorsales océaniques, des zones de subduction, et des courants de convection dans le manteau terrestre ont permis de modéliser les mouvements des continents sans faire appel à une variation de la taille de la planète.Cependant, la théorie de l’expansion terrestre n’a jamais complètement disparu. Certains chercheurs indépendants ou amateurs la défendent encore, pointant les incertitudes sur la structure profonde de la Terre et l’origine des continents. Si la majorité de la communauté scientifique rejette aujourd’hui cette hypothèse, elle reste un témoignage fascinant de l’évolution des idées scientifiques, et de la manière dont nos représentations du monde se transforment avec le temps — parfois en gonflant un peu. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
L’univers de la microélectronique vit peut-être un tournant historique. La Chine a récemment annoncé le lancement de la production de masse des premières puces non binaires hybrides, une technologie inédite qui pourrait redessiner le paysage mondial de l’intelligence artificielle. Encore méconnue du grand public, cette avancée pourrait pourtant bouleverser des domaines entiers : de la robotique à l’aéronautique, en passant par les systèmes de recommandation, les véhicules autonomes ou la cybersécurité.Que signifie “non binaire” ?Les puces électroniques classiques, celles qui font fonctionner nos ordinateurs et smartphones, reposent sur un principe fondamental : le binaire. Chaque bit d’information ne peut être qu’un 0 ou un 1. Cette logique a permis des décennies d’innovation, mais elle atteint aujourd’hui certaines limites en matière d’efficacité énergétique et de traitement massif des données.Les puces non binaires, elles, reposent sur une logique multivalente : au lieu de deux états possibles, elles peuvent en gérer plusieurs (par exemple, 0, 1, 2, 3…). Cela permet d’augmenter drastiquement la densité d’information, tout en réduisant les cycles de calcul et la consommation énergétique.Une première mondiale chinoiseL’entreprise Tianjin Saidi Technology, en lien avec des institutions de recherche gouvernementales chinoises, est à l’origine de cette prouesse. Ses puces hybrides non binaires analogico-numériques sont conçues pour mimer le fonctionnement du cerveau humain, où l’information n’est pas transmise en tout ou rien, mais sous forme de signaux gradués. En combinant analogique et numérique, ces composants pourraient offrir des performances bien supérieures aux puces actuelles pour les tâches d’intelligence artificielle.Un enjeu géopolitiqueCette annonce intervient alors que la Chine fait face à des restrictions sévères sur l’accès aux technologies avancées venues des États-Unis. Incapable d’importer certaines puces NVIDIA ou AMD de dernière génération, Pékin parie donc sur l’innovation de rupture pour reprendre l’avantage.Si ces puces non binaires tiennent leurs promesses, elles pourraient réduire la dépendance de la Chine aux semi-conducteurs occidentaux, tout en ouvrant un nouveau chapitre technologique — un peu comme les transistors ont succédé aux tubes électroniques dans les années 1950.Ce que cela pourrait changerPlus rapides, plus sobres et plus proches du raisonnement biologique, ces puces pourraient révolutionner la conception des IA. Finie l’approche brute-force fondée sur la puissance de calcul brute : place à des machines plus intelligentes, plus économes, et potentiellement… plus proches de l’humain.Le futur de l’IA ne sera peut-être pas binaire. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
C’est une idée qui semble tirée d’un roman d’anticipation, et pourtant : vos relevés bancaires pourraient bientôt devenir un outil de dépistage précoce de la maladie d’Alzheimer. C’est ce que révèle une étonnante étude publiée dans la revue JAMA Network Open. Selon les chercheurs, les tout premiers signes de déclin cognitif pourraient être visibles dans vos habitudes de dépenses… jusqu’à 10 ans avant qu’un diagnostic formel ne soit posé.Mais comment est-ce possible ?L’équipe de chercheurs s’est appuyée sur les données anonymisées de plus de 80 000 comptes bancaires de personnes âgées aux États-Unis, dont certaines avaient par la suite reçu un diagnostic de démence ou de maladie d’Alzheimer. En croisant ces données avec les dossiers médicaux, ils ont identifié des modifications subtiles mais constantes dans les comportements financiers des futurs patients, bien avant l’apparition des symptômes cliniques.Parmi ces signaux faibles : Une baisse de 9,6 points dans les dépenses liées aux voyages, cinq ans avant la mise sous procuration.Moins de dépenses en loisirs comme le jardinage.Moins de connexions aux comptes bancaires en ligne.Davantage de réinitialisations de code PIN, de cartes perdues ou de plaintes pour fraude.En parallèle, une augmentation des dépenses domestiques (factures, alimentation…) trahit un repli progressif de la personne sur son environnement immédiat.Ces signes ne sont pas forcément spectaculaires, mais c’est justement leur régularité sur plusieurs années qui attire l’attention.Ce qui rend cette découverte si prometteuse, c’est qu’elle s’appuie sur des données déjà disponibles. Contrairement aux tests médicaux lourds ou coûteux, comme l’imagerie cérébrale ou les analyses biologiques, le suivi des habitudes financières pourrait offrir un outil de détection précoce non invasif, discret et potentiellement automatisable.Bien sûr, les chercheurs insistent : il ne s’agit pas de poser un diagnostic à partir d’un simple relevé bancaire. Mais combiné à d’autres indicateurs — comme des tests de mémoire, des antécédents familiaux ou des changements de comportement — cet outil pourrait alerter bien plus tôt les médecins, les proches… et les patients eux-mêmes.Dans un monde où la population vieillit rapidement et où chaque année gagnée dans la détection de la maladie peut faire une énorme différence sur la qualité de vie, cette approche ouvre des perspectives inédites. Elle interroge aussi : sommes-nous prêts à ce que notre santé mentale soit surveillée… à travers notre carte bleue ?Une chose est sûre : cette découverte pourrait marquer une nouvelle ère dans la prévention de la maladie d’Alzheimer. Et si, un jour, votre banque devenait votre premier allié en santé ? Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Pendant longtemps, les neurosciences ont cherché à répondre à une question à la fois biologique et culturelle : le cerveau des hommes est-il différent de celui des femmes ? Des siècles de stéréotypes ont alimenté l’idée que le genre déterminait des aptitudes naturelles distinctes — logique pour les uns, intuition pour les autres, langage d’un côté, orientation spatiale de l’autre. Mais que dit la science aujourd’hui ? Le cerveau a-t-il un genre ?Des différences anatomiques… en moyenneOui, des différences existent entre les cerveaux masculins et féminins, mais elles sont statistiques et non déterminantes. En moyenne, le cerveau des hommes est environ 10 % plus volumineux, ce qui s’explique par leur corpulence plus importante. Certaines régions peuvent aussi différer légèrement : l’amygdale (impliquée dans la gestion des émotions) ou l’hippocampe (mémoire) présentent des variations de taille selon le sexe. Mais ces écarts ne suffisent pas à prédire les comportements ou les aptitudes. La plupart de ces différences sont faibles, avec de grandes variations individuelles.L’étude fondatrice : pas de “cerveau masculin” ou “féminin”Une avancée majeure vient de l’étude de Daphna Joel, neuroscientifique à l’Université de Tel-Aviv, publiée en 2015 dans la revue Proceedings of the National Academy of Sciences (PNAS). En analysant les IRM de plus de 1 400 cerveaux, elle a montré que la grande majorité des cerveaux humains sont des “mosaïques”. Autrement dit, chaque cerveau présente des caractéristiques tantôt plus fréquentes chez les femmes, tantôt chez les hommes, sans configuration typiquement masculine ou féminine.Biologie et culture : un cerveau plastiqueLe cerveau est hautement plastique : il se modifie tout au long de la vie en fonction des expériences, de l’éducation, de la langue, des métiers exercés… Ce que l’on observe comme différences cérébrales pourrait donc être en partie le résultat de l’environnement social, et non l’inverse.Par exemple, l’activation plus fréquente de certaines zones lors d’activités linguistiques chez les femmes a longtemps été interprétée comme une différence innée. Or, des études plus récentes montrent que l’exposition précoce au langage, les attentes éducatives ou les modèles familiaux influencent la spécialisation cérébrale.En résuméLe cerveau humain n’a pas de genre binaire. Il existe des différences moyennes entre les sexes, mais elles sont faibles, non exclusives, et fortement modulées par l’expérience. La recherche actuelle privilégie donc l’idée d’un continuum cérébral, où chaque individu développe un profil unique, largement façonné par l’interaction entre biologie et environnement.Autrement dit : le genre n’est pas câblé dans le cerveau — il est vécu, appris, et transformé. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
La concentration repose sur une capacité fondamentale de notre cerveau : filtrer les informations. À chaque instant, nos sens reçoivent des centaines de signaux – sons, images, odeurs… Mais pour rester attentif à une tâche, le cerveau doit opérer un tri sélectif entre ce qui est pertinent et ce qui ne l’est pas. C’est justement ce mécanisme qu’explique une étude de 2015 menée par des chercheurs de l’Institut de neurosciences de l’université de New York, qui ont identifié un acteur clé : le noyau réticulé thalamique, ou NRT.Le NRT est une structure en forme d’anneau située autour du thalamus, lui-même au centre du cerveau. Il agit comme un commutateur attentionnel. Concrètement, lorsque nous dirigeons notre attention vers un stimulus (par exemple un texte à lire), les neurones du NRT réduisent l’intensité des signaux sensoriels concurrents – comme les bruits ambiants, les mouvements visuels ou même les sensations tactiles. C’est ce qu’on appelle la sélection attentionnelle.L’étude, publiée dans Nature Neuroscience, a montré que ces neurones inhibiteurs du NRT peuvent désactiver temporairement certaines voies sensorielles au profit d’autres. Ainsi, lorsque vous vous concentrez sur la lecture, le NRT limite le traitement des sons ou des images parasites. Mais ce filtrage a ses limites. Si un bruit soudain ou inhabituel surgit – comme une voix forte ou une porte qui claque – le NRT réoriente l’attention vers cette nouvelle source, même si elle est sans intérêt. C’est un mécanisme de vigilance automatique, hérité de l’évolution, destiné à détecter les dangers.Autrement dit, le bruit capte l’attention non pas parce qu’il est pertinent, mais parce qu’il rompt l’équilibre sensoriel imposé par le NRT. Plus le bruit est irrégulier, imprévisible ou porteur d’information (comme une conversation), plus il sollicite le système attentionnel… au détriment de la tâche en cours.Cette redirection constante de l’attention a un coût : chaque interruption impose au cerveau un "temps de réinitialisation" de plusieurs secondes, durant lequel la performance cognitive chute. Ce phénomène s’appelle le coût de rebasculage attentionnel.En résumé, le bruit est néfaste à la concentration car il court-circuite le système de filtrage du cerveau, piloté par le noyau réticulé thalamique. Il force le cerveau à jongler entre les sources sensorielles, réduisant ainsi notre efficacité, notre mémoire de travail, et notre capacité à accomplir des tâches complexes. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
C’est une histoire digne d’un scénario de science-fiction… sauf qu’elle est vraie. Le 6 juin 2025, le Wall Street Journal a levé le voile sur un pan méconnu de l’histoire militaire américaine : l'utilisation délibérée du mythe des ovnis par le Pentagone pour dissimuler ses programmes d’armement ultra-secrets.L’un des cas les plus révélateurs remonte à 1967, dans le Montana. Ce soir-là, un capitaine de l’US Air Force affirme avoir vu une lumière étrange survoler un silo de missiles balistiques intercontinentaux. Puis, sans explication, les systèmes électriques et les ogives sont désactivés. À l’époque, l’événement est classé top secret. Officiellement, on parle d’un « phénomène inexpliqué ». Officieusement, il s’agissait d’un test militaire utilisant une impulsion électromagnétique (IEM), destinée à perturber les installations électroniques ennemies. L’effet secondaire ? Une lueur artificielle dans le ciel, facilement assimilable à un « ovni ».Mais l’intox ne s’arrête pas là.Dans les années 1980, alors que les États-Unis testent des technologies furtives encore jamais vues, comme le F-117 Nighthawk, un étrange personnage se rend dans un bar du Nevada. Il y laisse des photos de “soucoupes volantes”, accompagnées d’un discours confus sur les extraterrestres. Intrigués, les services de renseignement identifient l’homme : un colonel à la retraite, agissant sur ordre de ses supérieurs, dans le cadre d’une opération de désinformation. Objectif ? Détourner l’attention des vrais essais menés dans la région, notamment à proximité de la célèbre Zone 51, et semer le doute auprès des éventuels espions soviétiques.Car la Zone 51 est bien réelle, et elle a servi de site de test pour des appareils révolutionnaires, comme le SR-71 Blackbird ou le drone U-2, conçus pour des missions de surveillance en haute altitude pendant la Guerre froide. Les formes inhabituelles de ces engins, leur comportement silencieux et leurs trajectoires non conventionnelles ont alimenté, sans effort, la légende des « objets volants non identifiés ».Selon des experts interrogés par National Geographic, le Pentagone a volontairement entretenu cette confusion. Non pas pour valider l’idée d’extraterrestres, mais pour créer un écran de fumée utile à la sécurité nationale. En brouillant les pistes, les autorités empêchaient non seulement le public d’en apprendre trop… mais aussi les services secrets ennemis.Aujourd’hui, l’AARO, un bureau fondé en 2022 pour enquêter sur les phénomènes aériens non identifiés, reconnaît que certaines de ces “observations” étaient liées à des projets militaires confidentiels. La question extraterrestre reste ouverte, mais une chose est sûre : les ovnis ont été, au moins en partie, un outil stratégique du Pentagone. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Vous venez d’ouvrir la porte de votre chambre d’hôtel ; avant de jeter votre sac sur le lit, faites un détour par la salle de bain : placez vos bagages dans la baignoire. Ce geste, recommandé par de nombreux entomologistes, vise à déjouer Cimex lectularius, la punaise de lit, championne du voyage clandestin.Les punaises se déplacent mal sur surfaces lissesLes punaises de lit ne sautent ni ne volent ; elles progressent en rampant grâce à de minuscules griffes adaptées aux textiles rugueux ou au bois. Des études d’observation montrent qu’elles peinent à conserver leur adhérence dès que la rugosité du support tombe sous deux micromètres : le verre poli, le métal chromé ou la céramique vitrifiée agissent comme des patinoires. Une paroi de baignoire, lisse et bombée, constitue donc une barrière mécanique efficace : même si un insecte s’y aventure, il aura du mal à franchir le rebord pour atteindre votre valise.La salle de bain : zone « à faible densité » de punaisesLes punaises sont thigmotactiques : elles recherchent des crevasses proches de leur source de nourriture (le dormeur). Dans une chambre, elles se concentrent à moins de deux mètres du matelas : coutures de sommier, tête de lit, plinthes, moquette. Les salles de bain offrent peu de cachettes (carrelage, joints silicones lisses) et sont nettoyées plus vigoureusement par le personnel ; l’incidence d’infestation y est donc minimale.Le bagage, principal vecteur d’exportLes données de traçabilité d’infestations montrent que 70 % des introductions domestiques commencent par une valise posée sur un lit ou un porte-bagage textile dans un hôtel infesté. Les punaises profitent d’une sieste diurne dans la doublure ou glissent entre les vêtements, puis rentrent chez vous. En isolant immédiatement la valise dans la baignoire – ou dans un sac plastique clair – on réduit drastiquement cette « porte d’embarquement ».Un protocole simple en trois étapesÀ l’arrivée, valise dans la baignoire fermée et inspection rapide : coutures, poches, poignées.Inspection du lit : soulevez les draps, examinez les coutures du matelas et l’arrière de la tête de lit. Signe d’alarme : points noirs (déjections) ou exuvies brunâtres.En partant, aspirez ou brossez la valise, puis placez les vêtements à 60 °C (lessive) ou 30 minutes au sèche-linge chaleur élevée.Limites et complémentsLe porcelaine n’est pas une muraille absolue ; une punaise affamée peut parfois franchir une surface lisse après plusieurs heures. Mais la baignoire vous laisse le temps de détecter un intrus : une silhouette brun rouge contre un fond blanc. Pour plus de sécurité, certains voyageurs combinent baignoire et housse anti-punaises pour bagage, ou utilisent des pièges collants sous les pieds du lit.ConclusionDéplacer votre valise de deux mètres vers la salle de bain peut vous épargner des semaines de lutte chimique et des centaines d’euros de traitement. L’astuce n’est pas folklorique : elle s’appuie sur la biologie locomotrice de l’insecte, son écologie d’abri et l’analyse statistique des voies d’infestation. La prochaine fois que vous arriverez à l’hôtel, laissez la baignoire devenir… votre première ligne de défense Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
C’est une question universelle, souvent posée après une rupture : combien de temps faut-il pour vraiment oublier un ex ? Une équipe de chercheurs dirigée par Grace Larson (Northwestern University) et David Sbarra (University of Arizona) a tenté d’y répondre scientifiquement. Leur étude, publiée dans la revue Social Psychological and Personality Science, révèle un chiffre bien plus élevé que ce que l’on imagine souvent : il faut en moyenne 4,18 années pour se remettre pleinement d’une relation amoureuse marquante.Les chercheurs ont suivi des adultes ayant vécu une séparation récente et ont analysé plusieurs dimensions : le niveau d’attachement émotionnel, la détresse psychologique, l’évolution de l’estime de soi, et surtout la manière dont les participants reconstruisent leur identité personnelle.Car selon l’approche de Larson et Sbarra, l’oubli d’un ex ne dépend pas seulement du temps ou de la douleur ressentie, mais surtout d’un phénomène bien plus profond : la redéfinition du “soi”. Quand on est en couple, notre identité se lie progressivement à celle de l’autre. Après la rupture, il ne s’agit pas simplement de “passer à autre chose” : il faut reconstruire qui l’on est sans l’autre. C’est ce que les chercheurs appellent la “réintégration de soi”.L’étude montre que plus la relation a été intense et fusionnelle, plus ce processus est long. Le cerveau, lui aussi, joue un rôle dans ce délai. L’imagerie cérébrale (IRM fonctionnelle) montre que les zones activées par la douleur amoureuse (notamment le cortex cingulaire antérieur) sont les mêmes que celles activées en cas de douleur physique. En d’autres termes, une rupture amoureuse fait “physiquement” mal. Ce n’est pas une métaphore.Ajoutons à cela des facteurs aggravants : le rejet brutal, le manque de clôture, l’absence de soutien social ou encore la persistance d’un lien numérique avec l’ex (réseaux sociaux, messages non effacés) ralentissent tous le processus. À l’inverse, les personnes qui parviennent à recontextualiser la rupture, à en tirer un sens ou une leçon, récupèrent plus vite.Les chercheurs insistent toutefois sur un point : le chiffre de 4,18 ans est une moyenne. Certains se remettent en quelques mois, d’autres ont besoin de beaucoup plus. Il ne s’agit pas d’un compte à rebours figé, mais d’un chemin personnel, influencé par notre histoire, nos attachements, et notre capacité à réinventer notre vie.En conclusion, la science nous rappelle que “oublier un ex” ne veut pas dire effacer le souvenir, mais guérir l’attachement. Et ce processus prend du temps. Beaucoup plus qu’un simple “verre entre amis” ne le laisserait croire. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Rediffusion On le sait, la couleur des yeux n'est souvent pas la même d'un individu à l'autre. Des scientifiques ont voulu connaître les raisons de ces modifications. Ils se sont notamment intéressés aux personnes ayant des yeux bleus. Leur étude a été menée à partir d'un groupe de 800 participants ayant cette particularité.Un examen génétique a montré que, dans la quasi totalité des cas, la couleur des yeux de ces personnes était due à une mutation génétique de l'iris, qui est en quelque sorte la partie colorée de l'œil.Et cette mutation génétique serait très ancienne, puisqu'elle remonterait à l'ère mésolithique. Cette période de la Préhistoire, comprise entre le paléolithique et le néolithique, s'étend environ entre 10.000 ans et 6.000 ans avant J.-C. Pour certains spécialistes, cependant, cette mutation serait beaucoup plus ancienne.À cette époque, d'après les scientifiques, tous les hommes avaient des yeux marron. Cette coloration dominante était due à la présence naturelle de mélanine brune dans l'œil, responsable de cette teinte majoritaire des yeux.Mais, à l'époque considérée, un homme aurait subi une mutation génétique de l'iris. Cette mutation aurait empêché la production de mélanine. Si les yeux de cet homme préhistorique étaient bleus et non marron, c'est d'abord du fait de cette mutation génétique, mais aussi en raison de la manière dont la lumière était dispersée dans l'iris.Aussi peut-on supposer que cet homme est l'ancêtre commun de toutes les personnes qui ont aujourd'hui les yeux bleus. Les scientifiques ont pu arriver à cette conclusion en constatant que les personnes ayant des yeux bleus possédaient le même "interrupteur" de mélanine, placé exactement de la même façon dans leur ADN.Une telle ressemblance génétique ne pouvait provenir que d'un héritage commun, celui légué par ce lointain ancêtre.Si les chercheurs ont bien identifié cette mutation génétique, ils n'en connaissent pas la cause. Ils se veulent en tous cas rassurants sur un point : un tel changement ne produit bien qu'une modification de la couleur des yeux, il n'a aucun impact sur la santé ni sur l'espérance de vie. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Rediffusion Selon l'Organisation mondiale de la santé (OMS), la dépression toucherait plus de 300 millions de personnes dans le monde. Cette maladie, encore mal cernée par la médecine, serait même la première cause d'incapacité au travail.C'est dire à quel point son traitement est un enjeu majeur de santé publique. La récente étude menée par des chercheurs allemands pourrait représenter, à cet égard, une réponse originale.Elle souligne en effet le rôle thérapeutique de certains jeux vidéo. En l'occurrence "Super Mario odyssey", l'un des jeux où apparaît ce célèbre personnage imaginé par un créateur et producteur japonais de jeux vidéo.46 personnes, souffrant de dépression, ont participé à l'étude en question, qui a duré 6 semaines. Les chercheurs les ont divisées en trois groupes. Le premier a reçu un traitement traditionnel, à base de médicaments.Les participants du second groupe devaient utiliser un logiciel conçu pour développer les fonctions cognitives, celles-ci pouvant être affectées par la dépression. Quant aux personnes composant le dernier groupe, elles étaient tout bonnement invitées à jouer au jeu "Super Mario". Elles ont eu droit à 18 sessions de jeu, chacune durant environ trois quarts d'heure.Or, c'est dans ce dernier groupe qu'on observe la régression la plus significative des symptômes liés à la dépression. Et ce sont ses membres qui, sans surprise, ont manifesté le plus de motivation à poursuivre leur traitement.Les scientifiques rappellent que, quel que soit l'impact positif de ces jeux vidéo sur la maladie, ils ne sauraient à eux seuls soigner la dépression. En effet, de telles séances de jeu ne peuvent qu'en atténuer certains symptômes.Les chercheurs ont ainsi constaté, chez les joueurs, un meilleur bien-être subjectif et une plus grande capacité à utiliser des informations visuelles, souvent mise à mal par la dépression.Par l'état de concentration qu'il requiert, le jeu vidéo laisserait également peu de place aux pensées négatives, qui envahissent l'univers mental des personnes dépressives. D'autres recherches seront cependant nécessaires pour établir la réelle efficacité des jeux vidéo dans le traitement de la dépression. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Rediffusion Dans nos sociétés occidentales, le mérite, comme vecteur de réussite professionnelle, joue un rôle essentiel. On considère souvent que, dans ces conditions, l'intelligence est le principal moteur de l'ascension sociale, et donc de l'accès à des professions mieux rémunérées.En résumé, les personnes intelligentes sont plus riches que les autres. Or une récente étude vient contredire, du moins en partie, une telle affirmation.Elle a porté sur plus de 59.000 Suédois, qui ont tous subi un test d'aptitudes cognitives. Il s'agit donc d'un échantillon assez large, qui se signale aussi par la diversité des professions exercées et des rémunérations perçues.Cependant, cette recherche ne concerne que des hommes, issues d'une seule nationalité. c'est là une limite à prendre en compte.Les auteurs de l'étude ne remettent pas en cause le lien entre les capacités intellectuelles d'un individu et sa réussite professionnelle. Cette corrélation a d'ailleurs été mise en évidence par de précédentes recherches.Cette étude, cependant, tend à la relativiser. En effet, ses résultats montrent qu'au-delà d'un certain niveau de salaire, les aptitudes de la personne qui le gagnent semblent stagner. Comme si elles atteignaient un seuil, impossible à dépasser.De fait, cette étude indique qu'au-delà d'un salaire annuel de 60.000 euros, gagné par 1 % des participants, les résultats de ces derniers aux tests étaient inférieurs à ceux des personnes gagnant un peu moins d'argent qu'eux.Ce qui tendrait à prouver que l'accès à ces postes très bien rémunérés ne dépend pas seulement des aptitudes intellectuelles. D'autres facteurs expliqueraient le succès d'un parcours professionnel.L'appartenance à certains milieux sociaux serait l'un d'entre eux. Dans ce cas, les relations que peut faire jouer la famille, et l'éducation soignée qu'elle ne manque pas de donner aux enfants, peuvent faire avancer une carrière plus sûrement que la seule possession de capacités intellectuelles.Certains traits de personnalité ne sont pas non plus sans influence sur un parcours professionnel. Mais la chance peut aussi jouer un rôle, offrant, à certains moments, des opportunités de carrière à ceux qui savent les saisir. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Rediffusion Si certaines affirmations ont toutes les chances de passer à la postérité, c'est qu'elles frappent par leur singularité. C'est bien le cas de l'assertion, souvent entendue, selon laquelle l'homme partagerait la moitié de ses gènes avec les bananes.Certains scientifiques en ont fait état après le décodage, en 2012, du génome complet de la banane. Un résultat acquis au terme de longs travaux.En théorie, il est vrai, l'idée n'a rien d'absurde. En effet, d'après les spécialistes, l'être humain et les plantes auraient un ancêtre commun, qui aurait vécu voilà environ 1,5 milliard d'années.Il est donc normal que nous partagions certains gènes avec les bananes, mais aussi avec d'autres plantes.Mais de là à penser que nous avons 50 % de notre patrimoine génétique en commun avec la banane, il y a un pas que beaucoup d'abstiennent de franchir.Il faut d'abord rappeler, en effet, que le génome de la banane est 6 fois plus petit que celui que l'homme. Ce qui rend déjà difficile un partage de la moitié de nos gènes avec les bananes.Ensuite, il faut savoir de quels gènes on parle. Ceux que nous partagerions avec les bananes, à hauteur de 50 %, sont les gènes codants. Autrement dit ceux qui contiennent l'information nécessaire à la fabrication d'une protéine.L'homme possède environ 20.000 gènes codants et la banane 36.000. Mais ces gènes codants ne représentent que de 2 à 5 % de l'ADN total. Nous aurions donc, en commun avec les bananes, une toute petite partie de nos gènes et, selon les estimations des spécialistes, environ 1 % de notre ADN total.L'affirmation selon laquelle nous partagerions 50 % de nos gènes avec les bananes vient sans doute des récentes recherches menées par des scientifiques américains. En effet, ils ont identifié, non pas des gènes codants identiques, entre l'homme et la banane, mais des gènes homologues, à hauteur de 60 %.Il s'agit donc de gènes (représentant eux-mêmes une très faible proportion de l'ADN) qui contiennent des informations comparables, mais non pas identiques, relatives aux protéines qu'ils permettent de fabriquer. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
toujours des doublons du podcast sciences
sounds dress episodes science !!
continuer 😊🌹
merci merci merci, un vrai plaisir de vous écouter. J'ai une question : quel est la raison d'un bégaiement ? comment ça se déclenche/ fonctionne ?
Que Dieu aïe pitié de tous les utilisateurs de cette appli.
le contenu du podcast est erroné
j'adore! un seul reproche : l'accélération de l'enregistrement est très souvent exagéré, et nuit au plaisir de l'écoute.
g5y nth. h
👏🏻
C'est peut-être une question bête mais... pourquoi partir du principe que Hercule et la tortue courent à la même vitesse ? C'est peu vraisemblable
je les ecoutent tous. vous avez 3 podcasts cesr bien ça?
Mon rituel du matin, pendant que je me lave ! Très instructif et ludique. J'écoute également Choses à savoir Culture générale et Choses à savoir Santé.