Discover
Pourquoi donc ?
Pourquoi donc ?
Author: Choses à Savoir
Subscribed: 4,666Played: 348,253Subscribe
Share
© Choses à Savoir
Description
Je réponds de façon claire et directe à toutes les questions essentielles, en une minute chrono !
Si vous cherchez le podcast Petits Curieux, c'est par ici: https://chosesasavoir.com/podcast/petits-curieux-2/
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
919 Episodes
Reverse
Il vous est peut-être déjà arrivé de croire qu’un sigle avait été choisi pour sa signification précise — avant d’apprendre que, paradoxalement, c’est l’inverse. C’est le principe de la rétroacronymie, un phénomène linguistique à la fois amusant et révélateur : on crée un acronyme à partir d’un mot déjà existant, en inventant après coup des mots censés le justifier.Par exemple, le mot « avion », inventé par Clément Ader à partir du latin avis (oiseau), a été interprété de manière erronée comme « Appareil Volant Imitant l'Oiseau Naturel ». De même, les spas proviennent de la ville de Spa, et ne signifient pas Sana Per Aquam (la santé par l'eau).Autre cas fameux : le nom du moteur de recherche Yahoo!, présenté comme l’acronyme de Yet Another Hierarchical Officious Oracle. En réalité, ses créateurs, deux étudiants de Stanford, avaient d’abord choisi le mot « Yahoo » parce qu’il sonnait bien et évoquait le personnage rustre et énergique des Voyages de Gulliver de Jonathan Swift. Le sens technique a été plaqué ensuite.La rétroacronymie peut aussi servir à renforcer l’image d’une marque ou d’une institution. Par exemple, le sigle SOS n’a jamais voulu dire Save Our Souls ou Save Our Ship. Il a été choisi à l’origine uniquement pour sa simplicité en morse (· · · — — — · · ·). Ce n’est que plus tard qu’on lui a attribué cette signification héroïque, plus facile à mémoriser.Ce mécanisme illustre un trait fascinant du langage : notre tendance à chercher du sens, même là où il n’y en avait pas à l’origine. Les mots deviennent plus forts, plus mémorables, quand ils paraissent logiques. La rétroacronymie répond donc à un besoin psychologique : elle donne une apparence de cohérence à ce qui n’en avait pas.Une notion proche est celle de l’étymologie populaire : quand une expression change de forme ou de sens parce que les locuteurs la réinterprètent selon ce qu’ils croient entendre. Par exemple, « chou-fleur » vient du latin caulis floris (tige fleurie), mais d’autres mots comme « beaupré » ou « chausson » ont été transformés au fil du temps par des associations d’idées fausses mais séduisantes.Rétroacronymie ou étymologie populaire, ces deux phénomènes rappellent une chose essentielle : le langage n’est pas figé. Il vit, se raconte, et surtout, il s’invente des histoires pour mieux se souvenir de lui-même. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Vous est-il déjà arrivé de ne plus supporter un aliment après une mauvaise expérience ? Un jour, un plat vous rend malade, et dès lors, rien que son odeur vous soulève le cœur. Ce phénomène, à la fois étrange et universel, s’appelle l’effet Garcia, du nom du psychologue américain John Garcia qui le découvrit presque par hasard dans les années 1950.À l’époque, Garcia étudiait les effets des radiations sur les rats. Il leur donnait à boire de l’eau aromatisée avant de les exposer à une dose de rayonnement qui leur causait des nausées. Très vite, il observa un comportement inattendu : les rats refusaient ensuite obstinément de boire cette même eau, même si elle ne contenait rien de dangereux. Leur cerveau avait associé la saveur à la sensation de malaise, comme s’il avait identifié une menace. L’animal, pour se protéger, apprenait à éviter tout ce qui ressemblait à la cause supposée de son mal.Ce réflexe, que l’on appelle aversion gustative conditionnée, existe aussi chez l’être humain. Il s’agit d’un mécanisme de survie profondément inscrit dans notre biologie. Dans la nature, manger une baie toxique pouvait être mortel ; mieux valait donc retenir à jamais l’odeur, la couleur ou le goût de ce poison. C’est pourquoi une seule expérience désagréable suffit à créer un rejet durable. Contrairement à d’autres apprentissages, cet effet ne nécessite qu’une seule exposition : le cerveau retient le lien entre un goût et une nausée, même si celle-ci survient plusieurs heures plus tard.Sur le plan neurologique, l’effet Garcia mobilise des zones du cerveau liées à la mémoire émotionnelle : l’amygdale, qui gère les réactions de peur et de dégoût, et l’hippocampe, qui enregistre le contexte sensoriel. Ensemble, elles codent ce goût comme un signal de danger. Ainsi, des années plus tard, il suffit parfois d’un parfum ou d’une image pour raviver cette répulsion.Mais ce réflexe protecteur peut devenir envahissant : certaines personnes développent de véritables phobies alimentaires après une intoxication, ou ne supportent plus des plats pourtant inoffensifs. Ce mécanisme archaïque, utile chez nos ancêtres chasseurs-cueilleurs, agit aujourd’hui de manière parfois excessive dans un monde où les risques d’empoisonnement sont rares.L’effet Garcia rappelle donc une vérité fascinante : notre cerveau n’oublie jamais ce qui l’a fait souffrir. Et si la raison nous dit qu’un aliment est sans danger, notre instinct, lui, préfère ne pas tenter le diable. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Par une chaude journée d’été, le 4 juillet 1924, un petit restaurant de Tijuana, au Mexique, est pris d’assaut par des touristes venus des États-Unis. Nous sommes en pleine Prohibition : l’alcool est interdit de l’autre côté de la frontière, et les Américains affluent dans cette ville mexicaine pour boire et faire la fête. Le patron du restaurant, Caesar Cardini, un chef italien au tempérament passionné, regarde sa cuisine dévalisée avec angoisse : les réserves sont presque vides, les clients s’impatientent. Il lui faut improviser.Cardini ouvre son garde-manger : il ne reste que quelques feuilles de laitue romaine, un peu de pain rassis, du parmesan, des œufs, de l’huile d’olive, de la sauce Worcestershire, du citron, et une gousse d’ail. Pas de quoi faire un grand plat… à moins d’un peu de génie. Alors, devant la salle comble, il saisit un grand saladier, pile l’ail, casse un œuf légèrement poché, ajoute le citron, la sauce, l’huile, puis jette la romaine et les croûtons. Il mélange avec énergie, sous les yeux amusés de ses clients. Le parfum d’ail et de citron se répand. Un silence curieux s’installe, puis les premières bouchées sont goûtées : c’est un succès immédiat.La salade César est née — non pas à Rome, ni même en Italie, mais dans un coin poussiéreux du Mexique, un soir d’improvisation. Le bouche-à-oreille fait le reste. Des stars hollywoodiennes en villégiature à Tijuana — Clark Gable, Jean Harlow, et d’autres — s’émerveillent de ce plat simple et élégant. En quelques mois, la recette traverse la frontière, conquiert Los Angeles, puis tout le continent.Ce qu’on ignore souvent, c’est que la recette originale ne comportait ni poulet, ni anchois, ni bacon. Juste la fraîcheur de la romaine, le croquant du pain grillé, et la douceur citronnée de la sauce. Les versions modernes, plus riches, sont venues plus tard, adaptées aux goûts américains.Ainsi, derrière ce nom à consonance antique, la “César” n’a rien d’un hommage à Jules César. C’est l’histoire d’un Italien ingénieux, installé au Mexique, qui inventa par hasard un plat devenu universel.Une salade née d’un manque, transformée en légende : voilà, peut-être, le plus bel exemple de ce que la cuisine sait faire de mieux — transformer la contrainte en création. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
La question peut sembler provocante, mais elle en dit long sur nos fantasmes modernes : l’absence de relations sexuelles est-elle dangereuse pour la santé, voire mortelle ? La réponse est non… mais avec des nuances intéressantes.Sur le plan strictement biologique, on ne meurt pas d’abstinence sexuelle. Contrairement à la nourriture ou au sommeil, le sexe n’est pas une fonction vitale. Le corps humain s’adapte très bien à l’absence de rapports. D’un point de vue médical, il n’existe aucune pathologie mortelle liée au manque de relations sexuelles. Les spermatozoïdes non libérés sont naturellement réabsorbés, et l’organisme continue à fonctionner parfaitement.Mais si l’abstinence ne tue pas le corps, elle peut affecter le moral, le stress et le système immunitaire. Des études menées à l’université de Göttingen, en Allemagne, ou à l’université d’Oxford ont montré que les personnes ayant une vie sexuelle régulière libèrent davantage d’endorphines et d’ocytocine, deux hormones qui favorisent la détente, le bien-être et le lien social. Le sexe joue donc un rôle indirect sur la santé, en réduisant la pression artérielle et en améliorant la qualité du sommeil.À l’inverse, une longue abstinence peut parfois provoquer des troubles psychologiques : frustration, anxiété, baisse de l’estime de soi. Mais ces effets dépendent fortement du contexte : certaines personnes vivent très bien sans sexualité, notamment les personnes asexuelles ou celles qui trouvent d’autres formes d’épanouissement émotionnel. Ce n’est donc pas le manque d’activité sexuelle en soi qui pose problème, mais le ressenti de manque.En revanche, les études montrent un lien entre une vie sexuelle épanouie et la longévité. Une recherche publiée dans The British Medical Journal dès 1997 indiquait que les hommes ayant des orgasmes fréquents avaient un taux de mortalité réduit de moitié par rapport à ceux qui en avaient rarement. Non pas parce que le sexe protège directement, mais parce qu’il reflète une bonne santé physique, psychologique et relationnelle.Autrement dit, on ne meurt pas de ne pas faire l’amour, mais on vit souvent mieux quand on le fait. Le sexe n’est pas vital, il est vitalisant. Et s’il n’est pas indispensable à la survie, il contribue indéniablement à une vie plus sereine, plus équilibrée… et parfois, plus longue. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Si vous avez déjà observé les plaques d’immatriculation françaises, vous avez sans doute remarqué qu’on n’y trouve jamais les lettres O, I ou U. Pas un hasard, ni une fantaisie administrative : ces trois lettres ont été volontairement bannies par le système d’immatriculation pour une raison très précise : éviter toute confusion.Depuis 2009, les plaques suivent le format AA-123-AA. Ce code n’indique plus la région d’origine du véhicule, mais un simple numéro d’ordre national. Or, dans ce système, chaque lettre et chaque chiffre doivent être lus sans ambiguïté. C’est là que les problèmes commencent : le O ressemble trop au 0, le I au 1, et le U peut être confondu avec le V, surtout sur certaines polices de caractères ou dans de mauvaises conditions de lecture. Pour les radars automatiques, les caméras de surveillance ou les gendarmes qui notent un numéro sur le bord de la route, ces confusions pourraient provoquer de véritables casse-têtes.L’administration française, soucieuse d’uniformité, a donc décidé d’exclure définitivement ces lettres du système, tout comme certains groupes de lettres jugés ambigus ou offensants : par exemple, les combinaisons qui pourraient former des mots vulgaires, politiques ou religieux sont également proscrites. Vous ne verrez donc jamais de plaque affichant “KKK”, “GOD” ou “SEX”.Ce souci de lisibilité n’est pas propre à la France. D’autres pays, comme l’Allemagne, la Belgique ou le Royaume-Uni, ont aussi supprimé certaines lettres ou combinaisons pour les mêmes raisons. En France, le système SIV (Système d’Immatriculation des Véhicules) prévoit environ 277 millions de combinaisons possibles, ce qui laisse largement de quoi faire malgré ces exclusions.Il existe enfin une touche de pragmatisme : les lettres restantes permettent de simplifier la reconnaissance automatique, un élément clé à l’ère des radars et des péages électroniques. Dans un pays où la contravention arrive parfois avant le retour à la maison, mieux vaut que le numéro soit parfaitement lisible.En résumé : si les O, I et U ont disparu de nos plaques, ce n’est pas une lubie bureaucratique, mais une mesure de bon sens. Une petite subtilité du quotidien, héritée du souci d’efficacité… et d’un soupçon d’amour français pour la logique administrative. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Commençons par la pin-up. Le mot apparaît aux États-Unis dans les années 1940, pendant la Seconde Guerre mondiale. Il vient du verbe anglais to pin up, littéralement « épingler au mur ». Les soldats américains collaient dans leurs casiers ou leurs chambrées des photos de femmes séduisantes, souvent des actrices ou des mannequins, pour se donner du courage loin de chez eux. Ces images, issues de magazines ou de calendriers, étaient appelées pin-up girls. Leur beauté n’était pas provocante au sens moderne, mais incarnait un idéal féminin à la fois sensuel et joyeux — sourires éclatants, poses suggestives, maillots de bain rétro et courbes assumées.Des icônes comme Betty Grable, Rita Hayworth ou plus tard Marilyn Monroe deviennent de véritables symboles culturels : la pin-up, c’est la femme libre, confiante, qui affirme sa féminité avec humour et glamour. Le terme traversera ensuite l’Atlantique et entrera dans la langue française dès les années 1950. Aujourd’hui, il évoque tout un style vintage mêlant élégance, humour et sensualité, loin des représentations plus explicites de la culture contemporaine.À l’inverse, l’expression « béni-oui-oui » vient du registre populaire français et a une connotation moqueuse. Apparue au XIXᵉ siècle, elle désigne une personne docile, servile ou incapable de dire non. Le mot « béni » fait ici référence à quelqu’un d’un peu simple ou trop pieux — « béni » au sens ironique de « benêt ». Quant au redoublement de « oui », il renforce cette idée d’adhésion automatique : le « béni-oui-oui » est celui qui approuve tout sans réfléchir, par conformisme ou par peur du conflit.L’expression s’est popularisée dans les milieux politiques et journalistiques pour dénoncer les courtisans ou les collaborateurs sans esprit critique. Sous la IIIᵉ République, on l’utilisait déjà pour qualifier les partisans dociles d’un régime ou d’un chef. Elle est restée dans le langage courant comme une étiquette mordante pour désigner ceux qui manquent de personnalité.Ainsi, la pin-up célèbre l’affirmation de soi, tandis que le béni-oui-oui incarne la soumission. Deux expressions venues d’univers opposés — l’une de la culture populaire américaine, l’autre de la satire française — mais qui, chacune à leur manière, parlent du rapport entre liberté et conformisme. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
La tontine est sans doute l’un des placements les plus originaux — et les plus intrigants — de l’histoire financière. Imaginée au XVIIᵉ siècle, elle repose sur un principe aussi simple que déroutant : gagner de l’argent en survivant plus longtemps que les autres.Son invention revient à Lorenzo Tonti, un banquier napolitain installé en France, qui propose en 1653 au cardinal Mazarin un système destiné à financer le royaume sans recourir à de nouveaux impôts. Le principe : plusieurs investisseurs versent une somme dans un fonds commun, que l’État fait fructifier. Chaque année, les intérêts sont répartis entre les souscripteurs encore en vie. À mesure que les participants décèdent, leurs parts sont redistribuées aux survivants. Le dernier en vie hérite donc de la totalité des revenus.Ce mécanisme, entre placement collectif et pari sur la longévité, séduit immédiatement. À l’époque, c’est une manière innovante d’assurer sa retraite ou de transmettre un capital — tout en ajoutant une touche de suspense presque macabre. Les tontines royales rencontrent un grand succès, notamment sous Louis XIV, car elles combinent sécurité (le capital est garanti par l’État) et potentiel de gain élevé.Mais cette forme d’épargne a aussi ses zones d’ombre. Elle favorise une spéculation morbide : certains misent sur des groupes de vieillards en espérant des rendements rapides. D’autres trichent sur leur âge ou leur état de santé. Peu à peu, la complexité de la gestion et le risque de fraude font perdre à la tontine son prestige. Au XIXᵉ siècle, elle est supplantée par l’assurance-vie moderne, jugée plus éthique et plus transparente.Pourtant, le mot « tontine » n’a pas disparu. Dans de nombreux pays africains et asiatiques, il désigne aujourd’hui une forme d’épargne communautaire : plusieurs personnes versent régulièrement une somme dans un pot commun, attribué à tour de rôle à chaque membre du groupe. Ici, plus de pari sur la mort, mais une logique de solidarité et de confiance mutuelle.La tontine est donc un placement surprenant parce qu’elle mêle économie, hasard et humanité. Elle illustre à quel point la finance, loin d’être une invention moderne, a toujours cherché à concilier le profit individuel, le temps… et parfois même le destin. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
L’effet Flynn désigne un phénomène fascinant observé tout au long du XXᵉ siècle : la hausse régulière du quotient intellectuel (QI) moyen dans la plupart des pays industrialisés. Décrit pour la première fois par le politologue néo-zélandais James R. Flynn dans les années 1980, cet effet montre que, d’une génération à l’autre, les scores aux tests de QI augmentaient d’environ 3 points par décennie. Autrement dit, un individu moyen des années 1950 obtiendrait aujourd’hui un score inférieur à la moyenne actuelle, sans pour autant être moins intelligent — simplement parce que les tests ont dû être réétalonnés à mesure que le niveau global progressait.Les causes de ce phénomène sont multiples et cumulatives. D’abord, l’amélioration de l’éducation a joué un rôle majeur : l’école moderne apprend davantage à raisonner abstraitement, à manipuler des concepts, à catégoriser — des compétences directement valorisées par les tests de QI. Ensuite, la meilleure nutrition et les progrès de la médecine ont favorisé un développement cérébral plus complet, notamment durant la petite enfance. À cela s’ajoutent la réduction de la taille des familles (donc plus de stimulation individuelle pour chaque enfant) et la complexification du monde moderne : technologies, médias, urbanisation et exposition constante à de nouveaux symboles ont stimulé nos capacités cognitives.Mais depuis le début du XXIᵉ siècle, plusieurs études remettent en question la permanence de cet effet. En Norvège, au Danemark, en Finlande ou au Royaume-Uni, les chercheurs constatent une baisse du QI moyen depuis les années 1990 — un phénomène inverse, parfois appelé « effet Flynn inversé ». En France, une étude publiée en 2018 dans Intelligence a montré une diminution moyenne d’environ 4 points en vingt ans chez les jeunes adultes.Les raisons de ce recul sont débattues. Certains évoquent un effet plafond : l’humanité aurait atteint un niveau d’éducation et de santé où les gains cognitifs se stabilisent naturellement. D’autres soulignent l’impact de changements sociétaux : usage excessif des écrans, déclin de la lecture, baisse de la concentration, ou encore inégalités scolaires grandissantes. Flynn lui-même, avant sa mort en 2020, estimait que l’effet n’avait pas disparu, mais qu’il se fragmentait selon les contextes : certains pays continuent de progresser, d’autres stagnent ou reculent.En résumé, l’effet Flynn a bien existé — il a même transformé notre manière de penser l’intelligence —, mais il n’est plus universel aujourd’hui. Son évolution reflète moins une baisse de nos capacités que les mutations profondes de notre environnement culturel et cognitif. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Bien avant Google, Wikipedia ou Internet, deux visionnaires belges ont imaginé un système pour rassembler tous les savoirs du monde. À la fin du XIXᵉ siècle, Paul Otlet et Henri La Fontaine, juristes et humanistes, conçoivent à Bruxelles un projet d’une ambition vertigineuse : le Répertoire bibliographique universel (RBU). Leur idée ? Créer une base de données mondiale recensant chaque livre, article, découverte et document publié sur Terre. Un rêve de connaissance totale, bien avant l’ère numérique.Le projet voit le jour en 1895, dans le sillage du positivisme et de l’idéalisme scientifique de l’époque. Otlet et La Fontaine croient en un monde où la paix et le progrès viendraient de la mise en commun du savoir. Pour cela, ils inventent un système révolutionnaire de classification : la Classification décimale universelle (CDU), encore utilisée aujourd’hui dans certaines bibliothèques. Chaque information reçoit un code numérique, permettant de la retrouver et de la relier à d’autres, selon un principe qui annonce déjà les liens hypertextes d’Internet.Le Répertoire bibliographique universel devient rapidement gigantesque. Dans leurs bureaux, des dizaines de collaborateurs compilent, à la main, des fiches cartonnées de 12,5 × 7,5 cm. Chacune décrit un livre, un article ou une donnée scientifique. En quelques années, le projet dépasse les 12 millions de fiches, soigneusement rangées dans des tiroirs métalliques. Pour consulter une information, les chercheurs du monde entier peuvent écrire une lettre : le centre de documentation leur envoie alors, par courrier, les références demandées. Autrement dit, une forme primitive de moteur de recherche humain, avec du papier et des timbres à la place des algorithmes et des câbles.Otlet rêve même d’aller plus loin : il imagine une « cité mondiale du savoir », où chacun pourrait consulter à distance des millions de documents via des écrans connectés. Dans ses carnets, il dessine des machines de lecture à distance, combinant électricité, téléphone et microfilm — une vision étonnamment proche des ordinateurs en réseau.Mais la Seconde Guerre mondiale interrompt le projet ; une partie du répertoire est détruite. Le reste est aujourd’hui conservé au Mundaneum, à Mons, surnommé parfois « le Google de papier ».Ainsi, bien avant l’informatique, un Belge a rêvé d’Internet. Paul Otlet n’a pas inventé le Web, mais il en a conçu l’esprit : celui d’un monde où le savoir circule librement, pour relier les esprits plutôt que les écrans. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
L’expression « Ave Caesar, morituri te salutant » — « Salut à toi, César, ceux qui vont mourir te saluent » — évoque aujourd’hui l’image de gladiateurs saluant l’empereur avant un combat à mort. Pourtant, cette représentation populaire est historiquement fausse. Les gladiateurs n’ont, semble-t-il, jamais prononcé cette phrase avant leurs affrontements. Son origine est bien plus ponctuelle, presque anecdotique, et remonte à un unique épisode de l’histoire romaine.Nous sommes en 52 après J.-C., sous le règne de l’empereur Claude. À cette époque, Rome célèbre l’inauguration d’un immense bassin artificiel destiné à accueillir une naumachie, un spectacle grandiose de bataille navale reconstituée. Pour divertir la foule, Claude fait affronter sur l’eau plusieurs milliers d’hommes, souvent des condamnés, des prisonniers de guerre ou des esclaves, contraints de s’entre-tuer dans une reconstitution sanglante.Selon l’historien Suétone, ces combattants, avant de s’élancer, se rangèrent devant l’empereur et lui lancèrent cette phrase : « Ave, imperator, morituri te salutant ». Ce n’était pas un cri d’honneur, mais plutôt une supplication ironique et désespérée. En saluant l’empereur, ils imploraient sa clémence, espérant qu’il les épargnerait. Loin d’être une tradition, cette salutation fut un acte isolé, une tentative d’émouvoir Claude.Et, fait rare dans les chroniques romaines, il semble que l’empereur ait été touché. Pris de compassion, il aurait ordonné d’arrêter le combat et d’épargner les hommes. Mais, selon certaines sources, le spectacle reprit ensuite, peut-être sous la pression de la foule impatiente. Quoi qu’il en soit, cette unique scène, immortalisée par les auteurs antiques, devint le symbole de la soumission absolue au pouvoir impérial.Au fil des siècles, l’expression fut détournée et romantisée. Les artistes et écrivains du XIXᵉ siècle, fascinés par la grandeur tragique de Rome, imaginèrent les gladiateurs la prononçant avant d’entrer dans l’arène. Le cinéma et la littérature en firent une réplique héroïque, transformant une supplique d’hommes condamnés en cri de loyauté virile.En réalité, cette phrase n’était donc ni un rituel, ni un mot d’honneur, mais le témoignage ponctuel d’un désespoir collectif. Derrière la grandeur du latin, il faut y entendre non pas la gloire du combat, mais le tremblement de ceux qui savent qu’ils vont mourir — et qui, jusqu’au bout, tentent encore de vivre. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
L’histoire du sushi est bien plus ancienne — et bien plus surprenante — qu’on ne l’imagine. Avant d’être un mets raffiné servi dans les restaurants du monde entier, le sushi fut d’abord… une méthode de conservation du poisson. Rien à voir, donc, avec les bouchées délicates que l’on déguste aujourd’hui.Tout commence en Asie du Sud-Est, plusieurs siècles avant notre ère. Les pêcheurs du Mékong, puis ceux de Chine, avaient découvert un moyen ingénieux de conserver le poisson sans réfrigération : ils le salaient, puis l’enfermaient dans du riz cuit. Ce riz, en fermentant, produisait de l’acide lactique, qui empêchait la chair du poisson de se décomposer. Après plusieurs mois, on retirait le riz — devenu acide et peu appétissant — pour ne manger que le poisson, désormais parfaitement conservé. Cette pratique s’appelait le narezushi, littéralement « poisson fermenté dans le riz ».Au VIIIe siècle, cette méthode arrive au Japon, où elle est rapidement adoptée. Le Japon, archipel de pêcheurs, y trouve un moyen idéal de préserver ses ressources marines. Mais peu à peu, les Japonais, fins gastronomes, vont transformer cette technique de survie en art culinaire. D’abord, ils raccourcissent la durée de fermentation : quelques semaines au lieu de plusieurs mois. Puis, ils se mettent à consommer aussi le riz, découvrant que son goût légèrement acide s’accorde bien avec le poisson.C’est au XVIIᵉ siècle, à l’époque d’Edo (l’actuel Tokyo), qu’une véritable révolution se produit. Les habitants d’Edo, pressés et amateurs de nouveautés, n’ont plus le temps d’attendre la fermentation. Un chef anonyme a alors l’idée de reproduire le goût acidulé du riz fermenté… en y ajoutant du vinaigre de riz ! C’est la naissance du hayazushi, le « sushi rapide ». Plus besoin d’attendre des mois : on mélange du riz vinaigré à du poisson frais, et on peut le consommer immédiatement.De cette invention naîtront les différentes formes de sushi modernes, dont le nigirizushi — cette petite bouchée de riz surmontée d’une tranche de poisson cru — popularisé au XIXᵉ siècle à Tokyo, vendu dans la rue comme un fast-food local.Ainsi, le sushi, symbole aujourd’hui de raffinement et de fraîcheur, est né d’un besoin très pragmatique : conserver le poisson dans le riz pour éviter qu’il ne pourrisse.Autrement dit, avant d’être un art, le sushi fut une astuce — et c’est peut-être là que réside tout le génie japonais : transformer une contrainte en tradition millénaire. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Pendant la Seconde Guerre mondiale, certains pilotes — notamment soviétiques — ont pratiqué une manœuvre extrême et terrifiante : l’abordage volontaire en vol, ou taran en russe. Cette technique consistait à percuter l’avion ennemi avec son propre appareil, souvent lorsque toutes les autres options étaient épuisées : plus de munitions, moteur en feu, ou situation désespérée. Contrairement au mythe, il ne s’agissait pas toujours d’une attaque suicide.Le taran naît dans les premières années du conflit, à un moment où l’URSS est prise de court par l’attaque allemande de 1941. L’armée de l’air soviétique, alors inférieure technologiquement à la Luftwaffe, manque d’appareils modernes et de pilotes expérimentés. Dans ce contexte, certains aviateurs n’ont qu’un seul moyen de neutraliser un adversaire mieux armé : le frapper de plein fouet.Mais l’abordage volontaire n’était pas un acte aveugle. Il demandait une maîtrise exceptionnelle et un courage presque insensé. Le pilote soviétique visait généralement la queue ou l’aile de l’avion ennemi, cherchant à le détruire sans provoquer l’explosion immédiate de son propre appareil. Certains utilisaient même l’hélice pour sectionner le gouvernail de l’adversaire, espérant conserver assez de contrôle pour s’éjecter ou effectuer un atterrissage forcé.Le premier taran documenté eut lieu le 26 juin 1941, quelques jours après le début de l’invasion allemande. Le lieutenant Viktor Talalikhin devint un héros national après avoir abattu un bombardier Heinkel 111 en percutant son aile, puis réussi à sauter en parachute. Cet exploit, largement relayé par la propagande soviétique, transforma le taran en symbole du courage patriotique absolu. Des centaines de pilotes l’imitèrent ensuite, parfois jusqu’à y laisser la vie.Il faut aussi comprendre la dimension psychologique et idéologique de cette tactique. Dans une guerre où chaque acte héroïque servait à galvaniser le peuple, ces abordages prouvaient que la détermination pouvait l’emporter sur la technologie. Les journaux soviétiques en firent des récits épiques : le corps comme arme ultime, la volonté comme moteur.Au total, on recense plus de 500 abordages volontaires durant la guerre, dont près de la moitié furent survivants. Certains pilotes réussirent même plusieurs tarans.L’abordage volontaire en vol incarne ainsi l’extrême du combat aérien : un mélange d’ingéniosité, de sacrifice et de désespoir. C’était une arme de la dernière chance — mais aussi une démonstration éclatante de la foi absolue de ces pilotes en leur mission. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
En 1990, le Japon a opéré une modification presque imperceptible mais symboliquement majeure de son drapeau national : le célèbre disque rouge, représentant le soleil, a été décalé d’environ 1 % vers la droite et légèrement redimensionné. Ce changement minuscule, à peine visible à l’œil nu, marque pourtant une étape importante dans la normalisation et la codification de l’un des symboles les plus puissants du pays.Pendant des décennies, le drapeau japonais — le Hinomaru, littéralement « le cercle du soleil » — n’avait aucune définition officielle précise. Depuis la fin du XIXe siècle, chaque institution, chaque imprimerie, chaque école l’interprétait légèrement différemment : certaines versions affichaient un rouge orangé, d’autres un rouge profond ; parfois le disque était parfaitement centré, parfois un peu excentré pour des raisons esthétiques ou d’équilibre visuel. En somme, il n’existait aucune norme graphique nationale.C’est ce flou que le gouvernement japonais décida de corriger à la fin du XXe siècle. En 1990, à l’approche du couronnement de l’empereur Akihito et d’une nouvelle ère symbolique pour le pays, le ministère de l’Éducation annonça une standardisation du drapeau. Le rouge du disque fut défini avec précision (couleur officielle : sun red), son diamètre fixé à trois cinquièmes de la hauteur du drapeau, et surtout, le cercle fut déplacé d’1 % vers la droite.Pourquoi ce léger décalage ?La raison est avant tout optique. Lorsqu’un drapeau flotte au vent, le tissu se plie et se déforme : un disque parfaitement centré semble visuellement décalé vers la gauche. Pour compenser cet effet, les designers officiels décidèrent de placer le soleil très légèrement à droite, afin qu’il paraisse parfaitement centré lorsqu’il est hissé. Autrement dit, c’est une correction d’illusion visuelle, pas un geste politique.Mais cette retouche minime a aussi une portée symbolique. Dans une culture où l’harmonie visuelle est essentielle, ce soin extrême pour un simple millimètre illustre la recherche d’équilibre et de perfection chère au Japon. Le Hinomaru, symbole du soleil levant, devait apparaître dans toute sa pureté — stable, équilibré, intemporel.Depuis, le drapeau officiellement codifié reste identique. Ce décalage d’un pour cent rappelle que, pour le Japon, l’harmonie parfaite se joue parfois à un détail près — et qu’un symbole millénaire mérite la précision d’un coup de pinceau invisible. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Grokipedia, c'est le nom de la nouvelle encyclopédie en ligne d'Elon Musk, conçue comme une alternative directe à Wikipédia — mais cette fois, dopée à l’intelligence artificielle. Un outil censé être , je cite, « plus libre » et « moins biaisé »... Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Quand on respire, on oublie souvent une évidence : l’air a un poids. Invisible, impalpable, il n’en est pas moins matériel. L’air est en effet un mélange de gaz, essentiellement de l’azote (78 %) et de l’oxygène (21 %), auxquels s’ajoutent de petites quantités d’argon, de dioxyde de carbone et d’autres gaz rares. Or, comme toute matière, ces gaz sont constitués de particules dotées d’une masse.Dans des conditions dites « usuelles », c’est-à-dire au niveau de la mer et à une température de 20 °C, la masse volumique de l’air est d’environ 1,3 kilogramme par mètre cube. Dit autrement, un litre d’air pèse approximativement 1,3 gramme. Cela peut sembler minuscule, mais dès que l’on considère de grands volumes, le poids devient considérable. Par exemple, une pièce de 50 m³ — soit une chambre moyenne — contient environ 65 kilos d’air, soit le poids d’un adulte.Ce poids varie en fonction de la pression et de la température. Si la pression diminue, comme en altitude, la densité de l’air baisse : l’air est alors plus « léger », ce qui explique entre autres la difficulté à respirer en montagne. À l’inverse, si la température augmente, les molécules s’agitent, s’écartent les unes des autres et occupent plus de volume : la masse d’air par litre diminue également. C’est ce principe qui permet aux montgolfières de s’élever : l’air chaud qu’elles contiennent est moins dense que l’air extérieur, plus lourd, ce qui crée une poussée vers le haut.Le poids de l’air n’est pas qu’une curiosité théorique : il a des effets concrets sur notre vie quotidienne. La pression atmosphérique, qui résulte du poids de la colonne d’air au-dessus de nos têtes, exerce environ 1 kilogramme par centimètre carré de surface. Sur tout notre corps, cela représente plusieurs tonnes ! Heureusement, notre organisme est équilibré par la pression interne, et nous ne ressentons pas ce poids.Enfin, cette masse d’air joue un rôle crucial dans la météo et le climat. Les variations de densité créent des mouvements, les fameuses masses d’air chaud ou froid, qui gouvernent vents, tempêtes et précipitations.Ainsi, même s’il est invisible, l’air est loin d’être immatériel. Il a un poids mesurable, qui influence aussi bien la science du vol que notre météo et même notre respiration quotidienne. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Dire que le signe « = » a été inventé par fainéantise n’est pas tout à fait faux… et c’est même son créateur qui l’a avoué !Nous sommes en 1557, en Angleterre. Un médecin et mathématicien gallois, Robert Recorde, publie un ouvrage au titre savoureux : The Whetstone of Witte, littéralement « La pierre à aiguiser l’esprit ». Dans ce livre destiné à enseigner l’algèbre, il se heurte à un problème très pratique : comment éviter de répéter sans cesse l’expression « est égal à » ?À l’époque, les mathématiciens écrivent tout en toutes lettres, et les équations deviennent interminables. Recorde se lasse de cette répétition. Il décide donc d’introduire un symbole pour la remplacer. Son choix ? Deux traits parallèles, de même longueur. Pourquoi ? Parce que, selon lui, « rien ne peut être plus égal que deux choses parallèles ». Ainsi naît le signe égal tel que nous le connaissons encore aujourd’hui.On peut dire que ce fut un geste de fainéantise éclairée : Recorde voulait se simplifier la vie. Mais cette simplification est devenue une révolution. Grâce à ce symbole, l’écriture mathématique gagne en concision et en clarté. Finies les phrases interminables, place aux équations élégantes et rapides à manier.Il faut noter que ce n’est pas la seule tentative de notation. D’autres savants de son époque ou un peu plus tard avaient imaginé des symboles différents pour exprimer l’égalité. Mais c’est celui de Recorde qui s’impose, car il est simple, intuitif et facile à tracer.Curieusement, le signe n’a pas connu un succès immédiat. Pendant des décennies encore, certains mathématiciens continuent à écrire « est égal à » en toutes lettres. Ce n’est qu’au XVIIᵉ siècle, avec la montée en puissance de l’algèbre et de la notation symbolique, que le « = » devient universel.Aujourd’hui, il nous paraît si naturel qu’on en oublie son origine. Pourtant, derrière ce petit signe se cache une histoire de paresse… mais aussi de génie. Recorde a montré qu’en mathématiques, simplifier n’est pas tricher : c’est souvent la clé du progrès.Alors oui, on peut dire que le signe égal a été inventé par fainéantise. Mais c’est une fainéantise créative, celle qui permet d’aller plus vite, plus loin, et d’ouvrir de nouvelles voies à la pensée. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Pendant des décennies, Pluton a été la neuvième planète de notre système solaire. Découverte en 1930 par l’astronome américain Clyde Tombaugh, elle figurait dans tous les manuels scolaires. Mais en 2006, coup de théâtre : l’Union astronomique internationale (UAI) décide de la rétrograder, et Pluton cesse officiellement d’être une planète. Pourquoi ?Tout part d’une définition. Jusqu’au début du XXIᵉ siècle, le terme « planète » n’était pas vraiment défini de façon rigoureuse. Les astronomes s’en tenaient surtout à l’usage. Mais les progrès de l’observation ont compliqué les choses. À partir des années 1990, on découvre dans la ceinture de Kuiper — une région glacée aux confins du système solaire — de nombreux corps célestes comparables à Pluton. Le plus marquant fut Éris, découvert en 2005, légèrement plus massif que Pluton. Si Pluton était une planète, fallait-il alors en ajouter des dizaines d’autres ?L’UAI a donc tranché. En 2006, elle adopte une définition précise d’une planète :1. Elle doit orbiter autour du Soleil.2. Elle doit être suffisamment massive pour prendre une forme sphérique, sous l’effet de sa gravité.3. Elle doit avoir « nettoyé » son orbite, c’est-à-dire être dominante et avoir éliminé les autres objets de taille comparable autour d’elle.Pluton remplit les deux premiers critères, mais pas le troisième. Son orbite est encombrée : elle croise celle de Neptune et partage son espace avec d’autres corps de la ceinture de Kuiper. Elle n’est donc pas « maîtresse » de son environnement. Résultat : Pluton perd son statut de planète.Depuis, elle est classée parmi les planètes naines, au même titre qu’Éris, Cérès ou Makémaké. Cela ne la rend pas moins intéressante, bien au contraire. En 2015, la sonde New Horizons a révélé un monde complexe, avec des montagnes de glace, une atmosphère fine et peut-être un océan sous sa surface.La controverse n’a pourtant pas disparu. De nombreux astronomes et une partie du public continuent de considérer Pluton comme une planète « de cœur ». Pour beaucoup, cette décision illustre la tension entre la rigueur scientifique et l’attachement populaire.En résumé, Pluton n’a pas quitté notre système solaire : elle y brille toujours, mais son titre a changé. Ce qui a disparu, ce sont nos certitudes, remplacées par une vision plus nuancée et plus riche de ce qu’est une planète. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Quand on pense à la France, trois images surgissent souvent : la baguette, le vin… et le croissant. Pourtant, l’histoire de ce dernier réserve une belle surprise : le croissant n’est pas né en France, mais en Autriche.L’histoire remonte à 1683, à Vienne, capitale des Habsbourg. Cette année-là, la ville est assiégée par l’armée ottomane. Les combats font rage et les habitants craignent l’invasion. Une légende raconte que ce sont les boulangers, levés aux aurores pour pétrir la pâte, qui entendirent des bruits suspects sous les remparts. Les Ottomans creusaient des tunnels pour pénétrer dans la cité. Prévenus à temps, les défenseurs purent contrecarrer l’attaque et repousser l’ennemi.La victoire fut éclatante. Pour la célébrer, les boulangers eurent une idée ingénieuse : façonner une pâtisserie en forme de croissant de lune, emblème du drapeau ottoman. Mordre dans cette pâte dorée revenait ainsi, symboliquement, à croquer l’ennemi. C’est la naissance du kipferl, ancêtre du croissant.Ce kipferl viennois n’était pas feuilleté comme celui que nous connaissons aujourd’hui. Il s’agissait plutôt d’une pâte briochée, dense, parfois enrichie d’amandes ou de noisettes. On en trouve d’ailleurs des variantes dans toute l’Europe centrale, où il est consommé depuis le Moyen Âge.Alors, comment cette viennoiserie est-elle devenue française ? La réponse se trouve au XIXᵉ siècle. En 1839, un officier autrichien à la retraite, August Zang, ouvre une boulangerie viennoise à Paris, rue de Richelieu. Ses kipferl séduisent rapidement la clientèle parisienne, avide de nouveautés. Les artisans français adoptent l’idée, mais la transforment : au lieu d’une pâte briochée, ils utilisent la pâte feuilletée levée, déjà employée pour les vol-au-vent ou les chaussons. Le croissant tel que nous le connaissons aujourd’hui, léger, croustillant, beurré, est donc une invention française… à partir d’un concept autrichien.Cette hybridation explique le paradoxe : le croissant est à la fois étranger et profondément français. Étranger par ses origines historiques, français par son perfectionnement culinaire et sa diffusion. C’est d’ailleurs seulement au XXᵉ siècle que le croissant devient un incontournable du petit-déjeuner hexagonal, accompagné d’un café noir ou d’un bol de chocolat chaud.Ainsi, derrière cette viennoiserie dorée se cache une histoire de guerre, de symboles et de métissage culturel. Le croissant n’est pas né en France, mais la France en a fait un emblème universel. Une preuve que, parfois, l’identité culinaire se construit dans la rencontre des traditions plutôt que dans la pureté des origines. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Quand on évoque les grandes civilisations précolombiennes, deux noms surgissent immédiatement : les Mayas et les Incas. Pourtant, si elles ont toutes deux marqué l’histoire de l’Amérique, elles sont très différentes dans leur localisation, leur organisation et leurs héritages.Les Mayas apparaissent bien avant les Incas. Leur civilisation se développe dès 2000 avant notre ère, dans les forêts tropicales du Yucatán, au sud du Mexique, ainsi qu’au Guatemala, au Belize et au Honduras actuels. Les Incas, eux, émergent beaucoup plus tard, au XIIIᵉ siècle, dans la cordillère des Andes, principalement au Pérou. Cette différence chronologique explique déjà un contraste : quand l’empire inca atteint son apogée au XVe siècle, les grandes cités mayas étaient déjà abandonnées depuis longtemps.Sur le plan politique, le contraste est frappant. Les Mayas n’avaient pas un empire unifié mais une mosaïque de cités-États indépendantes, comme Tikal, Palenque ou Copán, qui rivalisaient entre elles par des guerres et des alliances. Les Incas, au contraire, fondèrent un empire centralisé : le Tawantinsuyu. Depuis Cuzco, l’empereur, appelé le Sapa Inca, exerçait un pouvoir absolu sur des millions de sujets et un territoire immense s’étendant de la Colombie jusqu’au Chili.Sur le plan culturel, les Mayas brillèrent surtout par leur écriture et leurs connaissances scientifiques. Ils développèrent un système d’écriture hiéroglyphique complexe, unique en Amérique, qui permettait de noter aussi bien des événements politiques que des récits mythologiques. Ils élaborèrent également un calendrier extrêmement précis, basé sur l’astronomie, et laissèrent des monuments impressionnants comme les pyramides de Chichén Itzá. Les Incas, eux, ne connaissaient pas l’écriture. Pour conserver la mémoire des tributs ou des recensements, ils utilisaient les quipus, des cordelettes nouées dont les combinaisons servaient de code numérique. Leur génie s’exprima surtout dans l’ingénierie : routes pavées traversant les Andes, ponts suspendus, systèmes d’irrigation et villes perchées comme Machu Picchu.Enfin, leurs religions différaient. Les Mayas pratiquaient des rituels sanglants pour apaiser leurs dieux, y compris des sacrifices humains. Les Incas, eux, adoraient surtout Inti, le dieu Soleil, et considéraient l’empereur comme son descendant direct. Leurs sacrifices humains existaient, mais étaient plus rares et souvent réservés à des moments exceptionnels.En somme, les Mayas furent des astronomes et des scribes brillants, mais fragmentés politiquement. Les Incas, eux, bâtirent un empire solide et organisé, mais sans écriture. Deux civilisations fascinantes, qui montrent la diversité et la richesse des mondes précolombiens bien avant l’arrivée des Européens. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Quand on imagine un pilote d’avion, on pense souvent à quelqu’un doté d’une vue d’aigle, capable de distinguer chaque détail dans le ciel. Mais en réalité, les choses sont plus nuancées. Les autorités aéronautiques n’exigent pas une vision “parfaite”, mais une vision suffisamment bonne, quitte à être corrigée par des lunettes ou des lentilles.Aux États-Unis, par exemple, la FAA impose que les pilotes de ligne obtiennent une acuité visuelle de 20/20 de loin dans chaque œil, mais cela peut être avec correction. Autrement dit, si un pilote a besoin de lunettes, il est tout à fait autorisé à voler, tant que sa vision corrigée atteint le seuil. Pour la vision de près – indispensable pour lire les instruments – une acuité de 20/40 est suffisante. En Europe, sous l’autorité de l’EASA, les règles sont similaires : l’important n’est pas d’avoir une vue naturellement parfaite, mais de pouvoir atteindre les normes grâce à une correction optique. Les pilotes qui portent des lunettes doivent simplement emporter une paire de secours dans le cockpit.Bien sûr, certaines conditions sont encadrées de près. Les lentilles de contact sont admises, mais pas la “monovision” (un œil corrigé pour le loin, l’autre pour le près), car elle perturbe la perception de la profondeur. La chirurgie réfractive, comme le LASIK, est également acceptée, à condition que la vision soit stabilisée et qu’il n’y ait pas de séquelles gênantes, comme des halos lumineux la nuit.Un autre point crucial est la vision des couleurs. Impossible de piloter sans distinguer clairement le rouge, le vert et le blanc : ce sont les couleurs des feux de navigation, des signaux lumineux ou encore des systèmes d’approche visuelle. Les candidats qui échouent aux tests classiques peuvent parfois prouver en situation réelle qu’ils reconnaissent bien ces signaux, mais sinon des restrictions s’appliquent, comme l’interdiction de voler de nuit.Enfin, la vision binoculaire et la perception de la profondeur sont indispensables pour estimer les distances, surtout lors des phases critiques comme l’atterrissage. Certaines pathologies, comme un strabisme important ou une perte du champ visuel, peuvent être éliminatoires.En somme, non, il n’est pas nécessaire d’avoir des yeux parfaits pour devenir pilote. Ce qui compte, c’est de respecter des normes précises, atteignables avec une bonne correction et un suivi médical. Et cela explique pourquoi de nombreux commandants de bord que nous croisons dans les avions de ligne portent… tout simplement des lunettes. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.






👌👌
en Iran, cette année il y a 27 jours fériés !!!😁
Mettre des pubs McDonald's pour influencer des enfants ? Sérieusement ?
Du contenu qui peut parfois être intéressant même pour les adultes. Cependant, 45s de pubs sur 2 minutes d'épisodes c'est dingue... c'est-à-dire que si je veux laisser le podcast une demi-heure, je vais avoir plus de 11 minutes de pubs ?!? En plus, des pubs Mc Donald's pour un contenu destiné aux enfants, c'est ethniquement inapproprié. Jamais je laisse ça à mes enfants.
il a 10 chiffres il ne faut pas oublier le 0 ;)
Les "manags"?
franchement je ne savais pas