DiscoverPourquoi donc ?
Pourquoi donc ?
Claim Ownership

Pourquoi donc ?

Author: Choses à Savoir

Subscribed: 4,683Played: 352,418
Share

Description

Je réponds de façon claire et directe à toutes les questions essentielles, en une minute chrono !


Si vous cherchez le podcast Petits Curieux, c'est par ici: https://chosesasavoir.com/podcast/petits-curieux-2/


Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

983 Episodes
Reverse
Les jeans, aujourd’hui omniprésents dans le monde entier, doivent leur couleur bleue emblématique à des raisons historiques, pratiques et économiques. L’origine de cette teinte remonte au XIXe siècle, lorsqu’un tissu robuste, appelé « denim », a été teinté avec de l’indigo, un colorant naturel aux propriétés uniques.  1. L’origine de la teinte bleue : l’indigo La teinture bleue des jeans provient traditionnellement de l’indigo, un colorant végétal extrait de plantes telles que Indigofera tinctoria. Utilisé depuis l’Antiquité en Inde, en Égypte et en Chine, l’indigo était prisé pour sa capacité à fixer la couleur sur les fibres textiles tout en offrant une résistance au lavage et à l’usure. Lorsque Levi Strauss et Jacob Davis ont popularisé le jean en tant que vêtement de travail pour les mineurs et ouvriers dans les années 1870, ils ont choisi l’indigo pour teindre le denim, car cette couleur permettait de masquer les taches et la saleté accumulées au fil du temps.  2. Un choix pratique pour les ouvriers Le bleu indigo offrait plusieurs avantages pratiques pour les travailleurs de l’époque. Contrairement aux autres colorants qui pénètrent profondément dans les fibres, l’indigo se fixe en surface, permettant au tissu de s’éclaircir progressivement avec le temps et les lavages. Cela donnait aux jeans un aspect usé et patiné, apprécié à la fois pour son esthétique et pour sa capacité à rendre les vêtements plus confortables avec le temps. De plus, la teinte bleue absorbait moins la chaleur que les couleurs sombres comme le noir, ce qui était un avantage pour les travailleurs exposés au soleil pendant de longues heures.  3. L’évolution industrielle et la démocratisation Avec la révolution industrielle, la production de l’indigo synthétique a été développée par le chimiste allemand Adolf von Baeyer à la fin du XIXe siècle. Cela a permis de réduire considérablement les coûts de fabrication et de rendre la teinte bleue accessible à grande échelle. Le bleu est alors devenu la couleur standard du jean, associé à la robustesse et à l’image du travailleur. Dans les années 1950, le jean bleu est passé du vêtement de travail à un symbole de mode et de rébellion, notamment grâce à des icônes comme James Dean et Marilyn Monroe, ancrant définitivement cette couleur dans la culture populaire. Aujourd’hui, bien que le denim soit décliné en de nombreuses couleurs, le bleu reste dominant en raison de son héritage historique et de sa polyvalence esthétique.  Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
L’appellation « poulets » pour désigner les policiers remonte au XIXe siècle et trouve son origine à Paris. En 1871, après la Commune de Paris, la préfecture de police, qui se trouvait sur l’île de la Cité, fut incendiée. Pour reloger temporairement les services de police, les autorités choisirent un lieu insolite : l’ancienne caserne de la garde républicaine située dans la rue de la Cité, sur l’emplacement d’un ancien marché aux volailles. Ce marché était connu pour son activité intense liée à la vente de poulets vivants, et les habitants du quartier ne tardèrent pas à établir un lien humoristique entre les policiers et leur nouveau lieu de travail.  Avec le temps, cette appellation s’est propagée dans le langage populaire, souvent de manière moqueuse ou affectueuse. Le terme a été renforcé par le fait que les policiers, en uniforme et souvent en groupe, pouvaient être comparés à un troupeau de volatiles. De plus, les déplacements rapides et bruyants des forces de l’ordre lors des interventions rappelaient parfois l’agitation des poulets dans une basse-cour. Aujourd’hui encore, l’expression est largement utilisée en France, notamment dans l’argot des jeunes ou des médias, bien que parfois perçue comme familière ou légèrement péjorative.  L’origine de l’expression « en file indienne » L’expression « en file indienne » trouve son origine dans les observations faites par les explorateurs européens lors de la découverte de l’Amérique. Les peuples autochtones d’Amérique du Nord, notamment les tribus des Grandes Plaines et des forêts, avaient pour habitude de se déplacer en file unique lorsqu'ils se déplaçaient en forêt ou sur des terrains accidentés. Ce mode de déplacement avait plusieurs objectifs : minimiser les traces laissées au sol pour éviter d’être repérés par d’éventuels ennemis, faciliter la navigation dans des espaces denses et permettre une meilleure organisation des groupes. Les premiers colons et explorateurs européens, fascinés par ces pratiques, ont popularisé l'expression en Europe. Elle est rapidement devenue un terme courant pour désigner tout déplacement en une seule file, que ce soit dans des contextes militaires, scolaires ou du quotidien. Bien que cette expression soit encore couramment utilisée aujourd’hui, elle est parfois critiquée pour son aspect réducteur envers les cultures amérindiennes, reflétant une vision simplifiée des pratiques autochtones. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Le chapeau pointu est une image emblématique associée aux sorciers dans les contes et la culture populaire. Cette représentation visuelle a des origines historiques, culturelles et symboliques qui se sont consolidées au fil du temps pour devenir un stéréotype incontournable.Origines historiques et culturellesL'une des premières apparitions du chapeau pointu remonte au Moyen Âge et à la Renaissance, où il était porté par certaines minorités ou groupes marginaux, souvent stigmatisés par la société. Par exemple, les Juifs en Europe médiévale étaient parfois contraints de porter des couvre-chefs pointus pour les distinguer, ce qui a contribué à associer ce style de chapeau à l'altérité et à la marginalisation. Plus tard, cette imagerie a été réinterprétée dans les récits populaires pour symboliser la sorcellerie, souvent perçue comme une pratique en marge des normes établies.De plus, les sorciers et sorcières ont longtemps été associés aux hérésies et aux cultes païens, et l'Église chrétienne médiévale les considérait comme des figures démoniaques. Le chapeau pointu aurait alors pu être assimilé aux cornes du diable dans l'imaginaire collectif, renforçant l'idée de leur nature maléfique ou rebelle.Symbole de pouvoir et de mystèreUn autre facteur expliquant cette iconographie est l'association du chapeau pointu avec le pouvoir mystique et la sagesse occulte. La forme conique du chapeau symbolise une élévation vers le ciel ou les sphères célestes, suggérant une connexion avec des forces supérieures ou des connaissances cachées. Ce concept trouve des échos dans les traditions ésotériques où les pyramides et les formes triangulaires sont considérées comme des canaux d’énergie spirituelle.Dans les illustrations de la Renaissance et de l’époque victorienne, les alchimistes et astrologues – souvent perçus comme des praticiens de la magie – étaient représentés coiffés de chapeaux coniques. Cela a contribué à renforcer le lien entre ce couvre-chef et les personnages détenant des connaissances interdites ou extraordinaires.Popularisation par la culture moderneLe stéréotype du chapeau pointu a été largement popularisé par la littérature et le cinéma, notamment à travers des œuvres comme Le Magicien d'Oz et les illustrations de contes de fées européens. Ces représentations ont contribué à cimenter l'image du sorcier coiffé d’un grand chapeau noir, souvent orné d’une boucle ou d’étoiles, dans l’imaginaire collectif.En résumé, le chapeau pointu des sorciers est le fruit d’un mélange d’influences historiques, religieuses et culturelles qui ont évolué au fil des siècles, créant un archétype puissant et reconnaissable dans la culture populaire. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
En Chine, un métier improbable a vu le jour, incarnant l'ingéniosité face aux réalités d’un quotidien trépidant : celui de patienteur professionnel. Cette profession insolite consiste à faire la queue à la place d’autrui, un service devenu indispensable dans les grandes villes où le temps est un luxe rare. Entre pragmatisme et curiosité culturelle, plongeons dans l’univers de ces travailleurs pas comme les autres. Dans les métropoles chinoises, les files d’attente sont omniprésentes : à l’hôpital pour obtenir une consultation médicale, dans les administrations pour des formalités, ou encore pour mettre la main sur le dernier gadget technologique. Mais attendre peut être synonyme de frustration, surtout pour des citadins pris dans l’engrenage de leurs horaires. C’est là que les patienteurs professionnels interviennent. Ils proposent leurs services pour attendre à votre place, parfois pendant des heures, moyennant une rémunération. Leur tarif dépend de la durée et de la difficulté de la tâche. Attendre une demi-heure pour un ticket de concert peut coûter une dizaine de yuans (environ 1,30 €), mais patienter toute une nuit devant un hôpital pour une consultation urgente peut se chiffrer à plusieurs centaines de yuans. Certains de ces professionnels passent même la nuit dehors, équipés de couvertures et de thermos, prêts à braver le froid pour servir leurs clients. Ce métier ne se limite pas à attendre debout. Les patienteurs doivent parfois affronter des défis inattendus : négocier avec des personnes tentant de doubler dans la file, ou même gérer la pression des autres clients impatients. Ce rôle demande une grande patience, une endurance physique et mentale, et parfois même une capacité à improviser. Mais derrière cette activité se cachent des réalités sociales plus profondes. Ces patienteurs sont souvent des travailleurs migrants ou des personnes en quête de revenus supplémentaires, tentant de s’adapter aux défis d’une société en pleine mutation. Leur travail reflète les inégalités et la pression constante sur le temps dans les grandes villes chinoises. L’émergence des patienteurs professionnels illustre une fois de plus comment des métiers improbables peuvent naître de besoins spécifiques. Alors, la prochaine fois que vous râlerez devant une file d’attente interminable, pensez à ces anonymes qui, en Chine, ont fait de la patience un véritable gagne-pain. Fascinant, non ?    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
En raison de la situation actuelle au Moyen-Orient, j’ai été momentanément bloqué à l’étranger, ce qui m'a empêché d’enregistrer de nouveaux épisodes pour cette semaine. Je suis contraint de vous proposer des rediffusions jusqu'à vendredi. Veuillez m'en excuser. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Le Williams syndrome est une maladie génétique rare, décrite officiellement au début des années 1960. Elle est due à une micro-délétion sur le chromosome 7. Les personnes qui en sont atteintes présentent plusieurs caractéristiques reconnaissables : petite taille, traits du visage particuliers — nez retroussé, bouche large, joues pleines —, voix douce, grande expressivité, et surtout une sociabilité exceptionnelle. Elles sont souvent décrites comme extraordinairement souriantes, chaleureuses et confiantes, parfois sans méfiance envers les inconnus. À cela peuvent s’ajouter un léger à modéré retard intellectuel et des anomalies cardiovasculaires.Or, bien avant que la génétique moderne ne pose un nom sur cet ensemble de signes, les sociétés rurales interprétaient les différences physiques et comportementales à travers le prisme du folklore. Dans le monde anglo-saxon et celtique, on parlait d’êtres « féeriques » : les elfes ou les fées. Ces créatures étaient décrites comme de petite taille, au visage inhabituel, souvent dotées d’un charme particulier et d’un comportement étrange mais bienveillant.Certains historiens et médecins ont émis l’hypothèse qu’une partie de ces récits pourrait avoir été influencée par la rencontre avec des personnes atteintes du syndrome de Williams. Imaginez un village médiéval : peu de connaissances médicales, forte imprégnation religieuse et mythologique. Une personne présentant ces traits spécifiques, particulièrement sociable, musicale — car beaucoup de patients ont une sensibilité musicale remarquable — et différente physiquement, pouvait facilement être perçue comme « autre », presque surnaturelle.Dans certaines traditions, on parlait même d’« enfants changés », censés avoir été substitués par les fées. Cette croyance pourrait refléter l’incompréhension face à des particularités développementales inexpliquées.Attention toutefois : il ne s’agit pas d’affirmer que les elfes « étaient » des personnes atteintes du syndrome de Williams. Le mythe des elfes est ancien, complexe, et possède des racines multiples — germaniques, nordiques, celtiques. Mais il est plausible que des observations réelles aient nourri l’imaginaire collectif.Cette hypothèse illustre un phénomène fréquent dans l’histoire : avant la médecine scientifique, les différences physiques ou cognitives étaient souvent interprétées comme magiques, démoniaques ou divines.En résumé, le syndrome de Williams n’a pas « créé » le mythe des elfes à lui seul. Mais les caractéristiques très particulières de cette condition ont pu, dans des sociétés anciennes dépourvues d’explications médicales, alimenter et enrichir des récits déjà existants d’êtres mystérieux et féeriques. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Yukio Mishima, de son vrai nom Kimitake Hiraoka, est l’un des plus grands écrivains japonais du XXe siècle. Né en 1925, il devient célèbre après la Seconde Guerre mondiale grâce à des romans comme Le Pavillon d’or ou la tétralogie La Mer de la fertilité. Son œuvre explore la beauté, la mort, le corps, l’honneur et le déclin du Japon traditionnel. Brillant, cultivé, fasciné par l’esthétique du sacrifice, Mishima ne sépare jamais totalement littérature et mise en scène de soi.Son suicide, le 25 novembre 1970, est l’un des plus spectaculaires de l’histoire contemporaine.À cette date, Mishima se rend au quartier général des Forces japonaises d’autodéfense à Ichigaya, à Tokyo, accompagné de quatre membres de la Tatenokai, une milice privée qu’il a fondée. Cette organisation, composée d’étudiants nationalistes, défend l’empereur et les valeurs traditionnelles japonaises. Le Japon d’après-guerre, pacifiste et constitutionnel, lui apparaît comme affaibli, matérialiste et privé de sa grandeur spirituelle.Mishima prend en otage un général et tente d’adresser un discours aux soldats rassemblés dans la cour. Il les appelle à se soulever pour restaurer les pleins pouvoirs de l’empereur et réviser la Constitution pacifiste imposée après 1945. Mais son discours est hué. Les soldats rient, crient, ne le prennent pas au sérieux. L’appel à l’insurrection échoue.C’est alors que Mishima passe à l’acte prévu.Il se retire dans le bureau du général et accomplit un seppuku, le suicide rituel des samouraïs. Il s’ouvre l’abdomen avec un sabre court, conformément à la tradition. Un de ses disciples doit ensuite le décapiter pour abréger ses souffrances. L’exécution est maladroite, chaotique. Finalement, un autre membre du groupe achève le geste.Ce suicide n’est ni impulsif ni improvisé. Mishima l’a préparé depuis des années. Il a mis en scène son corps, pratiqué la musculation, posé comme modèle, écrit une œuvre entière traversée par l’idée que la beauté trouve son accomplissement dans la mort volontaire. Le matin même, il avait remis à son éditeur le dernier volume de sa tétralogie.Son geste choque profondément le Japon. Était-ce un acte politique sincère ? Une performance esthétique ultime ? Une provocation désespérée face à la modernité ? Probablement un mélange des trois.Le suicide de Mishima reste un événement unique : la rencontre brutale entre littérature, nationalisme, théâtre et mort rituelle, dans un Japon devenu moderne mais hanté par son passé. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Sur un bateau, on ne parle ni de gauche ni de droite, mais de bâbord et de tribord. Ces mots, qui semblent techniques ou archaïques, viennent en réalité d’une longue histoire maritime, liée à la navigation médiévale et aux contraintes très concrètes de la manœuvre des navires.Commençons par tribord. Le terme vient de l’ancien français tribort, lui-même issu du germanique steorbord, qui signifie littéralement « le côté où l’on dirige ». Au Moyen Âge, les navires européens étaient équipés d’une rame de gouverne, fixée non pas à l’arrière comme le gouvernail moderne, mais sur le flanc droit du bateau. Cette rame permettait de diriger l’embarcation, et comme la majorité des marins étaient droitiers, elle était naturellement placée à droite. Le côté droit est donc devenu le « côté du gouvernail », le côté pour diriger : steorbord, puis tribord.Passons maintenant à bâbord, dont l’origine est tout aussi révélatrice. Le mot vient de l’ancien français babord, dérivé du germanique bakbord, qui signifie « le côté opposé au gouvernail ». C’est donc, à l’origine, une désignation négative : non pas le côté important, mais l’autre côté, celui qui ne sert pas à diriger. Bâbord est ainsi défini par opposition à tribord.Cette distinction n’est pas qu’une question de vocabulaire. Elle répond à un besoin vital de clarté. En mer, les notions de gauche et de droite sont ambiguës : elles dépendent du sens dans lequel on regarde. Bâbord et tribord, au contraire, sont fixes. Peu importe que l’on regarde vers la proue ou vers la poupe : bâbord est toujours à gauche quand on fait face à l’avant du navire, tribord toujours à droite. Cette stabilité lexicale a permis d’éviter d’innombrables erreurs de manœuvre.Il existe aussi une conséquence pratique historique : les navires accostaient traditionnellement bâbord à quai, afin de protéger la rame de gouverne située à tribord. Cette habitude a renforcé l’usage des termes et leur importance dans la culture maritime.Avec l’apparition du gouvernail central à l’arrière, la rame latérale a disparu, mais les mots sont restés. Ils se sont imposés dans toutes les marines du monde, preuve que le langage maritime conserve la mémoire des techniques anciennes.En résumé, si l’on dit bâbord et tribord, ce n’est pas par tradition gratuite, mais parce que ces mots racontent l’histoire du bateau lui-même : comment il avançait, comment il tournait, et comment les marins ont appris à se comprendre sans jamais se tromper. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Une syllepse est une figure de style subtile. Elle consiste à employer un mot dans deux sens différents en même temps : un sens propre et un sens figuré, ou deux sens distincts d’un même terme. Autrement dit, un seul mot, mais une double lecture.Le terme vient du grec sullêpsis, qui signifie « action de prendre ensemble ». C’est exactement cela : l’auditeur doit « saisir ensemble » deux significations.Prenons un exemple simple :« Il a perdu ses clés et son sang-froid. »Le verbe perdre s’applique ici à deux réalités différentes. On peut perdre des clés au sens propre. On peut perdre son sang-froid au sens figuré. Le mot fonctionne donc sur deux plans simultanément.La syllepse joue souvent sur l’ambiguïté. Elle crée un effet d’esprit, d’ironie ou de profondeur. Par exemple chez Victor Hugo :« Vêtu de probité candide et de lin blanc. »Ici, le mot « vêtu » s’applique concrètement au lin blanc, mais métaphoriquement à la probité. On ne porte évidemment pas la probité comme un vêtement. Pourtant, la construction grammaticale unit les deux.Il ne faut pas confondre la syllepse avec le simple jeu de mots. Le jeu de mots repose sur la sonorité ou l’homonymie. La syllepse, elle, repose sur un glissement de sens à l’intérieur d’une même structure syntaxique.On distingue parfois deux types de syllepses :La syllepse de sens : un mot est pris simultanément dans son sens propre et figuré.La syllepse grammaticale : l’accord se fait selon le sens et non selon la stricte règle grammaticale. Par exemple : « La plupart sont venus. » Le mot « plupart » est singulier, mais l’accord se fait au pluriel, selon l’idée de pluralité.La syllepse est très présente en littérature, en poésie et même en publicité, car elle permet de densifier le langage. En quelques mots, on suggère davantage qu’on ne dit explicitement.Ce qui rend la syllepse intéressante, c’est qu’elle mobilise l’intelligence du lecteur ou de l’auditeur. Elle demande une petite gymnastique mentale : comprendre qu’un mot ne se contente pas d’un seul sens.En résumé, la syllepse est une figure de style qui exploite la richesse polysémique des mots. Elle joue sur la coexistence de deux significations au sein d’une même phrase. C’est une manière élégante de dire plus… en disant moins. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Le végétarisme était un sujet de réflexion pour plusieurs philosophes grecs et romains, bien que ce mode de vie n'ait pas été aussi répandu qu'aujourd'hui. Pour eux, cette pratique allait bien au-delà de simples considérations alimentaires : elle était souvent liée à des idées philosophiques, éthiques, et spirituelles. Voici un aperçu de leurs positions sur le sujet.  Les philosophes grecs et le végétarisme Pythagore (vers 570–495 av. J.-C.)Pythagore est sans doute le philosophe grec le plus célèbre pour son association avec le végétarisme. Il croyait en la transmigration des âmes (la métempsycose), une idée selon laquelle les âmes humaines pouvaient se réincarner dans des animaux. Consommer de la viande revenait donc, selon lui, à tuer un être vivant potentiellement habité par une âme humaine. Pour Pythagore, le végétarisme était aussi une manière de promouvoir une vie harmonieuse et paisible, respectueuse des autres formes de vie.  Platon (428–348 av. J.-C.)Dans La République, Platon évoque une société idéale où les citoyens se nourriraient principalement de céréales, de fruits et de légumes, évitant ainsi les excès et les violences associées à l’élevage. Cependant, il n’adopte pas explicitement une position végétarienne, bien que son idéal de simplicité s'en rapproche.  Aristote (384–322 av. J.-C.)Aristote, élève de Platon, se montre moins favorable au végétarisme. Dans sa Politique et ses autres œuvres, il défend une vision anthropocentrique où les animaux sont subordonnés aux humains. Selon lui, il est naturel que les hommes utilisent les animaux pour se nourrir.  Les philosophes romains et le végétarisme Sénèque (4 av. J.-C.–65 apr. J.-C.)Le stoïcien Sénèque a été influencé par les idées pythagoriciennes et a adopté un régime végétarien pendant une partie de sa vie. Dans ses écrits, il critique la cruauté envers les animaux et souligne que le végétarisme est une manière de cultiver la tempérance et la maîtrise de soi. Cependant, sous la pression sociale, il finit par abandonner cette pratique.  Plutarque (46–120 apr. J.-C.)Plutarque est l’un des philosophes romains les plus fervents défenseurs du végétarisme. Dans son essai De l’abstinence de la chair, il condamne l’abattage des animaux et pose des questions éthiques sur la consommation de viande : pourquoi tuer un être vivant quand on peut vivre sainement sans cela ? Plutarque considère le végétarisme comme une preuve de civilisation et d’humanité.  Porphyre (vers 234–305 apr. J.-C.)Dans son traité De l’abstinence, Porphyre développe une défense philosophique et éthique du végétarisme. Il soutient que l’abstinence de viande est une marque de respect envers les animaux, mais aussi une pratique permettant de vivre en harmonie avec la nature et de se purifier spirituellement.  Une divergence d'opinionsSi certains philosophes comme Pythagore, Plutarque ou Porphyre voient le végétarisme comme une quête de pureté morale et spirituelle, d'autres comme Aristote ou les stoïciens modérés considèrent que l’exploitation des animaux pour se nourrir fait partie de l’ordre naturel. En somme, le végétarisme dans l'Antiquité était souvent lié à des préoccupations éthiques et spirituelles, bien que les opinions sur la légitimité de cette pratique diffèrent selon les écoles de pensée. Ces débats, bien que vieux de plusieurs millénaires, résonnent encore aujourd’hui dans les discussions modernes sur la relation entre l’homme et les animaux. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
L'expression "cousin germain" trouve son origine dans le droit romain et, plus précisément, dans l'usage du mot "germanus" en latin, qui signifie "véritable" ou "authentique". Ce terme était utilisé pour désigner des liens familiaux étroits et directs. Voyons comment cette appellation a évolué pour désigner nos cousins au premier degré.  Une origine juridique et linguistiqueDans le latin médiéval, "germanus" qualifiait des frères et sœurs, c'est-à-dire des membres d’une même fratrie, partageant les mêmes parents. Par extension, le terme a été utilisé pour désigner les cousins dont les parents sont eux-mêmes frères et sœurs, soulignant leur lien familial proche et direct. Au fil du temps, le français a conservé cette notion en adaptant l’expression. Le mot "cousin", issu du latin "consobrinus", qui désigne les enfants de deux sœurs, a été enrichi par l’ajout de "germain" pour marquer cette proximité particulière entre cousins au premier degré (les enfants de deux frères ou de deux sœurs, ou d’un frère et d’une sœur). Ainsi, un "cousin germain" est un cousin avec lequel on partage au moins un grand-parent.  Une distinction importanteCette expression se distingue d’autres termes utilisés pour qualifier des relations familiales plus éloignées. Par exemple :- Un cousin issu de germain est l’enfant du cousin germain d’un des parents.- Un petit-cousin est l’enfant du cousin germain d’une personne.  Un héritage des anciennes famillesL’utilisation de l’expression a également été renforcée par son rôle dans les généalogies aristocratiques et royales, où le degré de parenté était crucial pour des questions de succession, d’héritage ou d’alliance. Déterminer si une personne était un cousin "germain" permettait d’établir clairement ses droits dans un cadre légal ou dynastique. Ainsi, "cousin germain" témoigne de l’influence du droit romain sur notre langue et notre perception des relations familiales, tout en restant un joli clin d'œil à la précision de la généalogie. Une histoire à la croisée des mots et des liens de sang ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Les mocassins, ces chaussures confortables et intemporelles, tirent leurs origines des pratiques ingénieuses des peuples autochtones d'Amérique du Nord. Mais ce qui rend leur histoire particulièrement amusante, c'est la manière dont ces chaussures simples ont su captiver les pieds du monde entier, passant des forêts sauvages aux podiums de mode. Le mot « mocassin » vient du terme algonquin makasin, qui signifie « chaussure ». Les Amérindiens les fabriquaient à partir de cuir souple, souvent en peau d'élan ou de cerf, pour offrir une protection légère et flexible dans des environnements variés. Chaque tribu avait ses propres variantes, avec des perles ou des broderies qui racontaient des histoires uniques. Ces chaussures n'étaient pas seulement pratiques ; elles étaient un véritable symbole culturel. La véritable touche d'humour dans l’histoire des mocassins réside dans leur popularisation. Lors de la colonisation de l’Amérique, les colons européens, qui portaient des bottes rigides et peu pratiques, furent séduits par le confort des mocassins. Les colons, souvent épuisés par leurs longues marches, trouvèrent ces chaussures si confortables qu'ils commencèrent à les adopter... parfois avec un certain manque de style ! Imaginez un Anglais guindé en redingote, tentant maladroitement de porter des mocassins ornés de perles. Au fil des siècles, les mocassins devinrent des icônes de la mode. Dans les années 1930, la marque américaine G.H. Bass ajouta un détail pratique : une petite ouverture sur le dessus, idéale pour glisser un penny, donnant ainsi naissance aux « penny loafers ». Curieusement, ces mocassins à pièce sont devenus incontournables dans les universités américaines. Les étudiants glissaient une pièce de monnaie dans la fente, non pas pour la mode, mais pour avoir de quoi passer un appel téléphonique d’urgence ! Aujourd’hui, les mocassins sont omniprésents, que ce soit en version classique, chic ou décontractée. Ils sont devenus une véritable passerelle entre tradition et modernité, alliant le savoir-faire des Premières Nations à l’élégance contemporaine. Et tout cela, grâce à une chaussure née dans les forêts, conçue pour épouser les pas de la nature. Une belle leçon de confort et de style intemporel, avec une petite touche d'humour historique ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
La couleur magenta est un mystère fascinant, souvent qualifiée de "couleur qui n’existe pas". Mais qu’entend-on exactement par là ? Plongeons dans les secrets de la perception visuelle pour comprendre ce phénomène.  D’abord, il faut savoir que la vision des couleurs repose sur un mécanisme complexe. Nos yeux contiennent des cellules appelées cônes, sensibles à trois types de longueurs d’onde lumineuses : le rouge, le vert et le bleu. Ces signaux sont envoyés à notre cerveau, qui les combine pour produire la vaste palette de couleurs que nous percevons. Cependant, toutes les couleurs que nous voyons n’existent pas forcément comme des longueurs d’onde distinctes dans le spectre lumineux.  Prenez l’arc-en-ciel, par exemple. Il va du rouge au violet, en passant par l’orange, le jaune, le vert et le bleu. Mais il manque une couleur : le magenta. Pourquoi ? Parce que le magenta n’a pas sa propre longueur d’onde. Il est en fait une création de notre cerveau. Cette couleur apparaît lorsque nos yeux captent simultanément de la lumière rouge et de la lumière bleue, sans lumière verte entre les deux pour créer une transition. Incapable de détecter un "pont" dans le spectre, le cerveau invente une couleur pour combler ce vide : le magenta.  Cela fait du magenta une couleur subjective, totalement dépendante de notre perception. Dans un sens physique, elle n’existe pas, puisqu’elle ne correspond à aucune onde lumineuse spécifique. C’est un pur produit de notre esprit.  Ce phénomène souligne à quel point la vision des couleurs est personnelle. Les couleurs que nous voyons sont des interprétations, des constructions mentales qui traduisent des signaux lumineux. Ce qui est encore plus fascinant, c’est que le magenta n’est pas unique : il existe d’autres "couleurs impossibles", comme certaines nuances de bleu-rouge ou de jaune-vert, que notre cerveau ne peut appréhender.  Ainsi, le magenta est une sorte d’illusion. Ce n’est pas une réalité physique, mais une preuve éclatante de la créativité du cerveau humain. En fin de compte, il nous rappelle que notre perception du monde est une merveilleuse combinaison de biologie, de science et de subjectivité. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Les célèbres lettres géantes "Hollywood" perchées sur les collines de Los Angeles sont aujourd’hui un symbole mondial du cinéma et des rêves de gloire. Mais saviez-vous qu’elles n’avaient pas toujours été associées au septième art ? Revenons sur leur origine et leur transformation. Tout commence en 1923, en plein essor de l’immobilier dans les collines de Los Angeles. Ces lettres n’étaient pas destinées à promouvoir le cinéma, mais un projet immobilier appelé "Hollywoodland". Le promoteur Harry Chandler voulait attirer les acheteurs vers un nouveau lotissement luxueux. Pour marquer les esprits, il décide de faire ériger une immense enseigne composée de lettres blanches de 15 mètres de haut, fixées sur des poteaux métalliques. Le mot "Hollywoodland" s’étendait sur plus de 110 mètres de longueur et était éclairé par des milliers d’ampoules, visibles de très loin.  À l’époque, l’enseigne devait être temporaire et retirée après un an. Mais avec l’essor d’Hollywood comme centre de l’industrie cinématographique américaine, elle est rapidement devenue un symbole du glamour et des opportunités qu’offrait la ville. Cependant, avec le temps, les lettres ont commencé à se dégrader, et en 1949, la Chambre de commerce de Hollywood a décidé de restaurer l’enseigne. C’est à ce moment-là que le suffixe "land" a été retiré, ne laissant que "Hollywood", pour représenter non plus un projet immobilier, mais tout un univers.  Dans les décennies suivantes, les lettres ont connu des hauts et des bas. Dans les années 1970, elles étaient dans un état si lamentable que certaines s’étaient effondrées. En 1978, des célébrités comme Hugh Hefner et Alice Cooper ont lancé une campagne pour les sauver. Grâce à des dons, chaque lettre a été reconstruite en acier, devenant plus robuste et résistante.  Aujourd’hui, l’enseigne est protégée comme un monument historique, et son accès est strictement réglementé. Elle est non seulement un symbole du cinéma, mais aussi un rappel de l’évolution de Los Angeles, passée d’une simple ville à la capitale mondiale du divertissement.  Ainsi, les lettres "Hollywood" ne sont pas seulement un panneau, mais un morceau d’histoire qui incarne à la fois les rêves, le glamour et l’ambition. Un véritable emblème de ce que représente la cité des Anges. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Los Angeles, surnommée "la cité des Anges", évoque immédiatement le glamour d’Hollywood, ses plages ensoleillées et ses rues bordées de palmiers. Mais d’où vient ce surnom si poétique ? Plongeons dans l’histoire pour le découvrir.  Tout commence en 1781, lorsque cette région de Californie, alors sous domination espagnole, voit la fondation d’un petit village nommé "El Pueblo de Nuestra Señora la Reina de los Ángeles de Porciúncula", que l’on pourrait traduire par "Le village de Notre-Dame la Reine des Anges de Porciúncula". Ce nom rend hommage à la Vierge Marie, plus précisément à un site religieux italien, la chapelle de Santa Maria degli Angeli à Assise. À l’époque, les Espagnols cherchaient à marquer leur empreinte religieuse sur les territoires colonisés, et ce nom reflète leur dévotion.  Avec le temps, le nom a été raccourci pour devenir simplement Los Ángeles, soit "Les Anges" en espagnol. C’est ainsi que le surnom "la cité des Anges" est né, en référence directe à cette appellation d’origine.  Mais au-delà de son nom, Los Angeles incarne symboliquement une sorte de paradis terrestre. Sa situation géographique et son climat idéal, avec du soleil presque toute l’année, ont contribué à renforcer l’image angélique de la ville. De plus, la ville est devenue au fil du temps un lieu de rêves et d’opportunités, attirant des millions de personnes en quête de réussite – que ce soit dans l’industrie du cinéma, la musique ou la technologie.  Cependant, cette image d’Éden moderne a ses contrastes. Los Angeles est aussi une ville aux défis immenses, des embouteillages légendaires aux problèmes de logement en passant par les inégalités sociales. Ces paradoxes ne font que renforcer son aura unique.  Enfin, il est intéressant de noter que la ville est également profondément ancrée dans une tradition multiculturelle. Les influences mexicaine, asiatique, afro-américaine et européenne se mêlent pour former une identité vibrante, à la fois locale et universelle.  Ainsi, Los Angeles est bien plus qu’un simple surnom. "La cité des Anges" symbolise un passé religieux, un présent multiculturel et un avenir où les rêves – qu’ils soient angéliques ou plus terre à terre – continuent de se réaliser. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Aujourd’hui, penchons-nous sur l’homme qui sourit depuis des décennies sur les devantures de KFC : Colonel Harland Sanders. Ce personnage est bien réel, et son histoire est tout aussi savoureuse que le poulet frit qu’il a rendu célèbre.  Né en 1890 dans l’Indiana, Harland Sanders a connu une vie mouvementée avant de devenir un symbole mondial. Orphelin de père à 6 ans, il a dû cuisiner pour ses frères et sœurs, une nécessité qui allait influencer sa carrière bien plus tard. Sanders a essayé de nombreux métiers : pompier, vendeur d’assurances, et même agriculteur. Mais c’est dans une station-service du Kentucky, dans les années 1930, qu’il a commencé à cuisiner pour les voyageurs. Son poulet frit, préparé avec une recette secrète de 11 épices et aromates, a rapidement conquis les cœurs – et les estomacs.  Le titre de "Colonel" qu’il porte fièrement n’a rien de militaire. Il s’agit d’un titre honorifique décerné par l'État du Kentucky pour sa contribution à la gastronomie. Sanders a ouvert son premier restaurant KFC en 1952. Le succès fut tel qu’il a décidé de franchiser son concept, même s’il n’a vraiment percé qu’après ses 60 ans. Le logo de KFC, avec son sourire bonhomme, son nœud papillon noir et sa barbe blanche, incarne à la fois la convivialité et l’authenticité de ce personnage hors du commun.  Passons maintenant à des faits étonnants sur KFC. Saviez-vous que la recette secrète de leur poulet est l’un des secrets commerciaux les mieux gardés au monde ? Elle est conservée dans un coffre-fort à Louisville, et seulement deux personnes en connaissent l’intégralité.  Autre anecdote surprenante : au Japon, KFC est devenu le repas incontournable… du jour de Noël ! Cette tradition, née d’une campagne marketing dans les années 1970, pousse des millions de Japonais à commander leur menu des semaines à l’avance.  Et pour finir, en 2017, KFC a envoyé un sandwich au poulet… dans l’espace ! Une opération marketing délirante qui symbolise à quel point la marque n’a pas peur de viser les étoiles.  Alors, la prochaine fois que vous croisez le sourire du Colonel Sanders, souvenez-vous : derrière ce logo se cache une histoire d’opportunités tardives, de recettes bien gardées et de succès mondial. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Ce pays a en effet été largement végétarien pendant une grande partie de son histoire, notamment sous l’influence du bouddhisme !L’adoption du bouddhisme comme religion d’État au VIᵉ siècle a profondément influencé les pratiques alimentaires japonaises. Le bouddhisme prône le respect de tous les êtres vivants, ce qui inclut l’interdiction de tuer pour se nourrir. Par conséquent, la consommation de viande fut officiellement découragée, voire interdite à plusieurs reprises par des édits impériaux.En parallèle, le shintoïsme, la religion indigène du Japon, valorise l’harmonie avec la nature. Cela a renforcé l’idée que tuer des animaux pour se nourrir était en contradiction avec l’équilibre naturel. Les animaux domestiques, comme les chevaux ou les vaches, étaient souvent perçus comme des partenaires de travail, et non comme des sources de nourriture.À partir du VIIᵉ siècle, plusieurs empereurs japonais ont promulgué des lois interdisant la consommation de viande, en particulier de mammifères. Par exemple, l’empereur Tenmu (631-686) a émis un décret interdisant la consommation de bœuf, de cheval, de chien, de singe et de poulet. Ces interdictions étaient souvent justifiées par des raisons spirituelles et culturelles, mais aussi écologiques : préserver les animaux était essentiel dans un pays où les terres agricoles étaient limitées.Cependant, ces restrictions ne concernaient pas les produits de la mer. Le poisson, les crustacés et les algues occupaient une place centrale dans l’alimentation japonaise, offrant une source importante de protéines. Cette exception explique pourquoi le Japon est souvent qualifié de "pays piscivore".Malgré les interdictions officielles, la consommation de viande n’a jamais totalement disparu. Dans certaines régions rurales ou montagneuses, où le poisson était rare, les habitants chassaient et consommaient du gibier, comme le cerf ou le sanglier, en dehors du regard des autorités.Cette tendance a commencé à changer avec l’ouverture du Japon au monde extérieur à partir de l’ère Meiji (1868). Les autorités ont encouragé la consommation de viande pour "fortifier le corps" et moderniser les habitudes alimentaires.Pendant près de 12 siècles, le Japon a effectivement suivi un régime alimentaire largement végétarien, influencé par des principes religieux, culturels et écologiques. Toutefois, cette période n’a jamais été totalement exempte de consommation de viande, notamment dans les zones isolées ou pour des occasions spéciales. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Imaginez Rome au Ier siècle avant notre ère. Près d’un million d’habitants. Des rues étroites, sinueuses, encombrées. Des marchands, des esclaves, des sénateurs en toge… et des chariots partout.Le vacarme est permanent. Les roues cerclées de fer résonnent sur les pavés. Les attelages se croisent difficilement. Les embouteillages sont fréquents. Les piétons sont renversés. La ville étouffe.En 45 av. J.-C., Jules César prend une décision radicale : il interdit la circulation des véhicules à roues dans Rome pendant la journée, approximativement de l’aube jusqu’en fin d’après-midi. Les chariots ne pourront circuler que la nuit.Pourquoi une mesure aussi drastique ?D’abord pour fluidifier la circulation. Rome est le cœur politique du monde romain. Les magistrats, les sénateurs, les avocats doivent pouvoir se déplacer. Or les rues sont saturées par les convois de marchandises.Ensuite pour des raisons de sécurité. Les accidents sont fréquents. Les sources antiques évoquent des passants écrasés, des encombrements monstres.Enfin pour le bruit. Le fracas des roues métalliques sur la pierre est assourdissant. Les habitants se plaignent.Cette interdiction n’est pas totale. Des exceptions existent : véhicules officiels, transports de matériaux de construction, processions religieuses. Mais pour le commun des mortels, la règle est claire : pas de chariots le jour.Résultat paradoxal : la nuit devient bruyante. Les livraisons s’effectuent après le coucher du soleil. Les habitants se plaignent désormais… du tapage nocturne.Ce que montre cette décision, c’est que les problèmes urbains modernes ne sont pas si modernes. Embouteillages, nuisances sonores, sécurité des piétons : Rome connaissait déjà ces tensions.Jules César n’était pas écologiste avant l’heure. Il cherchait l’ordre et l’efficacité. Mais en réglementant la circulation, il invente l’une des premières politiques publiques de gestion du trafic urbain.Deux mille ans plus tard, quand une ville interdit les voitures en centre-ville, elle ne fait peut-être que renouer avec une idée… romaine. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Pendant la Première Guerre mondiale, l’espionnage est une guerre silencieuse. Pas de gadgets futuristes, pas de montres laser à la James Bond. Mais une obsession : comment transmettre des informations sans se faire repérer ?À l’époque, les services secrets britanniques, futurs MI6, cherchent une encre invisible indétectable. Les méthodes classiques — jus de citron, lait, solutions chimiques — sont connues des services ennemis. Les Allemands disposent déjà de réactifs capables de révéler ces encres secrètes.C’est alors qu’émerge une solution inattendue.Le directeur du renseignement britannique, Mansfield Smith-Cumming, découvre qu’une substance organique possède une propriété intéressante : elle ne réagit pas aux produits chimiques de détection standards. Cette substance, c’est… le sperme.Utilisé comme encre invisible, il devient visible uniquement lorsqu’on chauffe le papier. À froid, aucune trace apparente. Pas d’odeur suspecte une fois sec. Et surtout, aucun réactif chimique courant ne permet de le détecter facilement.Les agents adoptent alors une devise ironique :Chaque homme a son propre stylo.L’avantage est évident : la ressource est immédiatement disponible, difficile à confisquer, et ne nécessite aucun matériel compromettant. En cas d’arrestation, aucun flacon suspect dans les poches.Mais la méthode a ses limites. Le temps altère le message. La chaleur peut révéler accidentellement le texte. Et surtout, l’odeur, lorsqu’il est frais, peut trahir l’usage.Rapidement, les services secrets développeront des encres chimiques plus sophistiquées. Mais cet épisode révèle quelque chose de fascinant : l’espionnage est avant tout une affaire d’ingéniosité pragmatique.Dans une guerre où chaque information peut coûter des milliers de vies, rien n’est trop insolite pour être testé.Loin des fantasmes hollywoodiens, l’histoire réelle de l’espionnage est souvent plus étrange, plus improvisée… et parfois plus biologique qu’on ne l’imagine. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
En 1989, au moment où le mur de Berlin tombe et où le bloc soviétique vacille, Francis Fukuyama publie un article devenu célèbre : The End of History? Il y développe une thèse audacieuse : l’humanité serait peut-être arrivée au terme de son évolution idéologique majeure.Attention, il ne parle pas de la fin des événements, ni de la fin des conflits. Il parle de la fin de l’Histoire au sens philosophique, hérité de Hegel et d’Alexandre Kojève : l’Histoire comme lutte entre grandes idéologies concurrentes pour définir le meilleur régime politique.Selon Fukuyama, le XXe siècle a vu s’affronter trois grands modèles : le fascisme, le communisme et la démocratie libérale. Le fascisme est vaincu en 1945. Le communisme s’effondre en 1989-1991 avec la chute de l’URSS. Il ne resterait alors qu’un modèle sans rival idéologique crédible : la démocratie libérale associée à l’économie de marché.Sa thèse est donc la suivante : la démocratie libérale pourrait constituer la forme finale de gouvernement humain, non pas parfaite, mais la moins mauvaise et la plus universalisable. Il ne dit pas que tous les pays sont démocratiques, mais qu’aucune idéologie alternative globale ne semble capable de la remplacer durablement.L’argument repose aussi sur une dimension anthropologique : le besoin humain de reconnaissance, ce que Hegel appelait le « thymos ». La démocratie libérale offrirait un cadre permettant de satisfaire ce besoin par des droits, l’égalité juridique et la participation politique.La thèse a suscité un immense débat. Certains l’ont interprétée comme un triomphalisme naïf de l’Occident. D’autres ont souligné que l’histoire postérieure — terrorisme, montée de la Chine autoritaire, résurgence des nationalismes, guerres en Ukraine ou au Moyen-Orient — semble contredire l’idée d’un monde stabilisé autour d’un modèle unique.Fukuyama lui-même a nuancé sa position par la suite. Il reconnaît que la démocratie peut reculer, que les institutions peuvent s’affaiblir et que l’Histoire, au sens des crises et rivalités de puissance, continue évidemment.La « fin de l’Histoire » n’est donc pas l’annonce d’un monde pacifié pour toujours. C’est une hypothèse sur l’absence d’alternative idéologique systémique à la démocratie libérale après la Guerre froide.Qu’on l’approuve ou qu’on la critique, cette thèse reste l’une des plus influentes pour comprendre l’optimisme des années 1990… et les désillusions du XXIe siècle. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
loading
Comments (7)

Par Vin

👌👌

Nov 21st
Reply

Yasamin T.F

en Iran, cette année il y a 27 jours fériés !!!😁

Jul 28th
Reply

R- Ho

Mettre des pubs McDonald's pour influencer des enfants ? Sérieusement ?

Apr 30th
Reply

Pinpin ToutSimplement

Du contenu qui peut parfois être intéressant même pour les adultes. Cependant, 45s de pubs sur 2 minutes d'épisodes c'est dingue... c'est-à-dire que si je veux laisser le podcast une demi-heure, je vais avoir plus de 11 minutes de pubs ?!? En plus, des pubs Mc Donald's pour un contenu destiné aux enfants, c'est ethniquement inapproprié. Jamais je laisse ça à mes enfants.

Aug 18th
Reply

Marion S

il a 10 chiffres il ne faut pas oublier le 0 ;)

Feb 17th
Reply

Kuma Creep

Les "manags"?

May 22nd
Reply

Mathieu Lagache

franchement je ne savais pas

Apr 27th
Reply