DiscoverChoses à Savoir - Culture générale
Choses à Savoir - Culture générale
Claim Ownership

Choses à Savoir - Culture générale

Author: Choses à Savoir

Subscribed: 79,060Played: 3,756,112
Share

Description

Développez votre culture générale.

Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

3012 Episodes
Reverse
À première vue, le langage humain semble foisonnant, foisonnant au point d’être chaotique. Chaque langue possède ses milliers de mots, ses tournures, ses exceptions et ses bizarreries. Pourtant, derrière cette apparente complexité, se cachent des règles d’une rigueur étonnamment… mathématique. L’une des plus fascinantes a été mise en lumière dans les années 1930 par le linguiste américain George Zipf : la loi d’abréviation.Une loi simple mais puissanteFormulée par Zipf, cette règle décrit une tendance universelle : plus un mot est fréquemment utilisé, plus il tend à être court. Prenons un exemple en français : “et”, “de”, “à” ou “je”. Ces mots ultra-fréquents ne comptent qu’une ou deux lettres. À l’inverse, les termes plus rares – “chlorophylle”, “hétérozygote” ou “incommensurable” – sont plus longs. En d’autres termes, notre cerveau, en quête permanente d’efficacité, réserve la brièveté aux mots du quotidien et accepte la longueur pour les mots occasionnels.L’efficacité comme moteurCette loi n’a rien d’un hasard : elle illustre ce que Zipf appelait le principe du moindre effort. Quand nous communiquons, nous cherchons naturellement à transmettre un maximum d’informations avec un minimum d’effort. Les mots courts, faciles à prononcer et rapides à écrire, remplissent ce rôle pour les idées que nous utilisons le plus souvent. Cette logique contribue à rendre les échanges plus fluides et à limiter la fatigue cognitive, aussi bien pour celui qui parle que pour celui qui écoute.Une règle universelle ?Ce qui intrigue les chercheurs, c’est que cette loi ne semble pas se limiter aux langues humaines. Des travaux récents en bioacoustique ont montré que certains oiseaux suivent exactement la même tendance. Les sons les plus fréquents qu’ils utilisent – pour marquer un territoire, avertir d’un danger ou attirer un partenaire – sont plus courts que leurs vocalisations plus rares. Autrement dit, les oiseaux appliquent eux aussi, sans le savoir, la loi d’abréviation de Zipf.Quand l’évolution rejoint les mathématiquesPourquoi cette convergence entre humains et oiseaux ? Les scientifiques avancent que cette règle pourrait refléter un principe fondamental de toute communication efficace. Que l’on manipule des mots ou des chants, l’économie d’énergie et de temps favorise la survie. Les individus capables de transmettre rapidement l’essentiel de l’information disposent d’un avantage, qu’il s’agisse de fuir un prédateur ou de collaborer en groupe.Un langage moins chaotique qu’il n’y paraîtAu fond, ce que révèle Zipf, c’est que nos langues, si diverses soient-elles, obéissent à des forces universelles. Elles ne sont pas des constructions aléatoires, mais des systèmes façonnés par la recherche d’efficacité. Et lorsque nous découvrons que les oiseaux – et peut-être d’autres espèces encore – obéissent à la même loi, cela suggère que les mathématiques ne se contentent pas de décrire le monde physique : elles gouvernent aussi la manière dont nous échangeons des idées et des émotions.Ainsi, derrière nos conversations quotidiennes, se cache une règle mathématique discrète mais incontournable, qui relie l’homme… aux oiseaux. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Au tout début du XXᵉ siècle, un chien fit beaucoup parler de lui dans la capitale française. C’était un Terre-Neuve, une race réputée pour sa puissance, son endurance et son instinct de sauvetage. En février 1908, le New York Times relata une histoire aussi héroïque qu’étonnante : ce chien semblait sauver régulièrement des enfants tombés dans la Seine.Le premier épisode paraissait banal. Un jeune garçon, emporté par les eaux glacées du fleuve, fut secouru par l’animal. Le chien plongea, agrippa l’enfant et le ramena sur la berge. Les témoins, admiratifs, acclamèrent le sauvetage. Le père de l’enfant, soulagé, remercia le Terre-Neuve par un repas royal : un steak.Deux jours plus tard, la scène se répéta presque à l’identique. Un autre enfant tomba, un autre sauvetage héroïque eut lieu, et une nouvelle récompense fut offerte. À partir de là, les « noyades accidentelles » se multiplièrent. Chaque jour ou presque, le chien se jetait courageusement à l’eau pour ramener un enfant au sec. La presse s’enflamma, et l’animal devint une célébrité locale.Mais bientôt, l’affaire éveilla des soupçons. Pourquoi tant d’accidents, concentrés dans la même zone ? Les habitants craignirent un criminel qui pousserait les enfants dans la Seine. Une surveillance plus discrète permit enfin de résoudre l’énigme… Le coupable n’était autre que le héros lui-même ! Le Terre-Neuve, ayant compris que chaque sauvetage lui valait un steak, avait élaboré une stratégie redoutable : pousser les enfants à l’eau, puis les sauver aussitôt pour obtenir sa récompense.Le New York Times résuma l’affaire sous le titre ironique « DOG A FAKE HERO » — le chien n’était pas seulement un sauveteur, mais aussi un fin stratège qui avait mis son intelligence au service de son estomac.Cette anecdote illustre parfaitement ce que la science appelle le conditionnement opérant : les animaux, tout comme les humains, apprennent à associer un comportement à une récompense et peuvent reproduire ce comportement de manière opportuniste. Les Terre-Neuve, en particulier, combinent une grande force physique, une aptitude naturelle à l’eau et une intelligence sociale développée. Ils savent évaluer les situations et agir seuls, parfois de manière surprenante.Ainsi, ce chien parisien de 1908, mi-héros mi-filou, rappelle que l’intelligence animale ne se limite pas à l’obéissance : elle inclut aussi l’art de manipuler son environnement — et parfois même les humains. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Imaginez une bibliothèque immense, remplie de millions de livres. Pendant des siècles, les humains y ont déposé leurs histoires, leurs savoirs, leurs idées. Puis, un jour, des machines ont commencé à écrire elles aussi. Et peu à peu, sans qu’on s’en rende compte, ces machines se sont mises à lire… leurs propres livres. C’est exactement ça, ce qu’on appelle la consanguinité de l’intelligence artificielle.Au départ, les grands modèles comme ChatGPT ou Claude ont été entraînés sur des données humaines : articles de presse, forums, romans, encyclopédies, photos, vidéos. Une matière brute riche, variée, imparfaite mais authentique. Mais aujourd’hui, Internet est saturé de contenus générés par IA : textes, images, musiques. Et quand les nouvelles IA s’entraînent à leur tour, elles aspirent forcément une partie de ces contenus artificiels.Le problème, c’est que ça crée une boucle fermée. En biologie, quand un groupe vit en vase clos et se reproduit entre lui, la diversité génétique s’appauvrit. On parle de consanguinité. Dans l’IA, c’est pareil : les modèles se nourrissent de leurs propres productions, et la diversité de leurs “idées” s’amenuise.Les chercheurs observent déjà les dangers :Appauvrissement des données : les textes produits par IA ont tendance à être plus lisses, plus standardisés. S’ils deviennent la norme, la richesse du langage décline.Amplification des erreurs : si une IA se trompe et qu’une autre apprend de cette erreur, la faute se propage comme un virus.Perte de créativité : à force de recycler les mêmes tournures et structures, les modèles finissent par répéter sans innover.Et pire encore : certains scientifiques parlent de “model collapse”, un effondrement progressif où les IA produiraient des contenus incohérents, inutilisables.Alors, que faire ? Une piste consiste à filtrer les données pour limiter l’entraînement sur du contenu artificiel. Une autre idée est de créer des “réserves” de savoir humain : des bibliothèques numériques protégées, un peu comme des banques de semences pour préserver la biodiversité, mais appliquées à la culture et au langage.La question est cruciale, car plus l’IA avance, plus elle produit, et plus elle risque de s’auto-alimenter. Si on n’y prend pas garde, nous pourrions finir avec des machines qui parlent beaucoup… mais qui n’ont plus grand-chose à dire.Alors, la prochaine fois que vous lisez un texte impeccable mais sans saveur, demandez-vous : est-ce la voix d’un humain… ou l’écho d’une machine qui n’a lu que ses propres mots ? Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Les boulangers présentent effectivement une fréquence plus élevée d’asthme que la population générale. On parle même d’« asthme du boulanger », une forme d’asthme professionnel identifiée depuis plusieurs décennies.1. La farine, un ennemi invisibleLa principale cause est l’inhalation de poussières de farine. Lors du pétrissage, du tamisage ou de la cuisson, de fines particules de farine se diffusent dans l’air de la boulangerie. En pénétrant dans les voies respiratoires, elles déclenchent une réaction allergique chez certains travailleurs.Selon l’INSERM, environ 15 à 20 % des boulangers développent des symptômes respiratoires liés à l’exposition à la farine au cours de leur carrière.L’asthme du boulanger représente près de 20 à 25 % des cas d’asthme professionnel déclarés en France.2. Une allergie progressiveLe mécanisme est le même que pour d’autres allergies : l’organisme identifie les protéines contenues dans la farine (blé, seigle, parfois enzymes ajoutées comme l’alpha-amylase) comme des « intrus ». Cela provoque une inflammation des bronches, qui rétrécissent et entraînent toux, essoufflement, sifflements et crises d’asthme.Ce processus peut mettre plusieurs années à se développer. Beaucoup de boulangers débutants ne ressentent rien, puis voient apparaître des symptômes au fil du temps.3. Des facteurs aggravantsLa levure et les additifs : certaines levures et enzymes utilisées pour améliorer la panification sont aussi allergènes.Les horaires de travail : lever tôt, manque de sommeil et atmosphère chaude et sèche fragilisent les voies respiratoires.La génétique : une prédisposition familiale aux allergies augmente le risque.4. ConséquencesL’asthme du boulanger peut être invalidant et, dans certains cas, oblige à changer de métier. C’est pourquoi il figure dans la liste officielle des maladies professionnelles indemnisées en France.5. PréventionHeureusement, des mesures existent :Installer des systèmes d’aspiration pour réduire la poussière.Préférer le versage lent des farines, éviter le tamisage brutal.Porter un masque filtrant adapté.Surveiller régulièrement la fonction respiratoire des boulangers à risque.En résumé : si les boulangers souffrent souvent d’asthme, c’est parce que leur quotidien les expose à des poussières de farine et d’enzymes hautement allergènes. Ce n’est pas une fatalité, mais un vrai problème de santé publique et professionnelle qui nécessite prévention et protection. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Croiser les doigts pour se souhaiter bonne chance est un geste universellement reconnu. Mais d’où vient cette curieuse habitude qui consiste à plier deux doigts l’un sur l’autre comme si un simple geste pouvait conjurer le sort ?L’origine remonte au christianisme primitif. Dans les premiers siècles, les fidèles utilisaient le signe de la croix comme protection spirituelle. Mais à une époque où être chrétien pouvait valoir la persécution, le signe devait rester discret. Croiser deux doigts – généralement l’index et le majeur – devenait une manière symbolique de rappeler la croix sans attirer l’attention. C’était donc un geste de foi et de protection, bien avant d’être un simple porte-bonheur.Au fil du temps, l’usage s’est élargi. On croyait qu’en croisant les doigts, on appelait la bénédiction divine pour éloigner le malheur. Cette croyance se mêle à d’autres traditions européennes, notamment médiévales, où le croisement des doigts symbolisait l’union de deux personnes partageant une promesse. On “plaçait ses espoirs” au croisement, considéré comme un point de rencontre mystique où se concentrait l’énergie positive.Au Moyen Âge, le geste avait aussi une valeur superstitieuse. On pensait que le malheur rôdait partout, prêt à frapper. Le simple fait de croiser les doigts créait une barrière symbolique qui empêchait les mauvais esprits d’entrer. En Angleterre et en France, on disait même que croiser les doigts “gardait la vérité” : lorsqu’on faisait une promesse, le croisement servait à sceller l’engagement… mais pouvait aussi, paradoxalement, annuler la parole donnée si on le faisait en cachette.Avec le temps, le geste a perdu sa connotation religieuse ou magique pour devenir un simple réflexe culturel. Aujourd’hui, croiser les doigts exprime l’espoir que tout se passe bien, comme lors d’un examen, d’un entretien ou avant une annonce importante. L’expression “I keep my fingers crossed” en anglais a largement contribué à sa diffusion mondiale, notamment à travers la culture populaire.Il reste cependant des variantes : dans certains pays, on croise non pas les doigts mais les bras ou les jambes pour souhaiter bonne chance. Mais l’idée reste la même : créer un symbole protecteur, une sorte de petit talisman gestuel.Ainsi, derrière ce geste apparemment banal se cache une longue histoire : un signe religieux discret, devenu amulette superstitieuse, puis rituel universel d’encouragement. Chaque fois que nous croisons les doigts, nous répétons sans le savoir une tradition vieille de plus de mille ans. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Quand on observe une colonie de fourmis, difficile d’imaginer que ces insectes minuscules obéissent à des règles de longévité radicalement différentes selon leur rôle. Certaines ne survivent que quelques semaines ou quelques mois, tandis que d’autres atteignent des records de longévité pour des insectes, vivant plusieurs années, parfois plus d’une décennie. Pourquoi un tel écart ?La première explication réside dans la répartition des tâches. Les fourmis ouvrières, par définition, sont en première ligne. Elles sortent du nid pour chercher de la nourriture, défendent la colonie et assurent son entretien. Ces activités les exposent aux prédateurs, aux accidents et aux aléas climatiques. Leur vie est donc courte, parfois seulement quelques mois. À l’inverse, la reine, dont la fonction principale est la reproduction, reste protégée au cœur du nid. Moins exposée aux dangers extérieurs, elle bénéficie d’une existence beaucoup plus longue. Chez certaines espèces, une reine peut dépasser les 15 ans, un chiffre exceptionnel pour un insecte.Mais la différence n’est pas qu’une affaire de risques. Elle est aussi physiologique. La reine possède un métabolisme particulier : son corps est optimisé pour pondre des milliers, parfois des millions d’œufs. Son organisme produit davantage d’antioxydants et bénéficie d’une régulation hormonale qui ralentit le vieillissement. Les ouvrières, en revanche, ont un métabolisme orienté vers l’action, consommant rapidement leurs ressources énergétiques, ce qui contribue à réduire leur durée de vie.Le repos joue également un rôle. Contrairement à nous, les fourmis ne dorment pas d’un seul bloc. Elles connaissent des micro-siestes répétées, sortes d’états végétatifs durant quelques minutes, plusieurs dizaines de fois par jour. Cependant, la durée totale de repos diffère selon le rôle social. Les ouvrières, notamment chez les fourmis de feu, ne s’accordent qu’environ 4 heures cumulées par jour, ce qui limite leur longévité à quelques mois. La reine, elle, bénéficie d’environ 9 heures de repos quotidien, favorisant une meilleure récupération et une survie prolongée.Enfin, il faut évoquer la plasticité sociale des fourmis. Dans certaines espèces, si une colonie perd sa reine, certaines ouvrières peuvent modifier leur physiologie et vivre bien plus longtemps qu’à l’ordinaire, assumant temporairement une fonction reproductive. Ce phénomène illustre à quel point l’espérance de vie des fourmis n’est pas fixée uniquement par la biologie, mais aussi par l’organisation sociale.En résumé, l’espérance de vie des fourmis dépend de trois grands facteurs : leur rôle dans la colonie, leur métabolisme et la quantité de repos qu’elles s’octroient. La reine, protégée, mieux reposée et dotée d’un organisme orienté vers la longévité, vit des années. Les ouvrières, elles, payent le prix de leur labeur incessant et de leur exposition aux dangers, leur vie étant brève mais essentielle à la survie du groupe. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Cette ligne qui se trouve en Europe alimente les légendes depuis des siècles. Si on regarde une carte, elle relie en ligne parfaitement droite plusieurs sanctuaires dédiés à l’archange St Michel. C'est assez fou !Tout commence en Irlande, avec le Skellig Michael, un rocher isolé dans l’Atlantique où des moines s’étaient retirés dès le Moyen Âge. En suivant cette ligne invisible vers le sud-est, on tombe sur Saint Michael’s Mount en Cornouailles, puis sur le Mont-Saint-Michel en Normandie, l’un des lieux de pèlerinage les plus célèbres de France. Et l’alignement continue : en Italie, on trouve le sanctuaire de Monte Sant’Angelo, dans les Pouilles, puis, encore plus au sud, le monastère de Symi en Grèce. Enfin, la ligne se termine en Terre Sainte, au monastère du Mont Carmel.Cette ligne traverse ainsi plusieurs pays, sur plus de 4 000 kilomètres, et semble relier des sanctuaires majeurs consacrés à saint Michel, l’archange guerrier, protecteur de l’Église et vainqueur du dragon. Selon une légende médiévale, elle symboliserait le coup d’épée que l’archange aurait porté à Satan pour le précipiter en enfer.Les amateurs d’ésotérisme y voient un “axe énergétique”, une sorte de ligne tellurique qui unirait des lieux de grande puissance spirituelle. Certains ajoutent même que cette ligne correspond au coucher du soleil le jour du solstice d’été, renforçant l’idée d’un message cosmique.Mais les historiens, eux, restent prudents. Ils rappellent que les sanctuaires n’ont pas tous été construits à la même époque, et qu’il est facile de tracer des droites reliant des points remarquables sur une carte. Les alignements peuvent donc relever du hasard ou d’une construction a posteriori. Pourtant, le fait que tant de sanctuaires dédiés au même saint se trouvent sur une trajectoire aussi régulière intrigue encore.Qu’on y voie une coïncidence cartographique, un héritage des pèlerinages médiévaux ou un signe divin, la Ligne sacrée de saint Michel fascine toujours. Elle illustre parfaitement la manière dont les croyances, la géographie et l’imaginaire peuvent s’entremêler pour créer un mystère durable.Et si, la prochaine fois que vous regardez une carte, vous tentiez vous aussi de tracer vos propres lignes invisibles ? Peut-être découvririez-vous que nos paysages recèlent encore bien des secrets. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Avez-vous déjà remarqué que certaines personnes semblent obtenir plus facilement un emploi, une augmentation ou même de la sympathie… simplement parce qu’elles sont considérées comme belles ? Ce phénomène porte un nom : le pretty privilege, littéralement le privilège accordé à la beauté. Et ce n’est pas qu’une impression : la science le mesure, chiffres à l’appui.Le pretty privilege, c’est l’ensemble des avantages sociaux, professionnels ou personnels que reçoivent les individus jugés physiquement attirants. Il repose sur deux grands mécanismes psychologiques :D’abord le stéréotype de l’attractivité, ou l’idée que “beau = bon”.Ensuite, l’effet de halo : une caractéristique positive – ici la beauté – influence l’évaluation d’autres traits comme l’intelligence, la sociabilité ou la compétence.Concrètement, ces biais ont des effets très tangibles. Une étude menée sur plus de 43 000 diplômés de MBA a montré que les personnes considérées comme les plus attirantes touchaient en moyenne 2,4 % de plus par an, soit environ 2 500 dollars. Pour les 10 % les plus beaux, le bonus atteignait 11 %, soit plus de 5 500 dollars annuels.Une autre enquête menée aux États-Unis révèle que ceux qui se jugent “extrêmement attirants” déclarent gagner près de 20 000 dollars de plus par an que les personnes perçues comme peu attirantes. On parle là d’un salaire moyen de 64 000 dollars contre 44 000.Mais le phénomène ne s’arrête pas au monde du travail. À l’école déjà, les élèves jugés beaux sont perçus comme plus intelligents et bénéficient de la bienveillance des enseignants. Et même devant un tribunal, la beauté peut influencer : plusieurs recherches ont montré que les accusés séduisants reçoivent parfois des peines plus légères… sauf si leur délit est directement lié à leur charme, comme une escroquerie sentimentale.Dans la vie quotidienne, être perçu comme attirant facilite aussi les relations. Des études montrent que les visages considérés comme beaux sont plus “centrés” dans les réseaux sociaux : ils ont plus d’amis, plus de soutien, et bénéficient d’une meilleure estime d’eux-mêmes. À l’inverse, les personnes jugées peu attirantes déclarent plus souvent souffrir de détresse psychologique ou de dépression.Attention cependant : ce privilège a un revers. Maintenir certains standards de beauté coûte du temps, de l’argent, et peut nuire à la santé mentale. De plus, les personnes séduisantes peuvent aussi être victimes d’objectification ou de jalousie.Alors, le pretty privilege existe bel et bien, et la science le confirme : la beauté agit comme une monnaie sociale, capable d’influencer nos salaires, nos relations, voire la justice. Mais ce pouvoir n’est pas sans ambiguïtés. Finalement, c’est peut-être notre regard collectif, et nos biais inconscients, qui donnent tant de valeur à la beauté. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
La mousse au chocolat, ce dessert léger et aérien, est aujourd’hui une évidence dans la gastronomie française. Pourtant, son histoire est moins simple qu’il n’y paraît, et un nom étonnant revient souvent lorsqu’on cherche son véritable inventeur : celui du peintre Henri de Toulouse-Lautrec.Dès le XVIIIe siècle, on trouve déjà des recettes de mousses au chocolat. Mais elles n’ont rien à voir avec celles que nous connaissons : il s’agissait plutôt de préparations épaisses, proches d’une crème dessert, à base de lait, de beurre ou de crème. À cette époque, le chocolat, encore perçu comme un produit de luxe, se dégustait surtout chaud ou en pâtisserie riche. L’idée de l’alléger grâce aux œufs battus en neige n’était pas encore répandue.Tout change au XIXe siècle. Dans les cuisines aristocratiques et bourgeoises, on commence à utiliser les blancs d’œufs pour donner du volume à des mousses de fruits, de légumes, et même de poisson. Cette technique culinaire inspire un amateur aussi passionné de cuisine que de peinture : Henri de Toulouse-Lautrec.Connu pour ses affiches du Moulin Rouge et ses portraits de danseuses parisiennes, Lautrec (1864-1901) était aussi un gastronome avide d’expérimentations. Il aimait cuisiner pour ses amis artistes et modèles, parfois tard dans la nuit, et voyait la cuisine comme un art à part entière. Son ami Maurice Joyant publiera après sa mort un recueil de ses recettes, L’Art de la Cuisine, où figure une préparation baptisée « mousse au chocolat simple ».Son idée fut brillante : transposer la technique des mousses salées dans l’univers du dessert. En incorporant des blancs d’œufs battus en neige au chocolat fondu, il obtint une texture aérienne et légère, sans perdre l’intensité du cacao. Cette innovation donna naissance à la mousse au chocolat telle que nous la connaissons.Pourquoi l’attribue-t-on à Toulouse-Lautrec plus qu’à d’autres ? Parce que sa recette est la première qui correspond clairement à notre version moderne. Et surtout parce que sa position dans le milieu artistique et mondain de la Belle Époque lui permit de populariser rapidement ce dessert, qui se diffusa bien au-delà de ses cercles.Bien sûr, il n’était pas le seul à travailler le chocolat de cette façon. Mais il fut le passeur décisif, celui qui transforma une expérimentation culinaire en un classique de la gastronomie française.Ainsi, derrière la légèreté d’une mousse au chocolat se cache un héritage inattendu : celui d’un peintre qui, entre deux toiles, a su donner au monde l’un des desserts les plus aimés. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Lorsque l’on pense à la Révolution d’Octobre 1917, on imagine d’abord la prise du pouvoir par les bolcheviks, la chute du tsar et les bouleversements politiques. Mais un autre champ de bataille a émergé à cette époque : celui de la vie intime. Et certains en sont venus à se demander si, dans cette Russie révolutionnaire, le polyamour avait été encouragé.Au lendemain de la révolution, les bolcheviks veulent détruire la vieille société « bourgeoise », et avec elle ses institutions jugées oppressives. La famille traditionnelle, fondée sur le mariage religieux et la fidélité, est perçue comme un outil de domination. En 1918, un nouveau code du mariage est adopté : divorce facilité, unions civiles reconnues, égalité accrue entre hommes et femmes. C’est une véritable révolution des mœurs.Dans ce contexte, des figures comme Alexandra Kollontaï, commissaire du peuple à l’Assistance publique et ardente féministe, défendent l’idée d’un amour libéré. Selon elle, les relations amoureuses et sexuelles ne devraient pas être enfermées dans les contraintes du mariage, mais vécues librement, « comme on boit un verre d’eau » disait-elle. Son discours, très radical pour l’époque, valorise des unions multiples, successives, choisies selon le désir, ce qui ressemble fortement à une forme de polyamour.Pendant quelques années, cette libéralisation suscite un climat d’expérimentation. Les jeunes urbains s’essayent à l’« amour libre », les divorces explosent, les couples se forment et se défont rapidement. Dans la presse et les cercles militants, on débat de la fin de la monogamie. On pourrait croire que l’État soviétique encourage ce mouvement. Mais en réalité, il s’agit surtout d’un courant intellectuel et social, pas d’une politique officielle.Très vite, les autorités comprennent que cette effervescence a un coût. La multiplication des divorces et des séparations entraîne une hausse dramatique du nombre d’enfants abandonnés. Les familles deviennent instables, la société désorientée. Dès le milieu des années 1920, le pouvoir cherche à rétablir l’ordre. Puis, dans les années 1930, avec Staline, le virage est brutal : la famille traditionnelle est réhabilitée, le mariage glorifié, la fidélité encouragée. L’État a désormais besoin de stabilité sociale et de natalité forte.En résumé, dans les premières années après 1917, le polyamour a bien été discuté, théorisé et parfois pratiqué, surtout sous l’influence de Kollontaï. Mais il n’a jamais été officiellement promu par l’URSS. La révolution sexuelle des débuts s’est rapidement heurtée au retour du conservatisme. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Si ce mot est aujourd’hui universel pour désigner le lieu où on boit un verre, son origine mérite qu’on s’y attarde, car elle nous fait voyager de l’Angleterre médiévale jusqu’aux cafés français du XIXe siècle.Le mot « bar » vient directement de l’anglais. En ancien français, on ne parlait pas de « bar », mais de « taverne », de « cabaret » ou encore d’« estaminet ». Le terme anglais, lui, apparaît au Moyen Âge. À l’origine, il désigne tout simplement une barre de bois : une « bar ». Cette barre servait de séparation, une sorte de comptoir primitif derrière lequel le tavernier stockait ses bouteilles et servait ses clients. Autrement dit, le « bar » désignait d’abord la barrière elle-même, puis, par extension, l’espace de service, et enfin l’établissement entier.Ce glissement de sens est très courant dans l’histoire des mots. Un objet concret devient une image, puis un concept plus large. On retrouve d’ailleurs cette idée ailleurs : dans les tribunaux anglais, par exemple, la « bar » désignait la barrière séparant les juges et avocats du public. Et encore aujourd’hui, on appelle les avocats « members of the bar ».Le mot fait son entrée en français au XIXe siècle, sous l’influence des modes venues d’Angleterre et d’Amérique. Dans un Paris avide de modernité, les cafés commencent à se transformer en lieux plus cosmopolites et l’anglais devient « chic ». C’est dans ce contexte que « bar » s’impose pour désigner ces comptoirs modernes, souvent installés dans les grands hôtels et inspirés du modèle anglo-saxon.Il est intéressant de noter que cette adoption lexicale correspond aussi à une transformation sociale. Le bar se distingue de la simple taverne populaire : il se veut un espace plus raffiné, parfois réservé à une clientèle aisée. Petit à petit, le mot se banalise, se détache de son aura mondaine et finit par désigner tout type d’établissement où l’on boit, du bistrot de quartier au cocktail lounge.Ainsi, le mot « bar » porte encore dans ses syllabes la trace de son origine matérielle : une simple barre de bois. Derrière un terme si banal aujourd’hui, on retrouve donc l’histoire d’une frontière, d’une séparation entre celui qui sert et celui qui consomme — frontière devenue, au fil des siècles, un symbole de convivialité universelle. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Imaginez une grande table au XVIᵉ siècle. Des mets somptueux, des coupes de vin, des convives élégants… mais pas de fourchette. Oui, vous m’avez bien entendu. On mange avec les doigts, parfois avec un couteau, mais cet ustensile si familier aujourd’hui est encore absent des tables françaises.Alors, comment la fourchette a-t-elle fait son entrée dans notre pays ? Et surtout, quel roi, un peu excentrique, a osé imposer cet objet qui allait transformer nos repas ?Une invention venue de loinLa fourchette n’est pas née en France. Elle apparaît dès le XIᵉ siècle dans l’Empire byzantin. À Constantinople, les aristocrates l’utilisent pour éviter de se salir les doigts en goûtant des plats délicats. L’Italie, toujours proche des échanges méditerranéens, adopte plus tôt cet ustensile, qui se glisse dans les cours princières de Venise et de Florence.Mais en France ? Rien. L’idée choque. Manger sans toucher la nourriture ? Inconcevable ! La fourchette est jugée inutile, artificielle, voire ridicule.L’arrivée à la cour de FranceC’est finalement au XVIᵉ siècle que la France découvre la fourchette. Et l’homme qui la fait entrer dans les usages de la cour, c’est… Henri III.Roi élégant, raffiné, souvent critiqué pour ses manières jugées trop efféminées par ses contemporains, Henri III est séduit par la mode italienne. Lors d’un séjour à Venise, il découvre cet étrange ustensile à deux dents. Fasciné, il décide de l’adopter et de l’imposer à sa table en France.Un roi moqué, mais en avance sur son tempsLe choix ne passe pas inaperçu. Les chroniqueurs rapportent que certains courtisans se moquent ouvertement de lui. Pour beaucoup, la fourchette est le signe d’un raffinement excessif, presque d’une faiblesse. Pourquoi se compliquer la vie avec un objet de métal alors que les doigts suffisent depuis toujours ?Mais Henri III persiste. Par goût du raffinement, mais aussi par souci d’hygiène : ne pas plonger ses mains dans la nourriture est, après tout, plus propre. Peu à peu, certains nobles imitent le roi, par snobisme autant que par curiosité.Une lente conquêteLa diffusion reste cependant très lente. Il faudra encore plus d’un siècle avant que la fourchette ne s’impose vraiment en France, sous Louis XIV, dans une cour où l’art de la table devient un véritable spectacle.Mais Henri III restera celui qui a osé franchir le pas, introduisant en France un petit objet qui allait changer notre rapport à la nourriture.ConclusionAlors, la prochaine fois que vous tiendrez une fourchette, pensez à ce roi mal-aimé, au style un peu extravagant, qui a su imposer, contre vents et moqueries, l’un des symboles les plus universels de la table moderne. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Le mot “Australie” évoque pour nous un vaste continent peuplé de kangourous, de déserts et de récifs coralliens. Mais sais-tu que ce nom vient d’un continent… qui n’a jamais existé ? La mystérieuse Terra Australis.Un continent imaginaireDès l’Antiquité, certains savants imaginent qu’il doit exister une grande masse de terres dans l’hémisphère sud, afin d’équilibrer celles déjà connues au nord. Cette idée traverse les siècles et, au Moyen Âge, les cartographes européens la reprennent : sur leurs cartes, ils dessinent une immense terre méridionale, qu’ils baptisent Terra Australis Incognita — littéralement, la “terre australe inconnue”. On la place vaguement au sud de l’océan Indien, parfois reliée à l’Antarctique, parfois décalée vers le Pacifique. Bref, c’est une hypothèse géographique devenue un mythe.L’époque des grandes découvertesÀ partir du XVe siècle, les navigateurs portugais, espagnols, puis hollandais partent explorer le monde. Leurs cartes mentionnent souvent cette Terra Australis, même si personne ne l’a jamais foulée. Et lorsque les Européens commencent à aborder les côtes de ce que nous appelons aujourd’hui l’Australie — les Hollandais au XVIIᵉ siècle, puis plus tard James Cook au XVIIIᵉ —, ils associent naturellement cette terre réelle à la légendaire masse australe de leurs cartes.Du mythe au nom officielAu départ, les Hollandais parlent de New Holland pour désigner cette région. Mais l’idée d’une terre du sud persiste. En 1814, l’explorateur britannique Matthew Flinders publie ses récits de voyage et propose officiellement le nom Australia. Pourquoi ? Parce que ce mot, déjà utilisé par certains cartographes et savants, rappelait clairement la Terra Australis tout en étant plus simple, plus moderne. Le gouverneur britannique Lachlan Macquarie adopte le terme en 1817, et à partir de 1824, il devient le nom officiel du continent.Un héritage toujours visibleAujourd’hui, le nom Australie porte donc la trace d’un mythe géographique. La “Terra Australis” n’existait pas, mais elle a donné son nom à une terre bien réelle. C’est un exemple fascinant de la manière dont les rêves et les hypothèses des savants peuvent marquer l’histoire, au point de baptiser un continent entier.ConclusionL’Australie doit son nom non pas à une réalité géographique, mais à une idée : celle d’équilibrer le monde. La “Terra Australis” était une invention, mais son héritière est bien tangible. Comme quoi, même les fictions cartographiques peuvent laisser des traces indélébiles dans notre langage et notre imaginaire. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
D'abord petit rappel, le cap de Bonne-Espérance est l’un des passages maritimes les plus célèbres du monde. Il est situé à la pointe sud-ouest de l’Afrique. Contrairement à ce que beaucoup pensent, il ne marque pas la véritable extrémité sud du continent – c’est le cap des Aiguilles – mais il fut longtemps le symbole de la frontière entre l’Atlantique et l’océan Indien. Pour les navigateurs du XVe siècle, c’était surtout une zone terrifiante : vents violents, vagues gigantesques, brouillard soudain. On raconte que de nombreux navires y firent naufrage.Bartolomeu Dias, l’homme du capL’histoire du nom commence en 1488. L’explorateur portugais Bartolomeu Dias, mandaté par le roi Jean II du Portugal, cherche une route maritime vers les Indes en contournant l’Afrique. Après des semaines de navigation éprouvante, il est pris dans une tempête qui le pousse plus au sud qu’il ne l’imagine. Lorsqu’il retrouve la côte et mouille à Mossel Bay, il comprend qu’il a franchi le cap qui ouvre la route de l’océan Indien.Dias baptise d’abord ce promontoire cap des Tempêtes (Cabo das Tormentas) en mémoire des vents qui ont failli lui coûter la vie.Un roi qui voit plus loinMais à Lisbonne, le roi Jean II voit les choses autrement. Pour lui, ce cap marque la possibilité d’une nouvelle route commerciale vers les épices d’Asie, évitant les intermédiaires arabes et vénitiens. C’est une promesse d’enrichissement et de puissance. Alors, il décide de renommer le lieu cap de Bonne-Espérance (Cabo da Boa Esperança). Une manière de transformer une terre de danger en symbole d’avenir radieux.Une appellation qui traverse les sièclesLe nom s’impose et restera. Au fil du temps, le cap de Bonne-Espérance devient une escale stratégique pour les navigateurs européens. Au XVIIe siècle, les Hollandais y établissent une colonie, Le Cap, qui deviendra plus tard la capitale parlementaire de l’Afrique du Sud.ConclusionAinsi, ce nom n’est pas une simple description géographique, mais un message d’optimisme : malgré les tempêtes, ce promontoire représentait l’espoir d’un monde nouveau. Et cinq siècles plus tard, le cap de Bonne-Espérance reste un symbole universel : celui d’un passage difficile, mais porteur de promesses. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
C’est une question que beaucoup se posent : quand une pile “s’use”, devient-elle plus légère ? Intuitivement, on pourrait croire que oui, puisque l’énergie qu’elle contenait a été “consommée”. Mais la réponse est surprenante : non, une pile vide ne pèse pas moins lourd qu’une pile neuve.Pour comprendre pourquoi, il faut rappeler comment fonctionne une pile. Une pile n’est pas un petit réservoir d’énergie comme une gourde qu’on vide. C’est en réalité un système chimique. À l’intérieur, deux électrodes — une anode et une cathode — baignent dans un électrolyte. Lorsque vous branchez la pile à un circuit, des réactions chimiques se produisent : des électrons circulent de l’anode vers la cathode à travers le circuit, et c’est ce flux qui alimente vos appareils.Ces réactions ne font pas “disparaître” de la matière. Elles transforment simplement certains composés chimiques en d’autres. Par exemple, dans une pile alcaline classique, le zinc de l’anode se transforme progressivement en oxyde de zinc, tandis que le dioxyde de manganèse de la cathode se réduit. Résultat : la pile perd sa capacité à fournir du courant, mais la masse totale des substances reste la même. Rien ne s’évapore, rien ne s’échappe.Et l’énergie consommée ? Là encore, elle ne “pèse” pas. L’énergie qui alimente votre télécommande ou votre lampe de poche correspond au mouvement d’électrons, à des transformations chimiques, mais pas à une perte de masse mesurable.En théorie, la fameuse équation d’Einstein, E = mc², nous dit que l’énergie et la masse sont équivalentes. Donc, si une pile délivre de l’énergie, elle perd effectivement une infime fraction de sa masse. Mais cette perte est tellement minuscule qu’elle est impossible à mesurer avec une balance. Pour vous donner un ordre d’idée : vider complètement une pile AA libère environ 10 000 joules d’énergie. Selon E = mc², cela correspond à une perte de masse de l’ordre de 10⁻¹³ kilogramme, soit un milliardième de milliardième de gramme. Autrement dit : rien du tout à notre échelle.En résumé : une pile “vide” ne pèse pas moins lourd qu’une pile neuve. Elle a simplement changé sa chimie interne, rendant la réaction électrique impossible. Sa masse reste la même, sauf pour une perte infinitésimale, théorique, liée à l’équivalence masse-énergie, mais qui n’a aucune importance pratique. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Vous les avez sans doute déjà remarquées : ces colonnes cylindriques tournant devant les salons de barbier, ornées de spirales bleu, blanc et rouge. On les croise encore aux États-Unis, en Europe ou en Asie. Mais pourquoi ces couleurs ? Et surtout, que viennent faire le bleu, le blanc et le rouge sur une enseigne de coiffeur ?Une origine médiévaleL’histoire commence bien avant le simple rasage de barbe. Au Moyen Âge, les barbiers n’étaient pas seulement des coiffeurs : ils pratiquaient aussi de petits actes médicaux. On les appelait parfois les “barbiers-chirurgiens”. Ils saignaient les patients pour “purger” le corps, selon la théorie des humeurs, posaient des ventouses, arrachaient des dents ou recousaient des plaies. Bref, c’étaient de véritables praticiens polyvalents.Le symbole des couleursLes couleurs de l’enseigne rappellent directement ces pratiques. Le rouge représente le sang. Le blanc, les bandages utilisés pour comprimer et arrêter l’hémorragie. Quant au bleu, il symboliserait les veines, c’est-à-dire la circulation sanguine que l’on cherchait à contrôler avec les saignées.À l’origine, les barbiers accrochaient réellement des bandages ensanglantés à l’extérieur, enroulés autour d’un bâton, pour signaler leur activité. Avec le temps, cette image s’est stylisée en spirale colorée.Un objet codifiéDans certains pays, comme en Angleterre dès le XIVᵉ siècle, l’activité des barbiers-chirurgiens a été réglementée. Ils avaient même une enseigne officielle : un poteau surmonté d’un bassin, rappelant celui où l’on recueillait le sang. Le cylindre rayé, que l’on connaît aujourd’hui, est l’héritier direct de cette tradition.Pourquoi ces couleurs sont restéesMême après la séparation des métiers — les chirurgiens devenant des praticiens à part entière, et les barbiers se concentrant sur la coiffure et le rasage —, les enseignes ont gardé ce code visuel. Aux États-Unis, le bleu, blanc et rouge a parfois été interprété comme un clin d’œil patriotique aux couleurs du drapeau. Mais l’origine véritable reste médicale. En Europe, certaines enseignes n’affichent d’ailleurs que le rouge et le blanc.ConclusionL’enseigne de barbier est donc bien plus qu’un simple logo coloré. C’est un vestige d’un temps où se faire couper la barbe pouvait aller de pair avec… une petite saignée. Chaque spirale rouge, blanche et bleue raconte cette histoire insolite : celle des barbiers qui étaient aussi, autrefois, un peu médecins. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Pour regarder la vidéo et me donner votre avis:https://youtu.be/OuZtEbMl9_M?si=fkljzQLMrFOsNstsMerci ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
L’idée amuse souvent les enfants : si l’on creusait un trou très profond dans son jardin, pourrait-on déboucher de l’autre côté de la planète ? En théorie, cela semble simple. En pratique, c’est absolument impossible. Et les raisons sont à la fois physiques, géologiques et techniques.D’abord, il faut rappeler que la Terre n’est pas faite d’un seul bloc homogène. Elle est composée de couches successives. Sous la croûte terrestre, relativement fine – entre 5 et 70 kilomètres d’épaisseur – s’étend le manteau, qui descend jusqu’à 2 900 kilomètres. En dessous se trouve le noyau externe, liquide et métallique, puis le noyau interne, solide, essentiellement constitué de fer et de nickel. Pour atteindre l’autre côté de la Terre, il faudrait donc traverser environ 6 371 kilomètres, soit le rayon moyen de notre planète.Le premier obstacle est la chaleur. Plus on descend, plus la température augmente : en moyenne de 25 °C par kilomètre dans la croûte. À seulement 100 kilomètres de profondeur, on dépasse déjà 2 000 °C. Dans le noyau terrestre, les estimations atteignent près de 5 500 °C, soit l’équivalent de la surface du Soleil. Impossible d’imaginer des matériaux capables de résister à de telles températures.Ensuite vient la pression. À chaque kilomètre supplémentaire, la masse des couches supérieures écrase davantage ce qui est en dessous. À 3 000 kilomètres de profondeur, la pression équivaut à plusieurs millions de fois celle de l’air que nous respirons. Même les foreuses les plus résistantes seraient instantanément broyées.Troisième difficulté : les limites technologiques. L’être humain n’a jamais creusé bien profond. Le record est détenu par le forage de Kola, en Russie, commencé dans les années 1970. Il a atteint un peu plus de 12 kilomètres, soit… à peine 0,2 % du rayon terrestre ! À cette profondeur, la chaleur et la fragilité des roches rendaient déjà les travaux insoutenables.Enfin, il y a un problème pratique : même si, par miracle, on parvenait à creuser un tel tunnel, la gravité poserait une énigme. En tombant dedans, on serait d’abord accéléré, mais arrivé au centre de la Terre, la gravité s’exercerait de manière égale dans toutes les directions. Résultat : on resterait coincé au milieu, incapable de continuer.En résumé, la chaleur extrême, la pression colossale, la structure interne de la Terre et nos limites technologiques rendent cette idée totalement irréalisable. Creuser un trou jusqu’à l’autre bout du monde restera donc, à jamais, un rêve d’enfant… ou un scénario de science-fiction. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Si vous avez déjà longé une zone industrielle, vous avez sûrement remarqué ces silhouettes caractéristiques : des toits anguleux, en forme de dents de scie. On les associe tellement aux usines que même les emojis d’usine reprennent ce motif. Mais pourquoi cette forme a-t-elle dominé l’architecture industrielle du XIXᵉ siècle ? Et pourquoi tend-elle à disparaître… tout en revenant aujourd’hui sous une autre forme ?Un héritage de la Révolution industrielleL’histoire commence en Angleterre au XIXᵉ siècle, au cœur de la Révolution industrielle. À cette époque, les usines s’agrandissent, mais l’électricité n’est pas encore disponible pour éclairer ces immenses halles. Les lampes à huile ou les chandelles ne suffisent pas. Or, travailler dans la pénombre est impensable pour les ouvriers. La solution viendra des toitures : on invente le “shed roof”, ou toit en dents de scie.Comment ça fonctionne ?La structure est simple : une succession de toits en triangle rectangle. La partie verticale est vitrée, orientée généralement au nord, pour laisser entrer la lumière diffuse, sans éblouir ni chauffer excessivement l’espace. La partie inclinée, elle, est recouverte de tuiles, d’ardoises ou de métal, protégeant de la pluie et de la chaleur. Résultat : une lumière naturelle constante, idéale pour travailler la journée, surtout dans les ateliers de textile ou de métallurgie.Ces toitures avaient d’autres atouts : elles facilitaient l’écoulement des eaux de pluie, répartissaient mieux le poids sur la charpente et rendaient les bâtiments plus solides.Le déclin progressifAvec l’arrivée de l’électricité au début du XXᵉ siècle, la contrainte lumineuse disparaît. On peut désormais éclairer un atelier avec des lampes, sans dépendre de l’orientation du bâtiment. Dès les années 1910, des écoles comme le Bauhaus en Allemagne expérimentent de nouvelles formes, plus modernes et modulables. Peu à peu, les toits en dents de scie déclinent et disparaissent du paysage industriel.Un retour inattenduMais l’histoire ne s’arrête pas là. Depuis quelques années, ces toits reviennent dans les projets de réhabilitation et d’architecture durable. Pourquoi ? Parce que leur face inclinée orientée plein sud est idéale pour accueillir… des panneaux solaires. Ce qui était autrefois une solution de lumière naturelle devient aujourd’hui un levier pour la transition énergétique. Certains architectes, comme Jean Prouvé dès les années 1950, avaient déjà pressenti ce potentiel en réutilisant ce type de structure dans des rénovations.ConclusionLes toits en dents de scie racontent une histoire fascinante : nés d’un besoin d’éclairage, abandonnés avec l’électricité, puis réinventés pour l’énergie solaire. Preuve que l’architecture industrielle, loin d’être figée, s’adapte sans cesse aux défis de son temps. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Si vous regardez de près certaines représentations de la Révolution française, vous verrez souvent un bonnet rouge, tombant vers l’avant, porté par Marianne ou par les sans-culottes. Ce couvre-chef n’est pas un simple accessoire vestimentaire : c’est le célèbre bonnet phrygien, devenu un symbole universel de liberté. Mais d’où vient-il exactement ?L’histoire du bonnet phrygien commence bien avant 1789. Son nom provient de la Phrygie, une région d’Asie Mineure, dans l’actuelle Turquie. Dans l’Antiquité, les habitants de cette région portaient un bonnet de feutre à la pointe rabattue, reconnaissable sur de nombreuses fresques et sculptures. Très vite, ce couvre-chef a été associé, dans l’imaginaire gréco-romain, aux peuples orientaux. Les dieux et héros venus de l’Est, comme Attis, étaient souvent représentés coiffés de ce bonnet.Mais le vrai basculement symbolique se fait à Rome. Dans la République romaine, un bonnet de forme proche, appelé pileus, était remis aux esclaves affranchis. Recevoir ce bonnet signifiait accéder à la liberté. Le pileus, puis le bonnet phrygien par extension, s’ancrent donc très tôt dans l’idée d’émancipation.Ce souvenir antique ressurgit au XVIIIe siècle. Les penseurs des Lumières et les révolutionnaires français, très friands de références classiques, se réapproprient ce symbole. Lors de la Révolution française, le bonnet phrygien devient l’emblème de la liberté conquise contre la tyrannie. Les sans-culottes l’arborent fièrement, et Marianne, allégorie de la République, est presque toujours représentée coiffée de ce bonnet rouge.Pourquoi rouge ? La couleur est héritée de la Révolution : elle renvoie au sang versé, au courage, mais aussi à la fraternité entre citoyens. Ce bonnet rouge devient rapidement un signe de ralliement politique, au point d’être porté dans les cortèges, peint sur les murs et brandi sur les piques.Au XIXe siècle, le symbole s’universalise. On retrouve le bonnet phrygien sur les armoiries de nombreux pays d’Amérique latine nouvellement indépendants, de l’Argentine à Cuba. Partout, il représente la liberté, la rupture avec l’oppression et la naissance d’une nation.Aujourd’hui encore, il reste omniprésent : sur le sceau de la République française, dans les mairies, ou sur certaines pièces de monnaie. Le bonnet phrygien rappelle qu’un simple objet peut traverser les siècles et les civilisations pour incarner une idée intemporelle : celle de la liberté conquise. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
loading
Comments (49)

New Jawn

vous parlez trop vite.

Sep 13th
Reply

lila bessiere

c’est choquant les chiffre je pensais pas que c’était possible. Après tour dépend de ce que on entend par viol si c’est vraiment dans le lit la c'est juste choquant et pas normal ou si c’est une tape sur les partie,un bisou forcé, des gestes déplacer là les chiffres sont moins choquant mais un peu quand même

Apr 16th
Reply

Patrick Louis Treels

L'idéologie Wok quand elle s'éteindra, aura eu au moins un mérite aux yeux de ceux qui ont un minimum de culture historique. c'est de montrer que l'histoire est écrite par les vainqueurs du moment et qu'elle a toujours été falsifiée; par les empires, par le Vatican sous la monarchie et jusqu'à aujourd'hui et par la république jusqu'à nos jours...

Nov 13th
Reply

Patrick Louis Treels

C'est absolument faux! Hitler était catholique et le fondateur de la SS Heinrich Himmler avait été jésuite... C'est juste de la propagande catholique pour dédouaner le Vatican...

Nov 13th
Reply

Gurvan Lidec

publicités insupportables qui se répètent toutes les 2 minutes. l'émission perd tout son intérêt. dommage.

Sep 20th
Reply

Hmz Hmz

🫱🏼‍🫲🏻

Sep 1st
Reply

Hmz Hmz

😂😂

Sep 1st
Reply

Sousou Dahil

هو تةةةةةةةةةيرررررررررتتؤيءgw

Aug 1st
Reply

Sousou Dahil

يرؤرؤرررءيرىىىىىىىلارؤؤؤؤ سوت وتوتر

Aug 1st
Reply

Thomas Guihard

Êtes-vous sûr que ces techniques ne sont pas inspirées à l origine des méthodes françaises durant la guerre d Algérie ??

Jul 21st
Reply

bouclé

merci pour votre podcast! vous êtes une source importante pour améliorer notre savoir🤗❤️

Mar 25th
Reply

Melrose

J'adore Choses à savoir ! 🤓

Mar 23rd
Reply

Anne Guillaumie

C'est bzzigrement intéressant !

Jan 29th
Reply

Giulia

Très intéressant merci beaucoup ❤️

Oct 20th
Reply

Audrey pasdecalais

on dirait le malade imaginaire. et d'autres conte du même genre.

Oct 7th
Reply

Colby

7

Aug 1st
Reply (1)

Théo Maillet

Je crois que ce fact est faux

Apr 15th
Reply

Nour Hane

hyper intéressant

Mar 25th
Reply

Ludovic M

Podcast sympa mais trop d'approximations... dans le genre, je préfère largement le podcast Culture G

Jan 19th
Reply

marc Genevey

Merci pour ce sujet passionnant.peut on le retrouver en ligne ?

Jan 18th
Reply
loading