Discover
Pourquoi donc ?
Pourquoi donc ?
Author: Choses à Savoir
Subscribed: 4,670Played: 349,166Subscribe
Share
© Choses à Savoir
Description
Je réponds de façon claire et directe à toutes les questions essentielles, en une minute chrono !
Si vous cherchez le podcast Petits Curieux, c'est par ici: https://chosesasavoir.com/podcast/petits-curieux-2/
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
933 Episodes
Reverse
L’idée peut surprendre : la prostitution existe-t-elle dans le monde animal ? Évidemment, il ne s’agit pas de prostitution au sens humain du terme, c’est-à-dire d’une activité consciente, socialement codifiée et liée à des notions de moralité ou d’échange économique. Mais il existe bel et bien, chez plusieurs espèces, des comportements où un acte sexuel est échangé contre une ressource, un avantage matériel, ou un service. Les biologistes parlent alors de “sexual trading”, ou échange sexuel intéressé.Le cas le plus célèbre est celui des manchots d’Adélie, que tu mentionnes. Chez eux, les nids sont construits avec des galets, une ressource rare et très convoitée. Certaines femelles, lorsqu’elles manquent de pierres, se rendent discrètement dans le territoire d’un mâle qui n’est pas leur partenaire. Elles s’accroupissent devant lui, adoptent la posture d’accouplement… et obtiennent un galet, parfois plusieurs, avant de retourner à leur nid. Fait intéressant : dans de nombreux cas observés par les éthologues, il n’y a même pas d’accouplement réel — la femelle mime l’offre, le mâle cède le galet, et chacun repart. Un échange symbolique, mais efficace.Ce n’est pas un cas isolé. Chez les bonobos, espèce de primates réputée pour utiliser le sexe comme outil social, des individus peuvent offrir des relations sexuelles pour obtenir de la nourriture ou pour apaiser des tensions. Ici, le sexe devient une monnaie d’échange, permettant d’accéder à des ressources ou d’améliorer sa position dans le groupe.Chez certaines araignées, des mâles offrent des “cadeaux nuptiaux” – généralement des insectes emballés dans de la soie – pour obtenir l’accès à la reproduction. Dans quelques espèces, des femelles feignent l’acceptation du cadeau, se nourrissent puis s’enfuient sans coopérer sexuellement. À l’inverse, certains mâles offrent des cadeaux vides, de simples cocons de soie, trompant la femelle pour obtenir une copulation rapide.Même dans le monde marin, le phénomène existe. Chez les dauphins tursiops, des alliances de mâles peuvent “offrir” protection et nourriture à une femelle, qui en échange reste sexuellement disponible pour eux. Ce comportement s’étend parfois sur des mois.Tous ces exemples montrent que le sexe peut constituer une véritable monnaie comportementale dans la nature. Les animaux n’ont pas conscience de prostituer leur corps — ils répondent simplement à des pressions écologiques où l’échange d’un acte reproducteur contre une ressource augmente leurs chances de survie ou de reproduction.En d’autres termes, il n’y a pas de prostitution au sens moral, mais il existe bel et bien des échanges sexuels transactionnels dans la nature. Un rappel fascinant que l’économie… commence parfois bien avant l’apparition des humains. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Le mot “pseudocide” intrigue : on dirait un terme issu d’un roman policier. Pourtant, il désigne un phénomène bien réel, parfois tragique, parfois déroutant. Le pseudocide, c’est tout simplement l’acte de simuler sa propre mort. Une disparition organisée, volontaire, parfois extrêmement sophistiquée, dont l’objectif est toujours le même : faire croire au monde que l’on n’existe plus.Le pseudocide se distingue de la disparition volontaire ou de la cavale classique par un élément clé : il implique une mise en scène. La personne laisse derrière elle des indices destinés à convaincre les proches, les enquêteurs ou la presse qu’elle est décédée. Accident de voiture truqué, vêtements abandonnés en bord de mer, bateau retrouvé vide, fausse agression… les scénarios varient, mais suivent une logique commune : créer suffisamment de vraisemblance pour que personne ne soupçonne une fuite.Mais pourquoi simuler sa mort ? Les motivations sont multiples. Certains cherchent à échapper à des dettes, à la justice, ou à une situation personnelle devenue insupportable. D’autres veulent fuir une pression médiatique ou familiale. Il existe même des cas où le pseudocide est commis par désespoir, comme une manière radicale de rompre avec une vie jugée ingérable.L’histoire regorge d’exemples étonnants. L’un des plus célèbres est celui de John Darwin, un Britannique qui, en 2002, simule sa mort en canoë pour échapper à ses dettes. Pendant cinq ans, il vit dans une chambre secrète au domicile conjugal, avant que l’affaire n’éclate lorsque lui et sa femme apparaissent naïvement sur une photo prise… au Panama. D’autres cas restent mystérieux, comme celui de certaines célébrités supposément “disparues” mais que l’on croit apercevoir des années plus tard.Le pseudocide est rarement couronné de succès durable. Simuler sa mort entraîne presque toujours des conséquences juridiques lourdes : fraude à l’assurance, falsification de documents, obstruction à la justice. Et surtout, un pseudocide s’effondre souvent à cause de détails anodins : un retrait bancaire, un message envoyé, une photo publiée, une simple erreur humaine qui dévoile la supercherie.Sur le plan psychologique, disparaître ainsi demande une préparation mentale extrême : renoncer à ses proches, couper toute communication, vivre sous une nouvelle identité, accepter la solitude et le stress constant de l’anonymat. Beaucoup de “revenants” témoignent d’un profond malaise, comme si l’acte de fuir sa vie l’avait rendue encore plus lourde à porter.En somme, le pseudocide est un acte de rupture totale, spectaculaire et souvent tragique. Une disparition qui, derrière son apparente audace, révèle surtout une immense détresse ou un désespoir prêt à tout pour recommencer à zéro. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
En France, pendant la Seconde Guerre mondiale, l’histoire d’un cheval allait devenir l’un des épisodes les plus inattendus et les plus poignants de la Résistance. Son nom : Iris XVI, un bel alezan appartenant à l’École de cavalerie de Saumur. Un animal réputé pour son calme, son intelligence… et sa fidélité presque humaine. Mais en 1940, lorsque les troupes allemandes envahissent la région, son destin bascule.Les Allemands réquisitionnent tout : bâtiments, armes, véhicules… et chevaux. Iris XVI se retrouve alors affecté à un officier allemand, un certain colonel qui, comme beaucoup de ses camarades, ignore tout du tempérament particulier de l’alezan français. Ce qu’il ne sait pas non plus, c’est que les chevaux de Saumur, dressés selon une tradition prestigieuse, obéissent à des signaux très subtils, à une complicité et à une manière de monter propres à la cavalerie française. Les ordres germaniques, brusques, secs, autoritaires, ne font qu’agacer l’animal.Mais chez Iris XVI, l’agacement se transforme vite en acte de défiance.Lors d’une inspection, le colonel allemand salue un supérieur, passe devant sa troupe… et met pied à l’étrier. À peine installé en selle, il ordonne au cheval de partir au trot. Iris XVI ne bronche pas. Nouvel ordre, cette fois d’un ton sec. Silence. Le cheval reste immobile, les oreilles couchées. Furieux, l’officier lui enfonce les éperons. L’alezan bondit alors… mais pas dans la direction attendue.Dans un mouvement vif et précis, il se cabre, pivote, puis projette brutalement son cavalier au sol. Le colonel chute lourdement, sous les rires étouffés des soldats français qui assistent à la scène sans pouvoir intervenir. Humilié, blessé dans son orgueil, l’officier allemand se relève, livide. Quelques secondes suffisent pour transformer son humiliation en vengeance.Il ordonne l’impensable.Iris XVI, un cheval qui n’a fait qu’obéir à son instinct et à son dressage, est déclaré “dangereux” et “incontrôlable”. Le verdict tombe comme une condamnation : fusillé pour acte de résistance. Le cheval est abattu sur la place de l’École de cavalerie de Saumur, sous les yeux horrifiés des Français réquisitionnés. Sa dépouille est enterrée à la hâte, sans cérémonie.Mais malgré les années, l’histoire n’a jamais disparu. Elle circule d’abord en murmures, devient une légende parmi les anciens cavaliers de Saumur, puis un symbole : celui d’un animal qui, par son comportement instinctif, s’est opposé à l’occupant. Beaucoup y voient un acte de résistance digne d’un soldat.Aujourd’hui encore, Iris XVI est considéré comme le seul cheval officiellement fusillé pour acte de résistance pendant la Seconde Guerre mondiale. Son nom flotte comme un hommage : celui d’un animal qui n’a pas accepté de se laisser dompter par l’ennemi. Un héros silencieux, tombé sans savoir qu’il incarnait l’honneur de toute une institution. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
La question paraît absurde, presque inquiétante, et pourtant la réponse est simple : nous consommons régulièrement du dioxyde de silicium, aussi appelé silice, classé comme additif alimentaire sous le nom de E551. Et cette silice n’est rien d’autre qu’un proche cousin… du sable.Attention : il ne s’agit pas du sable granuleux que l’on trouve sur la plage, mais d’une forme extrêmement fine et amorphe, invisible à l’œil nu. Cette poudre très légère possède une propriété précieuse pour l’industrie alimentaire : elle empêche les aliments de coller entre eux. C’est ce qu’on appelle un agent anti-agglomérant. Sans elle, de nombreux produits de nos placards formeraient des blocs durs et inutilisables.On retrouve cet additif dans le café soluble, les soupes en poudre, les sauces instantanées, certaines épices, les compléments alimentaires, mais aussi dans le très banal sel de table. Le rôle du E551 est toujours le même : absorber l’humidité, rendre le produit fluide, permettre un meilleur dosage et éviter les paquets compacts.Mais d’où vient cette idée d’ajouter de la silice alimentaire ? En fait, cette pratique est ancienne. Dès les années 1950, les industriels comprennent que la poudre de silice améliore la conservation et la manipulation des produits secs. Elle ne modifie ni le goût ni la couleur, elle est stable, bon marché, efficace… et naturellement abondante : la silice constitue environ 60 % de la croûte terrestre.La question qui fâche vient alors : est-ce dangereux ? Les agences sanitaires – européennes comme américaines – considèrent la silice amorphe comme sûre aux doses utilisées dans l’alimentation. Elle traverse notre organisme sans être absorbée. En revanche, une autre forme de silice, appelée silice cristalline, est à éviter lorsqu'elle est inhalée sous forme de poussière : elle est classée cancérogène dans certaines conditions. Ce n’est cependant pas celle que l’on trouve dans les aliments.Paradoxalement, nous en consommons tous, quotidiennement, sans nous en rendre compte. Et l’on pourrait aller encore plus loin : la silice est également utilisée dans certains vins, dans la filtration de la bière, dans le pain industriel ou encore dans certaines friandises, toujours pour stabiliser les textures.En somme, nous ne mangeons pas du sable au sens littéral, mais un ingrédient très commun, purifié, contrôlé et utile. Un minéral discret qui accompagne en silence la plupart des produits secs de nos cuisines. Et dont nous ignorons presque toujours la présence. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
L’expression « bouc émissaire » a une origine à la fois biblique, religieuse et symbolique, remontant à plus de trois mille ans. Aujourd’hui, elle désigne une personne injustement accusée et punie à la place des véritables responsables — mais son sens premier était beaucoup plus concret et rituel.Tout commence dans l’Ancien Testament, dans le Livre du Lévitique (chapitre 16), texte fondamental de la tradition juive. À l’époque, les Hébreux célébraient chaque année le Yom Kippour, le grand jour de l’expiation. Ce jour-là, le grand prêtre d’Israël accomplissait un rituel destiné à purifier le peuple de ses fautes. Deux boucs étaient choisis : l’un était sacrifié à Dieu, l’autre devenait le bouc émissaire. Le prêtre posait symboliquement les mains sur sa tête et transférait sur lui les péchés de toute la communauté. Puis l’animal, chargé de ces fautes, était chassé dans le désert, vers un lieu inhabité appelé « Azazel ». Il emportait ainsi les péchés du peuple loin du camp.Ce rite très ancien visait à purifier la collectivité en rejetant symboliquement le mal hors d’elle. L’expression hébraïque originelle, ‘azazel, a longtemps prêté à confusion : on ne savait pas s’il s’agissait d’un lieu, d’un démon du désert ou du nom donné au bouc lui-même. Les premières traductions de la Bible en grec, puis en latin, ont choisi de rendre le terme par « bouc pour l’éloignement » (caper emissarius), d’où vient notre expression française « bouc émissaire ».Au fil des siècles, la dimension religieuse a disparu, mais l’image est restée puissante. Le bouc émissaire est devenu une métaphore sociale et psychologique. Dans toute société, lorsqu’un groupe traverse une crise — guerre, famine, épidémie, échec politique — il cherche souvent un responsable unique, un individu ou une minorité sur qui reporter la faute collective. C’est ce mécanisme que le philosophe et anthropologue René Girard a théorisé au XXe siècle : selon lui, les sociétés humaines maintiennent leur cohésion en désignant une victime expiatoire, qu’on exclut ou qu’on sacrifie pour apaiser les tensions internes.Ainsi, le « bouc émissaire » d’aujourd’hui — qu’il soit un collègue, un groupe social ou un peuple — n’est que l’héritier moderne du rituel antique : une manière de se débarrasser du mal ou du conflit en le projetant sur un autre. L’expression rappelle à quel point le besoin de désigner un coupable est ancré dans nos mécanismes les plus anciens de survie et de cohésion collective. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Si certaines personnes adorent les films d’horreur tandis que d’autres les fuient, la raison se trouve en grande partie dans notre cerveau. Les neurosciences montrent que tout dépend de la manière dont chacun traite la peur, cette émotion universelle mais extrêmement variable d’un individu à l’autre.Lorsqu’on regarde une scène effrayante, l’amygdale, une petite structure située au cœur du cerveau, s’active. C’est elle qui déclenche la réponse de peur : accélération du rythme cardiaque, sécrétion d’adrénaline, contraction musculaire. En temps normal, cette réaction prépare à fuir ou à se défendre. Mais dans un cinéma ou sur un canapé, le cerveau sait qu’il n’y a aucun danger réel. Résultat : la peur devient une expérience contrôlée, une montée d’adrénaline sans risque, un peu comme les montagnes russes.Chez les amateurs de films d’horreur, cette activation de l’amygdale s’accompagne souvent d’une libération de dopamine, le neurotransmetteur du plaisir et de la récompense. Ils ressentent donc un mélange paradoxal de peur et d’excitation. C’est cette combinaison – la montée du stress suivie du soulagement – qui crée le frisson agréable. Des chercheurs de l’Université de Copenhague ont montré en 2020 que le cerveau des amateurs de films d’horreur alterne très vite entre état d’alerte et retour à la sécurité, un peu comme un entraînement émotionnel : ils apprennent à “jouer” avec leur peur.À l’inverse, certaines personnes ont une hyperactivité de l’amygdale ou une moindre régulation de cette zone par le cortex préfrontal, la région du raisonnement. Leur cerveau a plus de mal à distinguer la fiction du réel. Pour elles, les images d’horreur déclenchent un véritable état de stress, avec libération excessive de cortisol (l’hormone du stress), sueurs et anxiété prolongée. D’où le rejet total du genre.Enfin, le goût de la peur dépend aussi de la personnalité et du câblage neuronal. Les personnes curieuses, en quête de sensations fortes, ou dotées d’un système dopaminergique plus sensible (comme les amateurs de sports extrêmes) trouvent dans l’horreur une stimulation gratifiante. D’autres, plus anxieuses ou empathiques, activent plus intensément les circuits de la douleur et du dégoût.En résumé, aimer les films d’horreur, c’est une question de chimie cérébrale : pour certains cerveaux, la peur est un jeu excitant ; pour d’autres, c’est une alarme qu’il vaut mieux ne jamais déclencher. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
La mer Caspienne est un cas unique au monde : immense étendue d’eau fermée, elle est qualifiée de mer par son nom, mais de lac par sa géographie. Pourtant, d’un point de vue juridique international, elle n’est ni tout à fait l’un ni l’autre.Située entre la Russie, le Kazakhstan, le Turkménistan, l’Azerbaïdjan et l’Iran, la mer Caspienne est un bassin endoréique : elle n’a aucune communication naturelle avec les océans. Selon la géographie physique, c’est donc un lac salé, le plus grand du monde, avec une superficie de 370 000 km². Mais sa salinité (autour de 12 g/l) et son immense taille ont longtemps nourri l’ambiguïté : historiquement, les peuples riverains l’ont appelée “mer”, et les cartes l’ont toujours représentée ainsi.La vraie question, toutefois, est politico-juridique. Car si la Caspienne est une mer, elle relève du droit maritime international, notamment de la Convention des Nations unies sur le droit de la mer (dite de Montego Bay, 1982). Dans ce cas, chaque pays riverain aurait une zone économique exclusive et un plateau continental, avec des droits d’exploitation sur le pétrole et le gaz situés dans sa partie. Si, en revanche, on la considère comme un lac, il faut la partager selon des règles spécifiques de droit interne entre États, par des accords bilatéraux ou multilatéraux.Pendant des décennies, cette ambiguïté a provoqué des tensions diplomatiques. L’effondrement de l’URSS en 1991 a tout compliqué : de deux États riverains (URSS et Iran), on est passé à cinq. Chacun voulait défendre sa part des immenses gisements d’hydrocarbures sous le fond caspien. L’enjeu était colossal.Après des années de négociations, un compromis a été trouvé en 2018 avec la Convention d’Aktau, signée par les cinq pays. Elle a établi un statut hybride :La mer Caspienne n’est ni un océan ni un lac au sens strict.Son eau de surface est partagée comme celle d’une mer, ouverte à la navigation commune.Mais son fond marin (où se trouvent les ressources) est divisé entre les États, comme pour un lac.Ainsi, la Caspienne bénéficie d’un régime juridique sui generis, c’est-à-dire unique en son genre. Ce statut permet à chacun des pays riverains d’exploiter ses ressources tout en maintenant une souveraineté partagée sur l’ensemble. En somme, la mer Caspienne est juridiquement… un peu des deux : une mer par son nom et ses usages, un lac par sa nature, et un compromis diplomatique par nécessité. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Le charbon, qu’il soit de bois ou de houille, a la particularité d’absorber l’oxygène de l’air et de s’oxyder lentement à sa surface. Cette réaction chimique, appelée oxydation exothermique, dégage de la chaleur. Si le tas de charbon est volumineux et mal ventilé, la chaleur ne peut pas se dissiper. Peu à peu, la température interne monte, jusqu’à atteindre le point où la matière s’enflamme d’elle-même — souvent autour de 150 à 200 °C. C’est ce qu’on appelle l’auto-inflammation.Ce risque augmente avec plusieurs facteurs :La granulométrie : les petits morceaux, voire la poussière de charbon, s’oxydent beaucoup plus vite que les blocs massifs.L’humidité : paradoxalement, un léger taux d’humidité favorise l’oxydation, car l’eau agit comme un catalyseur ; en revanche, un excès d’eau peut ralentir le processus.La compacité du tas : un amas dense limite la circulation d’air, ce qui empêche le refroidissement naturel.La chaleur ambiante : en été ou dans un local mal ventilé, le risque est multiplié.L’auto-échauffement se déroule souvent en plusieurs jours ou semaines, de manière insidieuse. Le charbon semble stable en surface, mais à l’intérieur, la température grimpe progressivement. Lorsque l’air atteint ces zones chaudes par des fissures ou des interstices, il alimente brusquement la combustion : le tas peut alors s’enflammer spontanément, sans aucune étincelle.Les conséquences peuvent être graves : incendies de dépôts, émissions de gaz toxiques (notamment du monoxyde de carbone), voire explosions dans les espaces clos. C’est pourquoi les charbonnages et centrales thermiques ont mis en place des protocoles stricts : stockage en couches minces, contrôle de la température interne, aération permanente, voire inertage à l’azote dans certains cas.Pour les particuliers, la prudence s’impose : il ne faut jamais entasser le charbon en gros tas dans un local fermé. Il est conseillé de le stocker en petites quantités, à l’abri de l’humidité mais dans un espace bien ventilé, et de remuer régulièrement le tas pour éviter l’accumulation de chaleur.En résumé, le charbon, même éteint, n’est pas une matière inerte : son contact prolongé avec l’air suffit, dans certaines conditions, à allumer un feu sans flamme ni étincelle. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Le « test de la chaise bancale » est une épreuve informelle mais redoutée utilisée dans certains entretiens d’embauche pour évaluer la réaction d’un candidat dans une situation d’inconfort. Comme son nom l’indique, il s’agit littéralement d’une chaise instable, dont un pied est légèrement plus court que les autres, ou d’un siège volontairement inconfortable. Le but n’est pas de juger la posture du candidat, mais sa manière de réagir à un désagrément inattendu.Ce test appartient à la catégorie des épreuves de résistance psychologique. Il ne repose pas sur des critères objectifs, mais sur l’observation du comportement. L’employeur ou le recruteur cherche à voir si le candidat garde son calme, s’il tente de réparer la situation, s’il manifeste de la gêne, de l’agacement, ou au contraire de l’humour. En somme, ce n’est pas le confort qui est testé, mais la résilience émotionnelle et la gestion du stress.L’idée est de recréer une mini-crise, un moment de perte de contrôle, dans un contexte où le candidat ne s’y attend pas. Face à cette situation, plusieurs attitudes peuvent apparaître : certains s’enfoncent dans la chaise en serrant les dents, d’autres la réajustent naturellement, d’autres encore signalent poliment le problème. Le recruteur observe alors la spontanéité, la capacité à s’adapter, et surtout la manière dont la personne exprime une gêne. Dans les métiers de relation client, de management ou de vente, cette réaction en dit parfois plus qu’un CV.Ce type de test s’inscrit dans une mouvance plus large d’entretiens “non conventionnels”, popularisés dans les années 2000 par certaines entreprises américaines, comme Google ou Zappos, qui posaient des questions déstabilisantes du type : « Combien de balles de golf peut-on mettre dans un avion ? ». L’objectif est le même : sonder la personnalité, la créativité, et la réaction à l’imprévu.Toutefois, le test de la chaise bancale est controversé. Certains psychologues du travail estiment qu’il ne mesure rien de fiable et peut être perçu comme une forme de manipulation, voire d’humiliation. D’autres rappellent qu’un bon entretien doit mettre le candidat en confiance, non en déséquilibre. Dans les faits, ce genre de test tend à disparaître dans les grands groupes, mais il subsiste parfois dans les petites structures ou les secteurs où la personnalité compte autant que les compétences.En définitive, la « chaise bancale » est moins un test qu’un symbole : celui d’un monde du travail qui, au-delà des diplômes, cherche à jauger l’attitude, la souplesse et la capacité à rester digne, même quand tout vacille — littéralement. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Au XVIᵉ siècle, la langue française connaît une véritable explosion de créativité. Et l’un de ses plus grands architectes s’appelle François Rabelais. Médecin, humaniste, moine défroqué et écrivain, Rabelais est l’auteur des célèbres Gargantua et Pantagruel, œuvres truculentes où se mêlent satire, érudition et fantaisie. Mais il est aussi un inventeur de mots hors pair : on estime qu’il aurait créé ou popularisé plus de 800 mots français, dont certains sont encore en usage aujourd’hui.Rabelais faisait partie de cette génération d’humanistes qui, à la Renaissance, voulaient enrichir la langue française pour la hisser au niveau du latin et du grec. Son imagination linguistique servait autant la science que la comédie. Il puisait dans le latin (frugalité, hilarité), le grec (utopie, antiques), mais aussi dans des jeux de mots et inventions pures. Ainsi, il est à l’origine ou à l’origine probable de termes comme “pantagruélique” (démesuré, joyeusement excessif), “gargantuesque” (gigantesque, généreux), “dyspepsie”, “épithète”, ou encore “progression”.Ses créations ne relevaient pas du simple caprice : elles accompagnaient une vision du monde où la langue devait refléter l’abondance du savoir et de la vie. Son style foisonnant, parfois scatologique, associait un vocabulaire érudit à un humour populaire. En mélangeant les registres, Rabelais a donné au français une souplesse et une inventivité nouvelles, ouvrant la voie à des auteurs comme Molière ou Voltaire.Mais la richesse du français ne vient pas seulement de ses mots : elle réside aussi dans ses formes littéraires. Le mot “roman”, par exemple, est lui-même un héritage médiéval fascinant. À l’origine, vers le XIᵉ siècle, romanz désignait simplement la langue romane, c’est-à-dire le vieux français parlé par le peuple, par opposition au latin, réservé à l’Église et aux érudits.Les premiers “romanz” étaient donc des textes écrits en français pour être compris de tous : récits de chevaliers, contes et chansons de geste. Peu à peu, le terme a glissé du langage au genre : un “roman” n’était plus seulement une œuvre en langue vulgaire, mais une fiction narrative en prose.Ainsi, du romanz médiéval au roman moderne, et de Rabelais à nos écrivains contemporains, la langue française s’est construite par invention, audace et plaisir du mot. Entre néologismes savants et détournements populaires, elle reste, comme chez Rabelais, une fête de l’esprit et de la liberté. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Cela peut sembler absurde, mais c’est vrai : Apple a un jour recommandé de laisser tomber son ordinateur pour résoudre un problème technique. L’histoire remonte au début des années 1980, à l’époque de l’Apple III, l’un des plus grands échecs commerciaux de la marque — et un épisode fascinant de l’histoire de l’informatique.En 1980, Apple vient de connaître un immense succès avec l’Apple II. L’entreprise veut donc frapper encore plus fort avec une machine professionnelle, plus puissante et plus élégante. Le résultat : l’Apple III, présenté comme un ordinateur haut de gamme, conçu sans ventilateur (jugé trop bruyant) et sans ouvertures visibles, pour un design sobre et silencieux. Sauf que ce choix esthétique allait causer la perte de la machine.Rapidement après son lancement, les utilisateurs se plaignent de pannes étranges : l’ordinateur se fige, le texte à l’écran devient illisible, ou la machine refuse tout simplement de démarrer. Après enquête, les ingénieurs découvrent la cause : sans ventilation, la chaleur interne fait se dilater les composants. Or, les puces électroniques de la carte mère n’étaient pas soudées, mais simplement enfichées dans leurs supports. En chauffant, elles se soulevaient légèrement et perdaient le contact électrique.La solution officielle, consignée dans certains documents techniques d’Apple, a de quoi surprendre : pour rétablir la connexion, il suffisait de soulever l’ordinateur d’une dizaine de centimètres et de le laisser retomber sur une surface plane. Ce choc léger permettait de replacer les puces dans leur logement… jusqu’à la prochaine surchauffe.Cette “réparation par gravité” est devenue légendaire dans l’histoire de la marque. Elle symbolise à la fois l’audace et les excès d’Apple à ses débuts : vouloir un produit parfait sur le plan esthétique, quitte à en négliger la fiabilité technique.Malgré plusieurs révisions matérielles, l’Apple III resta un fiasco. Apple le retira discrètement du marché en 1984, après avoir vendu à peine 120 000 unités — bien loin du succès de son prédécesseur.Aujourd’hui encore, l’épisode de l’Apple III est cité dans les écoles d’ingénierie comme un cas d’école du compromis entre design et fonctionnalité. Et il rappelle qu’avant de devenir le géant du design technologique, Apple a aussi connu des débuts où la solution la plus “innovante” pouvait littéralement… tomber du ciel. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Les noms de famille n’ont pas toujours existé. Pendant des siècles, dans la plupart des sociétés, on se contentait d’un seul prénom. Mais quand les populations ont commencé à croître, il est devenu difficile de distinguer tous les “Jean” ou “Pierre” d’un même village. C’est alors qu’ont commencé à apparaître, dès le Moyen Âge, les noms de famille, d’abord en Europe, pour préciser l’identité d’une personne. Et la plupart de ces noms viennent de quatre grandes origines : le métier, le lieu, la filiation et une caractéristique physique ou morale.1. Les noms issus du métierC’est l’une des sources les plus courantes. On désignait les gens par ce qu’ils faisaient : Jean le Boulanger, Pierre le Charpentier, Jacques le Berger. Avec le temps, ces surnoms sont devenus des noms de famille transmis à leurs enfants. En France, on retrouve par exemple Boulanger, Marchand, Charpentier, ou Berger. En anglais, cela a donné Smith (forgeron), Baker (boulanger) ou Taylor (tailleur).2. Les noms liés à un lieuD’autres personnes étaient identifiées par leur origine géographique. On disait Marie de Lyon ou Guillaume du Bois. Ces mentions sont devenues des noms de famille : Delacroix, Dupont, Dubois, Deschamps. En Italie, on trouve Da Vinci (“de Vinci”, le village natal de Léonard). Ces noms reflètent souvent l’endroit où vivait l’ancêtre — un pont, un champ, une rivière — et servent encore aujourd’hui de témoins de l’histoire locale.3. Les noms patronymiquesCertains noms viennent directement du prénom du père. En France, cela a donné Martin, Henry, ou Laurent. Mais dans d’autres langues, on l’exprime plus clairement : en anglais, Johnson signifie “fils de John”, Anderson “fils d’Andrew”. En Russie, Ivanov veut dire “fils d’Ivan”, et en Islande, ce système est encore vivant : le fils d’un homme nommé Olaf s’appellera Olafsson, et sa fille Olafsdóttir.4. Les noms descriptifs ou surnomsEnfin, beaucoup de noms de famille venaient d’un trait physique ou de caractère. Petit, Legrand, Lenoir, Leblanc, Fort, ou Lemoine décrivaient une particularité, parfois flatteuse, parfois moqueuse. En Allemagne, Klein signifie “petit”, et en Espagne, Delgado veut dire “mince”.Peu à peu, ces surnoms se sont transmis d’une génération à l’autre, devenant héréditaires à partir du XIVᵉ siècle environ. Ainsi, les noms de famille sont de véritables fossiles linguistiques : ils racontent l’origine, le métier ou le caractère de nos ancêtres, et forment une mémoire vivante de notre histoire collective. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
L’idée que les gauchers seraient plus créatifs que les droitiers est ancienne, séduisante… mais scientifiquement controversée. Elle repose sur une intuition simpliste : si le cerveau gauche contrôle la main droite et le cerveau droit contrôle la main gauche — et que le cerveau droit serait “le siège de la créativité” — alors les gauchers, plus “droit cérébral”, devraient être plus imaginatifs. Mais la réalité, révélée par plusieurs études, est bien plus nuancée.Une étude publiée en 2009 par Shobe et al. dans la revue Brain and Cognition a testé cette hypothèse sur des étudiants américains. Les chercheurs ont mesuré leur “pensée divergente” — la capacité à produire des idées originales — et ont comparé droitiers, gauchers et “inconsistants” (ceux qui utilisent les deux mains selon la tâche). Résultat : les gauchers n’étaient pas systématiquement plus créatifs. En revanche, les personnes au faible degré de latéralisation (ni totalement droitières, ni totalement gauchères) obtenaient de meilleurs scores de créativité. Leur cerveau semblait mieux équilibré entre les deux hémisphères, favorisant des connexions inhabituelles entre des idées éloignées.Cette découverte a inspiré une hypothèse neurolinguistique : la communication interhémisphérique — facilitée par un corps calleux plus actif — pourrait être un atout pour la pensée créative. Autrement dit, ce n’est pas la main utilisée qui compte, mais la souplesse du cerveau à mobiliser ses deux côtés.Des recherches plus récentes, notamment une méta-analyse publiée en 2019, confirment ces nuances : il n’existe aucune corrélation stable entre la main dominante et les performances créatives. Les différences observées sont faibles, variables selon les tests, et largement influencées par d’autres facteurs : culture, environnement familial, éducation artistique, exposition à la nouveauté.Enfin, le cliché du “génie gaucher” vient aussi de l’histoire : Léonard de Vinci, Picasso, Mozart, ou Jimi Hendrix étaient gauchers, ce qui a renforcé l’idée d’un lien mystérieux entre gaucherie et talent. Mais statistiquement, la majorité des créateurs reconnus sont droitiers — simplement parce qu’ils sont plus nombreux.En somme, les gauchers ne sont pas plus créatifs par nature, mais leur cerveau légèrement différent peut favoriser une pensée moins conventionnelle chez certains individus. La créativité, elle, reste surtout une compétence entraînée, nourrie par la curiosité, l’ouverture et la diversité des expériences — bien plus que par la main que l’on utilise pour écrire. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Le « Projet Pigeon ». C'est l'une des idées les plus insolites de la Seconde Guerre mondiale — une à mi-chemin entre le génie et la folie. Il s’agit d’un programme américain secret lancé en 1940 par le célèbre psychologue comportementaliste B. F. Skinner, qui visait à utiliser des pigeons pour guider des bombes. Oui, littéralement.À l’époque, les systèmes de guidage électronique étaient encore rudimentaires. Skinner, spécialiste du conditionnement opérant, pensait qu’un animal entraîné pouvait accomplir des tâches de précision mieux que les machines disponibles. Son idée : dresser des pigeons à reconnaître visuellement une cible (comme un navire ennemi) et à corriger la trajectoire d’une bombe en vol.Le fonctionnement était ingénieux. Dans le nez de la bombe, Skinner installa un petit compartiment équipé d’un système optique projetant l’image de la cible sur un écran. Le pigeon, placé à l’intérieur, était entraîné à picorer l’image du bateau au centre de l’écran. Si la bombe déviait, l’image se déplaçait ; le pigeon, en corrigeant sa position de piquage, envoyait des signaux électriques qui ajustaient les ailerons de direction. En théorie, l’oiseau guidait la bombe jusqu’à la cible.Skinner dressa plusieurs pigeons avec succès, à l’aide de récompenses alimentaires. Les tests en laboratoire furent étonnamment concluants : les oiseaux parvenaient à maintenir la cible dans le viseur avec une grande précision, même face à des images changeantes. Le projet fut financé par le National Defense Research Committee, et baptisé officiellement Project Pigeon.Mais le Pentagone n’y crut jamais vraiment. Malgré les bons résultats expérimentaux, les militaires jugèrent le concept trop farfelu et imprévisible pour une guerre moderne. En 1944, le projet fut abandonné, remplacé par des programmes électroniques plus prometteurs. Skinner, frustré, déclara plus tard : « Les militaires ne prenaient pas les pigeons au sérieux. Ils avaient tort. »Ironie du sort, l’idée ne mourut pas complètement. En 1948, la Navy relança brièvement le concept sous le nom de Project ORCON (Organic Control), avant de l’abandonner définitivement en 1953.Aujourd’hui, le Project Pigeon reste un épisode fascinant de l’histoire des sciences : une tentative sincère d’appliquer la psychologie animale à la technologie militaire. Et une preuve que, dans la guerre comme dans la recherche, l’imagination humaine n’a parfois aucune limite. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Il vous est peut-être déjà arrivé de croire qu’un sigle avait été choisi pour sa signification précise — avant d’apprendre que, paradoxalement, c’est l’inverse. C’est le principe de la rétroacronymie, un phénomène linguistique à la fois amusant et révélateur : on crée un acronyme à partir d’un mot déjà existant, en inventant après coup des mots censés le justifier.Par exemple, le mot « avion », inventé par Clément Ader à partir du latin avis (oiseau), a été interprété de manière erronée comme « Appareil Volant Imitant l'Oiseau Naturel ». De même, les spas proviennent de la ville de Spa, et ne signifient pas Sana Per Aquam (la santé par l'eau).Autre cas fameux : le nom du moteur de recherche Yahoo!, présenté comme l’acronyme de Yet Another Hierarchical Officious Oracle. En réalité, ses créateurs, deux étudiants de Stanford, avaient d’abord choisi le mot « Yahoo » parce qu’il sonnait bien et évoquait le personnage rustre et énergique des Voyages de Gulliver de Jonathan Swift. Le sens technique a été plaqué ensuite.La rétroacronymie peut aussi servir à renforcer l’image d’une marque ou d’une institution. Par exemple, le sigle SOS n’a jamais voulu dire Save Our Souls ou Save Our Ship. Il a été choisi à l’origine uniquement pour sa simplicité en morse (· · · — — — · · ·). Ce n’est que plus tard qu’on lui a attribué cette signification héroïque, plus facile à mémoriser.Ce mécanisme illustre un trait fascinant du langage : notre tendance à chercher du sens, même là où il n’y en avait pas à l’origine. Les mots deviennent plus forts, plus mémorables, quand ils paraissent logiques. La rétroacronymie répond donc à un besoin psychologique : elle donne une apparence de cohérence à ce qui n’en avait pas.Une notion proche est celle de l’étymologie populaire : quand une expression change de forme ou de sens parce que les locuteurs la réinterprètent selon ce qu’ils croient entendre. Par exemple, « chou-fleur » vient du latin caulis floris (tige fleurie), mais d’autres mots comme « beaupré » ou « chausson » ont été transformés au fil du temps par des associations d’idées fausses mais séduisantes.Rétroacronymie ou étymologie populaire, ces deux phénomènes rappellent une chose essentielle : le langage n’est pas figé. Il vit, se raconte, et surtout, il s’invente des histoires pour mieux se souvenir de lui-même. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Vous est-il déjà arrivé de ne plus supporter un aliment après une mauvaise expérience ? Un jour, un plat vous rend malade, et dès lors, rien que son odeur vous soulève le cœur. Ce phénomène, à la fois étrange et universel, s’appelle l’effet Garcia, du nom du psychologue américain John Garcia qui le découvrit presque par hasard dans les années 1950.À l’époque, Garcia étudiait les effets des radiations sur les rats. Il leur donnait à boire de l’eau aromatisée avant de les exposer à une dose de rayonnement qui leur causait des nausées. Très vite, il observa un comportement inattendu : les rats refusaient ensuite obstinément de boire cette même eau, même si elle ne contenait rien de dangereux. Leur cerveau avait associé la saveur à la sensation de malaise, comme s’il avait identifié une menace. L’animal, pour se protéger, apprenait à éviter tout ce qui ressemblait à la cause supposée de son mal.Ce réflexe, que l’on appelle aversion gustative conditionnée, existe aussi chez l’être humain. Il s’agit d’un mécanisme de survie profondément inscrit dans notre biologie. Dans la nature, manger une baie toxique pouvait être mortel ; mieux valait donc retenir à jamais l’odeur, la couleur ou le goût de ce poison. C’est pourquoi une seule expérience désagréable suffit à créer un rejet durable. Contrairement à d’autres apprentissages, cet effet ne nécessite qu’une seule exposition : le cerveau retient le lien entre un goût et une nausée, même si celle-ci survient plusieurs heures plus tard.Sur le plan neurologique, l’effet Garcia mobilise des zones du cerveau liées à la mémoire émotionnelle : l’amygdale, qui gère les réactions de peur et de dégoût, et l’hippocampe, qui enregistre le contexte sensoriel. Ensemble, elles codent ce goût comme un signal de danger. Ainsi, des années plus tard, il suffit parfois d’un parfum ou d’une image pour raviver cette répulsion.Mais ce réflexe protecteur peut devenir envahissant : certaines personnes développent de véritables phobies alimentaires après une intoxication, ou ne supportent plus des plats pourtant inoffensifs. Ce mécanisme archaïque, utile chez nos ancêtres chasseurs-cueilleurs, agit aujourd’hui de manière parfois excessive dans un monde où les risques d’empoisonnement sont rares.L’effet Garcia rappelle donc une vérité fascinante : notre cerveau n’oublie jamais ce qui l’a fait souffrir. Et si la raison nous dit qu’un aliment est sans danger, notre instinct, lui, préfère ne pas tenter le diable. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Par une chaude journée d’été, le 4 juillet 1924, un petit restaurant de Tijuana, au Mexique, est pris d’assaut par des touristes venus des États-Unis. Nous sommes en pleine Prohibition : l’alcool est interdit de l’autre côté de la frontière, et les Américains affluent dans cette ville mexicaine pour boire et faire la fête. Le patron du restaurant, Caesar Cardini, un chef italien au tempérament passionné, regarde sa cuisine dévalisée avec angoisse : les réserves sont presque vides, les clients s’impatientent. Il lui faut improviser.Cardini ouvre son garde-manger : il ne reste que quelques feuilles de laitue romaine, un peu de pain rassis, du parmesan, des œufs, de l’huile d’olive, de la sauce Worcestershire, du citron, et une gousse d’ail. Pas de quoi faire un grand plat… à moins d’un peu de génie. Alors, devant la salle comble, il saisit un grand saladier, pile l’ail, casse un œuf légèrement poché, ajoute le citron, la sauce, l’huile, puis jette la romaine et les croûtons. Il mélange avec énergie, sous les yeux amusés de ses clients. Le parfum d’ail et de citron se répand. Un silence curieux s’installe, puis les premières bouchées sont goûtées : c’est un succès immédiat.La salade César est née — non pas à Rome, ni même en Italie, mais dans un coin poussiéreux du Mexique, un soir d’improvisation. Le bouche-à-oreille fait le reste. Des stars hollywoodiennes en villégiature à Tijuana — Clark Gable, Jean Harlow, et d’autres — s’émerveillent de ce plat simple et élégant. En quelques mois, la recette traverse la frontière, conquiert Los Angeles, puis tout le continent.Ce qu’on ignore souvent, c’est que la recette originale ne comportait ni poulet, ni anchois, ni bacon. Juste la fraîcheur de la romaine, le croquant du pain grillé, et la douceur citronnée de la sauce. Les versions modernes, plus riches, sont venues plus tard, adaptées aux goûts américains.Ainsi, derrière ce nom à consonance antique, la “César” n’a rien d’un hommage à Jules César. C’est l’histoire d’un Italien ingénieux, installé au Mexique, qui inventa par hasard un plat devenu universel.Une salade née d’un manque, transformée en légende : voilà, peut-être, le plus bel exemple de ce que la cuisine sait faire de mieux — transformer la contrainte en création. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
La question peut sembler provocante, mais elle en dit long sur nos fantasmes modernes : l’absence de relations sexuelles est-elle dangereuse pour la santé, voire mortelle ? La réponse est non… mais avec des nuances intéressantes.Sur le plan strictement biologique, on ne meurt pas d’abstinence sexuelle. Contrairement à la nourriture ou au sommeil, le sexe n’est pas une fonction vitale. Le corps humain s’adapte très bien à l’absence de rapports. D’un point de vue médical, il n’existe aucune pathologie mortelle liée au manque de relations sexuelles. Les spermatozoïdes non libérés sont naturellement réabsorbés, et l’organisme continue à fonctionner parfaitement.Mais si l’abstinence ne tue pas le corps, elle peut affecter le moral, le stress et le système immunitaire. Des études menées à l’université de Göttingen, en Allemagne, ou à l’université d’Oxford ont montré que les personnes ayant une vie sexuelle régulière libèrent davantage d’endorphines et d’ocytocine, deux hormones qui favorisent la détente, le bien-être et le lien social. Le sexe joue donc un rôle indirect sur la santé, en réduisant la pression artérielle et en améliorant la qualité du sommeil.À l’inverse, une longue abstinence peut parfois provoquer des troubles psychologiques : frustration, anxiété, baisse de l’estime de soi. Mais ces effets dépendent fortement du contexte : certaines personnes vivent très bien sans sexualité, notamment les personnes asexuelles ou celles qui trouvent d’autres formes d’épanouissement émotionnel. Ce n’est donc pas le manque d’activité sexuelle en soi qui pose problème, mais le ressenti de manque.En revanche, les études montrent un lien entre une vie sexuelle épanouie et la longévité. Une recherche publiée dans The British Medical Journal dès 1997 indiquait que les hommes ayant des orgasmes fréquents avaient un taux de mortalité réduit de moitié par rapport à ceux qui en avaient rarement. Non pas parce que le sexe protège directement, mais parce qu’il reflète une bonne santé physique, psychologique et relationnelle.Autrement dit, on ne meurt pas de ne pas faire l’amour, mais on vit souvent mieux quand on le fait. Le sexe n’est pas vital, il est vitalisant. Et s’il n’est pas indispensable à la survie, il contribue indéniablement à une vie plus sereine, plus équilibrée… et parfois, plus longue. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Si vous avez déjà observé les plaques d’immatriculation françaises, vous avez sans doute remarqué qu’on n’y trouve jamais les lettres O, I ou U. Pas un hasard, ni une fantaisie administrative : ces trois lettres ont été volontairement bannies par le système d’immatriculation pour une raison très précise : éviter toute confusion.Depuis 2009, les plaques suivent le format AA-123-AA. Ce code n’indique plus la région d’origine du véhicule, mais un simple numéro d’ordre national. Or, dans ce système, chaque lettre et chaque chiffre doivent être lus sans ambiguïté. C’est là que les problèmes commencent : le O ressemble trop au 0, le I au 1, et le U peut être confondu avec le V, surtout sur certaines polices de caractères ou dans de mauvaises conditions de lecture. Pour les radars automatiques, les caméras de surveillance ou les gendarmes qui notent un numéro sur le bord de la route, ces confusions pourraient provoquer de véritables casse-têtes.L’administration française, soucieuse d’uniformité, a donc décidé d’exclure définitivement ces lettres du système, tout comme certains groupes de lettres jugés ambigus ou offensants : par exemple, les combinaisons qui pourraient former des mots vulgaires, politiques ou religieux sont également proscrites. Vous ne verrez donc jamais de plaque affichant “KKK”, “GOD” ou “SEX”.Ce souci de lisibilité n’est pas propre à la France. D’autres pays, comme l’Allemagne, la Belgique ou le Royaume-Uni, ont aussi supprimé certaines lettres ou combinaisons pour les mêmes raisons. En France, le système SIV (Système d’Immatriculation des Véhicules) prévoit environ 277 millions de combinaisons possibles, ce qui laisse largement de quoi faire malgré ces exclusions.Il existe enfin une touche de pragmatisme : les lettres restantes permettent de simplifier la reconnaissance automatique, un élément clé à l’ère des radars et des péages électroniques. Dans un pays où la contravention arrive parfois avant le retour à la maison, mieux vaut que le numéro soit parfaitement lisible.En résumé : si les O, I et U ont disparu de nos plaques, ce n’est pas une lubie bureaucratique, mais une mesure de bon sens. Une petite subtilité du quotidien, héritée du souci d’efficacité… et d’un soupçon d’amour français pour la logique administrative. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Commençons par la pin-up. Le mot apparaît aux États-Unis dans les années 1940, pendant la Seconde Guerre mondiale. Il vient du verbe anglais to pin up, littéralement « épingler au mur ». Les soldats américains collaient dans leurs casiers ou leurs chambrées des photos de femmes séduisantes, souvent des actrices ou des mannequins, pour se donner du courage loin de chez eux. Ces images, issues de magazines ou de calendriers, étaient appelées pin-up girls. Leur beauté n’était pas provocante au sens moderne, mais incarnait un idéal féminin à la fois sensuel et joyeux — sourires éclatants, poses suggestives, maillots de bain rétro et courbes assumées.Des icônes comme Betty Grable, Rita Hayworth ou plus tard Marilyn Monroe deviennent de véritables symboles culturels : la pin-up, c’est la femme libre, confiante, qui affirme sa féminité avec humour et glamour. Le terme traversera ensuite l’Atlantique et entrera dans la langue française dès les années 1950. Aujourd’hui, il évoque tout un style vintage mêlant élégance, humour et sensualité, loin des représentations plus explicites de la culture contemporaine.À l’inverse, l’expression « béni-oui-oui » vient du registre populaire français et a une connotation moqueuse. Apparue au XIXᵉ siècle, elle désigne une personne docile, servile ou incapable de dire non. Le mot « béni » fait ici référence à quelqu’un d’un peu simple ou trop pieux — « béni » au sens ironique de « benêt ». Quant au redoublement de « oui », il renforce cette idée d’adhésion automatique : le « béni-oui-oui » est celui qui approuve tout sans réfléchir, par conformisme ou par peur du conflit.L’expression s’est popularisée dans les milieux politiques et journalistiques pour dénoncer les courtisans ou les collaborateurs sans esprit critique. Sous la IIIᵉ République, on l’utilisait déjà pour qualifier les partisans dociles d’un régime ou d’un chef. Elle est restée dans le langage courant comme une étiquette mordante pour désigner ceux qui manquent de personnalité.Ainsi, la pin-up célèbre l’affirmation de soi, tandis que le béni-oui-oui incarne la soumission. Deux expressions venues d’univers opposés — l’une de la culture populaire américaine, l’autre de la satire française — mais qui, chacune à leur manière, parlent du rapport entre liberté et conformisme. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.






👌👌
en Iran, cette année il y a 27 jours fériés !!!😁
Mettre des pubs McDonald's pour influencer des enfants ? Sérieusement ?
Du contenu qui peut parfois être intéressant même pour les adultes. Cependant, 45s de pubs sur 2 minutes d'épisodes c'est dingue... c'est-à-dire que si je veux laisser le podcast une demi-heure, je vais avoir plus de 11 minutes de pubs ?!? En plus, des pubs Mc Donald's pour un contenu destiné aux enfants, c'est ethniquement inapproprié. Jamais je laisse ça à mes enfants.
il a 10 chiffres il ne faut pas oublier le 0 ;)
Les "manags"?
franchement je ne savais pas