Discover
Pourquoi donc ?
Pourquoi donc ?
Author: Choses à Savoir
Subscribed: 4,684Played: 352,219Subscribe
Share
© Choses à Savoir
Description
Je réponds de façon claire et directe à toutes les questions essentielles, en une minute chrono !
Si vous cherchez le podcast Petits Curieux, c'est par ici: https://chosesasavoir.com/podcast/petits-curieux-2/
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
982 Episodes
Reverse
Sur un bateau, on ne parle ni de gauche ni de droite, mais de bâbord et de tribord. Ces mots, qui semblent techniques ou archaïques, viennent en réalité d’une longue histoire maritime, liée à la navigation médiévale et aux contraintes très concrètes de la manœuvre des navires.Commençons par tribord. Le terme vient de l’ancien français tribort, lui-même issu du germanique steorbord, qui signifie littéralement « le côté où l’on dirige ». Au Moyen Âge, les navires européens étaient équipés d’une rame de gouverne, fixée non pas à l’arrière comme le gouvernail moderne, mais sur le flanc droit du bateau. Cette rame permettait de diriger l’embarcation, et comme la majorité des marins étaient droitiers, elle était naturellement placée à droite. Le côté droit est donc devenu le « côté du gouvernail », le côté pour diriger : steorbord, puis tribord.Passons maintenant à bâbord, dont l’origine est tout aussi révélatrice. Le mot vient de l’ancien français babord, dérivé du germanique bakbord, qui signifie « le côté opposé au gouvernail ». C’est donc, à l’origine, une désignation négative : non pas le côté important, mais l’autre côté, celui qui ne sert pas à diriger. Bâbord est ainsi défini par opposition à tribord.Cette distinction n’est pas qu’une question de vocabulaire. Elle répond à un besoin vital de clarté. En mer, les notions de gauche et de droite sont ambiguës : elles dépendent du sens dans lequel on regarde. Bâbord et tribord, au contraire, sont fixes. Peu importe que l’on regarde vers la proue ou vers la poupe : bâbord est toujours à gauche quand on fait face à l’avant du navire, tribord toujours à droite. Cette stabilité lexicale a permis d’éviter d’innombrables erreurs de manœuvre.Il existe aussi une conséquence pratique historique : les navires accostaient traditionnellement bâbord à quai, afin de protéger la rame de gouverne située à tribord. Cette habitude a renforcé l’usage des termes et leur importance dans la culture maritime.Avec l’apparition du gouvernail central à l’arrière, la rame latérale a disparu, mais les mots sont restés. Ils se sont imposés dans toutes les marines du monde, preuve que le langage maritime conserve la mémoire des techniques anciennes.En résumé, si l’on dit bâbord et tribord, ce n’est pas par tradition gratuite, mais parce que ces mots racontent l’histoire du bateau lui-même : comment il avançait, comment il tournait, et comment les marins ont appris à se comprendre sans jamais se tromper. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Une syllepse est une figure de style subtile. Elle consiste à employer un mot dans deux sens différents en même temps : un sens propre et un sens figuré, ou deux sens distincts d’un même terme. Autrement dit, un seul mot, mais une double lecture.Le terme vient du grec sullêpsis, qui signifie « action de prendre ensemble ». C’est exactement cela : l’auditeur doit « saisir ensemble » deux significations.Prenons un exemple simple :« Il a perdu ses clés et son sang-froid. »Le verbe perdre s’applique ici à deux réalités différentes. On peut perdre des clés au sens propre. On peut perdre son sang-froid au sens figuré. Le mot fonctionne donc sur deux plans simultanément.La syllepse joue souvent sur l’ambiguïté. Elle crée un effet d’esprit, d’ironie ou de profondeur. Par exemple chez Victor Hugo :« Vêtu de probité candide et de lin blanc. »Ici, le mot « vêtu » s’applique concrètement au lin blanc, mais métaphoriquement à la probité. On ne porte évidemment pas la probité comme un vêtement. Pourtant, la construction grammaticale unit les deux.Il ne faut pas confondre la syllepse avec le simple jeu de mots. Le jeu de mots repose sur la sonorité ou l’homonymie. La syllepse, elle, repose sur un glissement de sens à l’intérieur d’une même structure syntaxique.On distingue parfois deux types de syllepses :La syllepse de sens : un mot est pris simultanément dans son sens propre et figuré.La syllepse grammaticale : l’accord se fait selon le sens et non selon la stricte règle grammaticale. Par exemple : « La plupart sont venus. » Le mot « plupart » est singulier, mais l’accord se fait au pluriel, selon l’idée de pluralité.La syllepse est très présente en littérature, en poésie et même en publicité, car elle permet de densifier le langage. En quelques mots, on suggère davantage qu’on ne dit explicitement.Ce qui rend la syllepse intéressante, c’est qu’elle mobilise l’intelligence du lecteur ou de l’auditeur. Elle demande une petite gymnastique mentale : comprendre qu’un mot ne se contente pas d’un seul sens.En résumé, la syllepse est une figure de style qui exploite la richesse polysémique des mots. Elle joue sur la coexistence de deux significations au sein d’une même phrase. C’est une manière élégante de dire plus… en disant moins. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Le végétarisme était un sujet de réflexion pour plusieurs philosophes grecs et romains, bien que ce mode de vie n'ait pas été aussi répandu qu'aujourd'hui. Pour eux, cette pratique allait bien au-delà de simples considérations alimentaires : elle était souvent liée à des idées philosophiques, éthiques, et spirituelles. Voici un aperçu de leurs positions sur le sujet. Les philosophes grecs et le végétarisme Pythagore (vers 570–495 av. J.-C.)Pythagore est sans doute le philosophe grec le plus célèbre pour son association avec le végétarisme. Il croyait en la transmigration des âmes (la métempsycose), une idée selon laquelle les âmes humaines pouvaient se réincarner dans des animaux. Consommer de la viande revenait donc, selon lui, à tuer un être vivant potentiellement habité par une âme humaine. Pour Pythagore, le végétarisme était aussi une manière de promouvoir une vie harmonieuse et paisible, respectueuse des autres formes de vie. Platon (428–348 av. J.-C.)Dans La République, Platon évoque une société idéale où les citoyens se nourriraient principalement de céréales, de fruits et de légumes, évitant ainsi les excès et les violences associées à l’élevage. Cependant, il n’adopte pas explicitement une position végétarienne, bien que son idéal de simplicité s'en rapproche. Aristote (384–322 av. J.-C.)Aristote, élève de Platon, se montre moins favorable au végétarisme. Dans sa Politique et ses autres œuvres, il défend une vision anthropocentrique où les animaux sont subordonnés aux humains. Selon lui, il est naturel que les hommes utilisent les animaux pour se nourrir. Les philosophes romains et le végétarisme Sénèque (4 av. J.-C.–65 apr. J.-C.)Le stoïcien Sénèque a été influencé par les idées pythagoriciennes et a adopté un régime végétarien pendant une partie de sa vie. Dans ses écrits, il critique la cruauté envers les animaux et souligne que le végétarisme est une manière de cultiver la tempérance et la maîtrise de soi. Cependant, sous la pression sociale, il finit par abandonner cette pratique. Plutarque (46–120 apr. J.-C.)Plutarque est l’un des philosophes romains les plus fervents défenseurs du végétarisme. Dans son essai De l’abstinence de la chair, il condamne l’abattage des animaux et pose des questions éthiques sur la consommation de viande : pourquoi tuer un être vivant quand on peut vivre sainement sans cela ? Plutarque considère le végétarisme comme une preuve de civilisation et d’humanité. Porphyre (vers 234–305 apr. J.-C.)Dans son traité De l’abstinence, Porphyre développe une défense philosophique et éthique du végétarisme. Il soutient que l’abstinence de viande est une marque de respect envers les animaux, mais aussi une pratique permettant de vivre en harmonie avec la nature et de se purifier spirituellement. Une divergence d'opinionsSi certains philosophes comme Pythagore, Plutarque ou Porphyre voient le végétarisme comme une quête de pureté morale et spirituelle, d'autres comme Aristote ou les stoïciens modérés considèrent que l’exploitation des animaux pour se nourrir fait partie de l’ordre naturel. En somme, le végétarisme dans l'Antiquité était souvent lié à des préoccupations éthiques et spirituelles, bien que les opinions sur la légitimité de cette pratique diffèrent selon les écoles de pensée. Ces débats, bien que vieux de plusieurs millénaires, résonnent encore aujourd’hui dans les discussions modernes sur la relation entre l’homme et les animaux. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
L'expression "cousin germain" trouve son origine dans le droit romain et, plus précisément, dans l'usage du mot "germanus" en latin, qui signifie "véritable" ou "authentique". Ce terme était utilisé pour désigner des liens familiaux étroits et directs. Voyons comment cette appellation a évolué pour désigner nos cousins au premier degré. Une origine juridique et linguistiqueDans le latin médiéval, "germanus" qualifiait des frères et sœurs, c'est-à-dire des membres d’une même fratrie, partageant les mêmes parents. Par extension, le terme a été utilisé pour désigner les cousins dont les parents sont eux-mêmes frères et sœurs, soulignant leur lien familial proche et direct. Au fil du temps, le français a conservé cette notion en adaptant l’expression. Le mot "cousin", issu du latin "consobrinus", qui désigne les enfants de deux sœurs, a été enrichi par l’ajout de "germain" pour marquer cette proximité particulière entre cousins au premier degré (les enfants de deux frères ou de deux sœurs, ou d’un frère et d’une sœur). Ainsi, un "cousin germain" est un cousin avec lequel on partage au moins un grand-parent. Une distinction importanteCette expression se distingue d’autres termes utilisés pour qualifier des relations familiales plus éloignées. Par exemple :- Un cousin issu de germain est l’enfant du cousin germain d’un des parents.- Un petit-cousin est l’enfant du cousin germain d’une personne. Un héritage des anciennes famillesL’utilisation de l’expression a également été renforcée par son rôle dans les généalogies aristocratiques et royales, où le degré de parenté était crucial pour des questions de succession, d’héritage ou d’alliance. Déterminer si une personne était un cousin "germain" permettait d’établir clairement ses droits dans un cadre légal ou dynastique. Ainsi, "cousin germain" témoigne de l’influence du droit romain sur notre langue et notre perception des relations familiales, tout en restant un joli clin d'œil à la précision de la généalogie. Une histoire à la croisée des mots et des liens de sang ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Les mocassins, ces chaussures confortables et intemporelles, tirent leurs origines des pratiques ingénieuses des peuples autochtones d'Amérique du Nord. Mais ce qui rend leur histoire particulièrement amusante, c'est la manière dont ces chaussures simples ont su captiver les pieds du monde entier, passant des forêts sauvages aux podiums de mode. Le mot « mocassin » vient du terme algonquin makasin, qui signifie « chaussure ». Les Amérindiens les fabriquaient à partir de cuir souple, souvent en peau d'élan ou de cerf, pour offrir une protection légère et flexible dans des environnements variés. Chaque tribu avait ses propres variantes, avec des perles ou des broderies qui racontaient des histoires uniques. Ces chaussures n'étaient pas seulement pratiques ; elles étaient un véritable symbole culturel. La véritable touche d'humour dans l’histoire des mocassins réside dans leur popularisation. Lors de la colonisation de l’Amérique, les colons européens, qui portaient des bottes rigides et peu pratiques, furent séduits par le confort des mocassins. Les colons, souvent épuisés par leurs longues marches, trouvèrent ces chaussures si confortables qu'ils commencèrent à les adopter... parfois avec un certain manque de style ! Imaginez un Anglais guindé en redingote, tentant maladroitement de porter des mocassins ornés de perles. Au fil des siècles, les mocassins devinrent des icônes de la mode. Dans les années 1930, la marque américaine G.H. Bass ajouta un détail pratique : une petite ouverture sur le dessus, idéale pour glisser un penny, donnant ainsi naissance aux « penny loafers ». Curieusement, ces mocassins à pièce sont devenus incontournables dans les universités américaines. Les étudiants glissaient une pièce de monnaie dans la fente, non pas pour la mode, mais pour avoir de quoi passer un appel téléphonique d’urgence ! Aujourd’hui, les mocassins sont omniprésents, que ce soit en version classique, chic ou décontractée. Ils sont devenus une véritable passerelle entre tradition et modernité, alliant le savoir-faire des Premières Nations à l’élégance contemporaine. Et tout cela, grâce à une chaussure née dans les forêts, conçue pour épouser les pas de la nature. Une belle leçon de confort et de style intemporel, avec une petite touche d'humour historique ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
La couleur magenta est un mystère fascinant, souvent qualifiée de "couleur qui n’existe pas". Mais qu’entend-on exactement par là ? Plongeons dans les secrets de la perception visuelle pour comprendre ce phénomène. D’abord, il faut savoir que la vision des couleurs repose sur un mécanisme complexe. Nos yeux contiennent des cellules appelées cônes, sensibles à trois types de longueurs d’onde lumineuses : le rouge, le vert et le bleu. Ces signaux sont envoyés à notre cerveau, qui les combine pour produire la vaste palette de couleurs que nous percevons. Cependant, toutes les couleurs que nous voyons n’existent pas forcément comme des longueurs d’onde distinctes dans le spectre lumineux. Prenez l’arc-en-ciel, par exemple. Il va du rouge au violet, en passant par l’orange, le jaune, le vert et le bleu. Mais il manque une couleur : le magenta. Pourquoi ? Parce que le magenta n’a pas sa propre longueur d’onde. Il est en fait une création de notre cerveau. Cette couleur apparaît lorsque nos yeux captent simultanément de la lumière rouge et de la lumière bleue, sans lumière verte entre les deux pour créer une transition. Incapable de détecter un "pont" dans le spectre, le cerveau invente une couleur pour combler ce vide : le magenta. Cela fait du magenta une couleur subjective, totalement dépendante de notre perception. Dans un sens physique, elle n’existe pas, puisqu’elle ne correspond à aucune onde lumineuse spécifique. C’est un pur produit de notre esprit. Ce phénomène souligne à quel point la vision des couleurs est personnelle. Les couleurs que nous voyons sont des interprétations, des constructions mentales qui traduisent des signaux lumineux. Ce qui est encore plus fascinant, c’est que le magenta n’est pas unique : il existe d’autres "couleurs impossibles", comme certaines nuances de bleu-rouge ou de jaune-vert, que notre cerveau ne peut appréhender. Ainsi, le magenta est une sorte d’illusion. Ce n’est pas une réalité physique, mais une preuve éclatante de la créativité du cerveau humain. En fin de compte, il nous rappelle que notre perception du monde est une merveilleuse combinaison de biologie, de science et de subjectivité. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Les célèbres lettres géantes "Hollywood" perchées sur les collines de Los Angeles sont aujourd’hui un symbole mondial du cinéma et des rêves de gloire. Mais saviez-vous qu’elles n’avaient pas toujours été associées au septième art ? Revenons sur leur origine et leur transformation. Tout commence en 1923, en plein essor de l’immobilier dans les collines de Los Angeles. Ces lettres n’étaient pas destinées à promouvoir le cinéma, mais un projet immobilier appelé "Hollywoodland". Le promoteur Harry Chandler voulait attirer les acheteurs vers un nouveau lotissement luxueux. Pour marquer les esprits, il décide de faire ériger une immense enseigne composée de lettres blanches de 15 mètres de haut, fixées sur des poteaux métalliques. Le mot "Hollywoodland" s’étendait sur plus de 110 mètres de longueur et était éclairé par des milliers d’ampoules, visibles de très loin. À l’époque, l’enseigne devait être temporaire et retirée après un an. Mais avec l’essor d’Hollywood comme centre de l’industrie cinématographique américaine, elle est rapidement devenue un symbole du glamour et des opportunités qu’offrait la ville. Cependant, avec le temps, les lettres ont commencé à se dégrader, et en 1949, la Chambre de commerce de Hollywood a décidé de restaurer l’enseigne. C’est à ce moment-là que le suffixe "land" a été retiré, ne laissant que "Hollywood", pour représenter non plus un projet immobilier, mais tout un univers. Dans les décennies suivantes, les lettres ont connu des hauts et des bas. Dans les années 1970, elles étaient dans un état si lamentable que certaines s’étaient effondrées. En 1978, des célébrités comme Hugh Hefner et Alice Cooper ont lancé une campagne pour les sauver. Grâce à des dons, chaque lettre a été reconstruite en acier, devenant plus robuste et résistante. Aujourd’hui, l’enseigne est protégée comme un monument historique, et son accès est strictement réglementé. Elle est non seulement un symbole du cinéma, mais aussi un rappel de l’évolution de Los Angeles, passée d’une simple ville à la capitale mondiale du divertissement. Ainsi, les lettres "Hollywood" ne sont pas seulement un panneau, mais un morceau d’histoire qui incarne à la fois les rêves, le glamour et l’ambition. Un véritable emblème de ce que représente la cité des Anges. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Los Angeles, surnommée "la cité des Anges", évoque immédiatement le glamour d’Hollywood, ses plages ensoleillées et ses rues bordées de palmiers. Mais d’où vient ce surnom si poétique ? Plongeons dans l’histoire pour le découvrir. Tout commence en 1781, lorsque cette région de Californie, alors sous domination espagnole, voit la fondation d’un petit village nommé "El Pueblo de Nuestra Señora la Reina de los Ángeles de Porciúncula", que l’on pourrait traduire par "Le village de Notre-Dame la Reine des Anges de Porciúncula". Ce nom rend hommage à la Vierge Marie, plus précisément à un site religieux italien, la chapelle de Santa Maria degli Angeli à Assise. À l’époque, les Espagnols cherchaient à marquer leur empreinte religieuse sur les territoires colonisés, et ce nom reflète leur dévotion. Avec le temps, le nom a été raccourci pour devenir simplement Los Ángeles, soit "Les Anges" en espagnol. C’est ainsi que le surnom "la cité des Anges" est né, en référence directe à cette appellation d’origine. Mais au-delà de son nom, Los Angeles incarne symboliquement une sorte de paradis terrestre. Sa situation géographique et son climat idéal, avec du soleil presque toute l’année, ont contribué à renforcer l’image angélique de la ville. De plus, la ville est devenue au fil du temps un lieu de rêves et d’opportunités, attirant des millions de personnes en quête de réussite – que ce soit dans l’industrie du cinéma, la musique ou la technologie. Cependant, cette image d’Éden moderne a ses contrastes. Los Angeles est aussi une ville aux défis immenses, des embouteillages légendaires aux problèmes de logement en passant par les inégalités sociales. Ces paradoxes ne font que renforcer son aura unique. Enfin, il est intéressant de noter que la ville est également profondément ancrée dans une tradition multiculturelle. Les influences mexicaine, asiatique, afro-américaine et européenne se mêlent pour former une identité vibrante, à la fois locale et universelle. Ainsi, Los Angeles est bien plus qu’un simple surnom. "La cité des Anges" symbolise un passé religieux, un présent multiculturel et un avenir où les rêves – qu’ils soient angéliques ou plus terre à terre – continuent de se réaliser. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Aujourd’hui, penchons-nous sur l’homme qui sourit depuis des décennies sur les devantures de KFC : Colonel Harland Sanders. Ce personnage est bien réel, et son histoire est tout aussi savoureuse que le poulet frit qu’il a rendu célèbre. Né en 1890 dans l’Indiana, Harland Sanders a connu une vie mouvementée avant de devenir un symbole mondial. Orphelin de père à 6 ans, il a dû cuisiner pour ses frères et sœurs, une nécessité qui allait influencer sa carrière bien plus tard. Sanders a essayé de nombreux métiers : pompier, vendeur d’assurances, et même agriculteur. Mais c’est dans une station-service du Kentucky, dans les années 1930, qu’il a commencé à cuisiner pour les voyageurs. Son poulet frit, préparé avec une recette secrète de 11 épices et aromates, a rapidement conquis les cœurs – et les estomacs. Le titre de "Colonel" qu’il porte fièrement n’a rien de militaire. Il s’agit d’un titre honorifique décerné par l'État du Kentucky pour sa contribution à la gastronomie. Sanders a ouvert son premier restaurant KFC en 1952. Le succès fut tel qu’il a décidé de franchiser son concept, même s’il n’a vraiment percé qu’après ses 60 ans. Le logo de KFC, avec son sourire bonhomme, son nœud papillon noir et sa barbe blanche, incarne à la fois la convivialité et l’authenticité de ce personnage hors du commun. Passons maintenant à des faits étonnants sur KFC. Saviez-vous que la recette secrète de leur poulet est l’un des secrets commerciaux les mieux gardés au monde ? Elle est conservée dans un coffre-fort à Louisville, et seulement deux personnes en connaissent l’intégralité. Autre anecdote surprenante : au Japon, KFC est devenu le repas incontournable… du jour de Noël ! Cette tradition, née d’une campagne marketing dans les années 1970, pousse des millions de Japonais à commander leur menu des semaines à l’avance. Et pour finir, en 2017, KFC a envoyé un sandwich au poulet… dans l’espace ! Une opération marketing délirante qui symbolise à quel point la marque n’a pas peur de viser les étoiles. Alors, la prochaine fois que vous croisez le sourire du Colonel Sanders, souvenez-vous : derrière ce logo se cache une histoire d’opportunités tardives, de recettes bien gardées et de succès mondial. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Ce pays a en effet été largement végétarien pendant une grande partie de son histoire, notamment sous l’influence du bouddhisme !L’adoption du bouddhisme comme religion d’État au VIᵉ siècle a profondément influencé les pratiques alimentaires japonaises. Le bouddhisme prône le respect de tous les êtres vivants, ce qui inclut l’interdiction de tuer pour se nourrir. Par conséquent, la consommation de viande fut officiellement découragée, voire interdite à plusieurs reprises par des édits impériaux.En parallèle, le shintoïsme, la religion indigène du Japon, valorise l’harmonie avec la nature. Cela a renforcé l’idée que tuer des animaux pour se nourrir était en contradiction avec l’équilibre naturel. Les animaux domestiques, comme les chevaux ou les vaches, étaient souvent perçus comme des partenaires de travail, et non comme des sources de nourriture.À partir du VIIᵉ siècle, plusieurs empereurs japonais ont promulgué des lois interdisant la consommation de viande, en particulier de mammifères. Par exemple, l’empereur Tenmu (631-686) a émis un décret interdisant la consommation de bœuf, de cheval, de chien, de singe et de poulet. Ces interdictions étaient souvent justifiées par des raisons spirituelles et culturelles, mais aussi écologiques : préserver les animaux était essentiel dans un pays où les terres agricoles étaient limitées.Cependant, ces restrictions ne concernaient pas les produits de la mer. Le poisson, les crustacés et les algues occupaient une place centrale dans l’alimentation japonaise, offrant une source importante de protéines. Cette exception explique pourquoi le Japon est souvent qualifié de "pays piscivore".Malgré les interdictions officielles, la consommation de viande n’a jamais totalement disparu. Dans certaines régions rurales ou montagneuses, où le poisson était rare, les habitants chassaient et consommaient du gibier, comme le cerf ou le sanglier, en dehors du regard des autorités.Cette tendance a commencé à changer avec l’ouverture du Japon au monde extérieur à partir de l’ère Meiji (1868). Les autorités ont encouragé la consommation de viande pour "fortifier le corps" et moderniser les habitudes alimentaires.Pendant près de 12 siècles, le Japon a effectivement suivi un régime alimentaire largement végétarien, influencé par des principes religieux, culturels et écologiques. Toutefois, cette période n’a jamais été totalement exempte de consommation de viande, notamment dans les zones isolées ou pour des occasions spéciales. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Imaginez Rome au Ier siècle avant notre ère. Près d’un million d’habitants. Des rues étroites, sinueuses, encombrées. Des marchands, des esclaves, des sénateurs en toge… et des chariots partout.Le vacarme est permanent. Les roues cerclées de fer résonnent sur les pavés. Les attelages se croisent difficilement. Les embouteillages sont fréquents. Les piétons sont renversés. La ville étouffe.En 45 av. J.-C., Jules César prend une décision radicale : il interdit la circulation des véhicules à roues dans Rome pendant la journée, approximativement de l’aube jusqu’en fin d’après-midi. Les chariots ne pourront circuler que la nuit.Pourquoi une mesure aussi drastique ?D’abord pour fluidifier la circulation. Rome est le cœur politique du monde romain. Les magistrats, les sénateurs, les avocats doivent pouvoir se déplacer. Or les rues sont saturées par les convois de marchandises.Ensuite pour des raisons de sécurité. Les accidents sont fréquents. Les sources antiques évoquent des passants écrasés, des encombrements monstres.Enfin pour le bruit. Le fracas des roues métalliques sur la pierre est assourdissant. Les habitants se plaignent.Cette interdiction n’est pas totale. Des exceptions existent : véhicules officiels, transports de matériaux de construction, processions religieuses. Mais pour le commun des mortels, la règle est claire : pas de chariots le jour.Résultat paradoxal : la nuit devient bruyante. Les livraisons s’effectuent après le coucher du soleil. Les habitants se plaignent désormais… du tapage nocturne.Ce que montre cette décision, c’est que les problèmes urbains modernes ne sont pas si modernes. Embouteillages, nuisances sonores, sécurité des piétons : Rome connaissait déjà ces tensions.Jules César n’était pas écologiste avant l’heure. Il cherchait l’ordre et l’efficacité. Mais en réglementant la circulation, il invente l’une des premières politiques publiques de gestion du trafic urbain.Deux mille ans plus tard, quand une ville interdit les voitures en centre-ville, elle ne fait peut-être que renouer avec une idée… romaine. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Pendant la Première Guerre mondiale, l’espionnage est une guerre silencieuse. Pas de gadgets futuristes, pas de montres laser à la James Bond. Mais une obsession : comment transmettre des informations sans se faire repérer ?À l’époque, les services secrets britanniques, futurs MI6, cherchent une encre invisible indétectable. Les méthodes classiques — jus de citron, lait, solutions chimiques — sont connues des services ennemis. Les Allemands disposent déjà de réactifs capables de révéler ces encres secrètes.C’est alors qu’émerge une solution inattendue.Le directeur du renseignement britannique, Mansfield Smith-Cumming, découvre qu’une substance organique possède une propriété intéressante : elle ne réagit pas aux produits chimiques de détection standards. Cette substance, c’est… le sperme.Utilisé comme encre invisible, il devient visible uniquement lorsqu’on chauffe le papier. À froid, aucune trace apparente. Pas d’odeur suspecte une fois sec. Et surtout, aucun réactif chimique courant ne permet de le détecter facilement.Les agents adoptent alors une devise ironique :Chaque homme a son propre stylo.L’avantage est évident : la ressource est immédiatement disponible, difficile à confisquer, et ne nécessite aucun matériel compromettant. En cas d’arrestation, aucun flacon suspect dans les poches.Mais la méthode a ses limites. Le temps altère le message. La chaleur peut révéler accidentellement le texte. Et surtout, l’odeur, lorsqu’il est frais, peut trahir l’usage.Rapidement, les services secrets développeront des encres chimiques plus sophistiquées. Mais cet épisode révèle quelque chose de fascinant : l’espionnage est avant tout une affaire d’ingéniosité pragmatique.Dans une guerre où chaque information peut coûter des milliers de vies, rien n’est trop insolite pour être testé.Loin des fantasmes hollywoodiens, l’histoire réelle de l’espionnage est souvent plus étrange, plus improvisée… et parfois plus biologique qu’on ne l’imagine. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
En 1989, au moment où le mur de Berlin tombe et où le bloc soviétique vacille, Francis Fukuyama publie un article devenu célèbre : The End of History? Il y développe une thèse audacieuse : l’humanité serait peut-être arrivée au terme de son évolution idéologique majeure.Attention, il ne parle pas de la fin des événements, ni de la fin des conflits. Il parle de la fin de l’Histoire au sens philosophique, hérité de Hegel et d’Alexandre Kojève : l’Histoire comme lutte entre grandes idéologies concurrentes pour définir le meilleur régime politique.Selon Fukuyama, le XXe siècle a vu s’affronter trois grands modèles : le fascisme, le communisme et la démocratie libérale. Le fascisme est vaincu en 1945. Le communisme s’effondre en 1989-1991 avec la chute de l’URSS. Il ne resterait alors qu’un modèle sans rival idéologique crédible : la démocratie libérale associée à l’économie de marché.Sa thèse est donc la suivante : la démocratie libérale pourrait constituer la forme finale de gouvernement humain, non pas parfaite, mais la moins mauvaise et la plus universalisable. Il ne dit pas que tous les pays sont démocratiques, mais qu’aucune idéologie alternative globale ne semble capable de la remplacer durablement.L’argument repose aussi sur une dimension anthropologique : le besoin humain de reconnaissance, ce que Hegel appelait le « thymos ». La démocratie libérale offrirait un cadre permettant de satisfaire ce besoin par des droits, l’égalité juridique et la participation politique.La thèse a suscité un immense débat. Certains l’ont interprétée comme un triomphalisme naïf de l’Occident. D’autres ont souligné que l’histoire postérieure — terrorisme, montée de la Chine autoritaire, résurgence des nationalismes, guerres en Ukraine ou au Moyen-Orient — semble contredire l’idée d’un monde stabilisé autour d’un modèle unique.Fukuyama lui-même a nuancé sa position par la suite. Il reconnaît que la démocratie peut reculer, que les institutions peuvent s’affaiblir et que l’Histoire, au sens des crises et rivalités de puissance, continue évidemment.La « fin de l’Histoire » n’est donc pas l’annonce d’un monde pacifié pour toujours. C’est une hypothèse sur l’absence d’alternative idéologique systémique à la démocratie libérale après la Guerre froide.Qu’on l’approuve ou qu’on la critique, cette thèse reste l’une des plus influentes pour comprendre l’optimisme des années 1990… et les désillusions du XXIe siècle. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
La théorie du cygne noir, formulée par Nassim Nicholas Taleb en 2007 dans son livre The Black Swan, cherche à expliquer pourquoi les événements les plus marquants de l’histoire sont souvent ceux que personne n’a vus venir.L’expression vient d’une vieille croyance européenne : pendant des siècles, on pensait que tous les cygnes étaient blancs, car on n’en avait jamais observé d’autres. En 1697, des explorateurs découvrent des cygnes noirs en Australie. Une seule observation suffit alors à invalider une certitude considérée comme universelle. Taleb utilise cette métaphore pour parler d’événements rares, imprévisibles, mais aux conséquences immenses.Selon lui, un cygne noir répond à trois critères :1. Il est hautement improbable au regard des connaissances disponibles.2. Il a un impact massif sur le monde.3. Après coup, on construit une explication rationnelle qui donne l’illusion qu’il était prévisible.Des exemples souvent cités : les attentats du 11 septembre 2001, la crise financière de 2008, ou encore l’essor fulgurant d’Internet. Avant qu’ils ne surviennent, peu d’experts les anticipaient réellement. Après coup, en revanche, les analyses abondent pour montrer qu’« on aurait pu le voir venir ».Le cœur de la théorie critique notre obsession des prévisions statistiques classiques. Nous avons tendance à modéliser le monde comme s’il fonctionnait selon des courbes régulières, proches de la moyenne. Or, dans certains domaines — finance, géopolitique, innovation — ce sont les événements extrêmes qui façonnent l’histoire. Taleb parle de « monde de l’Extrêmistan », par opposition au « Médiocristan », où les variations sont limitées (comme la taille humaine).Son message est moins de prédire les cygnes noirs que d’apprendre à vivre avec l’incertitude. Plutôt que de faire confiance aveuglément aux modèles, il propose de bâtir des systèmes robustes — voire « antifragiles » — capables de résister aux chocs imprévus.La théorie a profondément marqué la finance, la gestion des risques et même la réflexion politique. Elle rappelle une chose essentielle : notre ignorance est plus grande que nous ne le pensons, et l’histoire est souvent écrite par des événements que personne n’attendait.En somme, le cygne noir n’est pas seulement une métaphore. C’est une invitation à l’humilité face à l’imprévisible. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Dans le langage courant, on emploie souvent dicton, proverbe et adage comme des synonymes. Pourtant, en français, ces trois termes ont des nuances importantes.1) Le proverbe : une leçon de sagesse populaireLe proverbe est une formule courte, imagée, transmise par la tradition, qui exprime une vérité générale ou un conseil tiré de l’expérience.Exemples :« Qui va à la chasse perd sa place. »« Tel père, tel fils. »« Mieux vaut tard que jamais. »Le proverbe a une dimension morale ou pratique. Il prétend exprimer une vérité universelle fondée sur l’expérience collective. Il est souvent ancien, anonyme et appartient au patrimoine culturel. Sa fonction est pédagogique : il enseigne quelque chose sur la vie, le comportement humain ou les relations sociales.2) Le dicton : une observation, souvent liée au temps ou aux saisonsLe dicton est également une formule populaire, mais il est généralement plus descriptif que moral. Il exprime une observation empirique, souvent en lien avec la nature, les saisons ou les traditions.Exemples :« Noël au balcon, Pâques au tison. »« En avril, ne te découvre pas d’un fil. »« À la Sainte-Catherine, tout bois prend racine. »Le dicton ne cherche pas forcément à transmettre une leçon morale. Il constate plutôt une régularité observée dans le monde, notamment météorologique ou agricole. Historiquement, ces formules servaient de repères pratiques dans les sociétés rurales.3) L’adage : une maxime à valeur juridique ou savanteL’adage est plus formel. Il s’agit d’une maxime concise, souvent issue du latin, qui exprime un principe général, fréquemment dans un contexte juridique ou intellectuel.Exemples :« Nul n’est censé ignorer la loi. »« On ne peut se prévaloir de sa propre turpitude. »« Pacta sunt servanda » (les conventions doivent être respectées).L’adage a une portée plus normative. Il énonce un principe abstrait, parfois intégré au droit. Il ne relève pas uniquement de la tradition populaire, mais souvent d’une tradition savante.Le proverbe transmet une sagesse morale issue de l’expérience collective.Le dicton formule une observation pratique, souvent liée aux saisons ou aux coutumes.L’adage exprime un principe général, souvent juridique ou doctrinal.Tous sont des formules brèves et mémorisables, mais ils ne jouent pas le même rôle : le proverbe conseille, le dicton observe, l’adage pose une règle. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
On pense souvent qu’en France, le droit d’arrêter quelqu’un appartient exclusivement à la police et à la gendarmerie. Pourtant, le droit français prévoit une exception peu connue : dans certaines circonstances bien précises, n’importe quel citoyen peut légalement interpeller une personne. Ce principe est inscrit dans l’article 73 du code de procédure pénale.Que dit exactement cet article ? Il prévoit que, en cas de crime ou de délit flagrant puni d’une peine d’emprisonnement, toute personne a le droit d’appréhender l’auteur des faits. Autrement dit, il ne s’agit pas d’un simple soupçon ou d’un comportement étrange, mais d’une infraction en train de se commettre ou venant tout juste de se commettre.La notion de flagrance est centrale. Elle couvre plusieurs situations : lorsque l’infraction est observée directement, lorsqu’elle vient d’avoir lieu, lorsque la personne est poursuivie par des témoins, ou encore lorsqu’elle est trouvée en possession d’objets laissant penser qu’elle a participé au délit. Un individu surpris en train de voler un sac, de casser une vitrine ou d’agresser quelqu’un entre donc clairement dans ce cadre.En revanche, cette faculté d’interpellation ne donne pas carte blanche. Le texte impose une obligation très claire : la personne interpellée doit être conduite sans délai devant un officier de police judiciaire. Cela signifie qu’un citoyen n’a pas le droit de garder quelqu’un enfermé chez lui, de l’interroger ou de mener sa propre “enquête”. Son rôle se limite à empêcher la fuite et à remettre l’individu aux autorités.Autre point essentiel : l’usage de la force doit rester strictement proportionné. Il est possible de retenir physiquement quelqu’un si c’est nécessaire, mais toute violence excessive peut engager la responsabilité pénale de celui qui intervient. Si la personne interpellée est blessée sans justification, l’interpellateur peut lui-même se retrouver poursuivi.Il existe également des situations où il vaut mieux s’abstenir. Si l’auteur présumé est armé, dangereux ou en groupe, intervenir peut mettre gravement en péril sa propre sécurité. Le droit reconnaît la possibilité d’agir, mais n’impose jamais à un citoyen de se transformer en justicier.Dans la pratique, ce dispositif vise surtout à permettre une réaction immédiate lorsque les forces de l’ordre ne sont pas présentes. Il rappelle aussi que la sécurité publique n’est pas uniquement l’affaire de l’État, mais repose en partie sur la vigilance collective.En résumé, oui : en France, un citoyen peut arrêter une personne dans certaines conditions très encadrées. Mais il ne s’agit ni d’un pouvoir de police, ni d’un permis de faire justice soi-même. C’est un outil juridique d’exception, fondé sur une idée simple : empêcher qu’un auteur d’infraction flagrante ne s’échappe, en attendant que la justice prenne le relais. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
La différence entre une crise cardiaque et un arrêt cardiaque est souvent mal comprise, alors qu’il s’agit de deux situations médicales distinctes, même si elles concernent toutes deux le cœur et peuvent parfois se succéder.Une crise cardiaque, appelée médicalement infarctus du myocarde, survient lorsqu’une artère coronaire se bouche. Ces artères apportent l’oxygène et les nutriments au muscle cardiaque. Le plus souvent, l’obstruction est causée par un caillot sanguin formé sur une plaque de cholestérol. Lorsque le sang ne circule plus correctement, une partie du muscle cardiaque est privée d’oxygène. Si la situation n’est pas corrigée rapidement, les cellules de cette zone commencent à mourir.Pendant une crise cardiaque, le cœur continue généralement de battre. La personne est consciente, même si elle peut se sentir très mal. Les symptômes les plus fréquents sont une douleur ou une sensation d’écrasement dans la poitrine, une douleur qui peut irradier vers le bras gauche, l’épaule, le dos ou la mâchoire, un essoufflement, des nausées, des sueurs et une grande fatigue. La crise cardiaque est donc avant tout un problème de circulation sanguine au niveau du cœur.L’arrêt cardiaque, en revanche, correspond à l’arrêt brutal et inattendu du fonctionnement du cœur. Le cœur ne pompe plus efficacement le sang vers le cerveau et les autres organes vitaux. La personne s’effondre, perd connaissance, ne respire plus normalement et n’a plus de pouls. Sans intervention immédiate, les lésions cérébrales commencent en quelques minutes et le décès peut survenir très rapidement.L’arrêt cardiaque est le plus souvent provoqué par un trouble grave du rythme cardiaque, c’est-à-dire un problème électrique. Le cœur se met à battre de façon totalement désorganisée ou cesse de battre. Ce dysfonctionnement électrique peut être déclenché par une crise cardiaque, mais aussi par d’autres causes comme une électrocution, une noyade, un traumatisme sévère ou certaines maladies cardiaques.Le lien entre les deux est important à comprendre. Une crise cardiaque peut entraîner un arrêt cardiaque, mais ce n’est pas systématique. De nombreuses personnes font une crise cardiaque sans jamais présenter d’arrêt cardiaque. À l’inverse, un arrêt cardiaque peut survenir sans qu’il y ait eu de crise cardiaque préalable.En résumé, la crise cardiaque est un problème de tuyauterie : une artère est bouchée. L’arrêt cardiaque est un problème électrique : le cœur ne bat plus correctement. Cette distinction est essentielle, car les réponses d’urgence sont différentes. Une crise cardiaque nécessite une prise en charge médicale rapide. Un arrêt cardiaque nécessite immédiatement un massage cardiaque et, si possible, une défibrillation. Connaître cette différence permet de mieux comprendre les signaux d’alerte et peut réellement sauver des vies. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Vous êtes assis dans votre salon, parfaitement lucide, quand soudain votre regard est attiré par quelque chose d’étrange au sol. Puis par autre chose, un peu plus loin. En quelques minutes, vous avez la sensation que des dizaines de minuscules personnages se déplacent autour de vous, comme si un peuple miniature avait envahi votre environnement. Vous n’avez pas rapetissé. Vous ne rêvez pas. Pourtant, votre cerveau vous convainc que ces créatures existent bel et bieCe phénomène porte un nom précis : les hallucinations lilliputiennes, en référence au pays de Lilliput imaginé par Jonathan Swift, peuplé d’êtres minuscules. Pendant longtemps, ces hallucinations ont surtout été associées à certaines maladies neurologiques ou à des intoxications médicamenteuses. Mais depuis quelques années, un champignon attire particulièrement l’attention des toxicologues : Lanmaoa asiatica, une espèce de bolet présente notamment dans le sud-ouest de la Chine.Dans certaines régions, ce champignon est connu sous un surnom évocateur, que l’on pourrait traduire par “le champignon des petits hommes”. La raison est simple : après sa consommation, en particulier lorsqu’il est mal cuit ou consommé trop tôt après récolte, certains individus développent des hallucinations très spécifiques. Ils ne décrivent pas des visions floues ou abstraites, mais des scènes détaillées mettant en scène de minuscules humains, des animaux de petite taille, parfois des créatures inconnues, se déplaçant dans leur champ de vision avec un réalisme troublant.Ce qui fascine les chercheurs, c’est la similarité des témoignages. Des personnes n’ayant aucun lien entre elles rapportent des expériences presque identiques, comme si ce champignon déclenchait un “scénario” hallucinatoire bien particulier. D’un point de vue médical, il ne s’agit pas d’une substance utilisée à des fins récréatives, mais bien d’une intoxication. Les symptômes apparaissent souvent plusieurs heures après l’ingestion, parfois jusqu’à une journée plus tard, et s’accompagnent fréquemment de nausées, de vomissements, de vertiges, d’une grande fatigue et, dans certains cas, de troubles digestifs importants.Heureusement, la plupart des patients se rétablissent en quelques jours, mais l’épisode est suffisamment spectaculaire pour conduire un grand nombre d’entre eux à l’hôpital. Le mystère majeur reste la nature exacte de la substance responsable de ces effets. Contrairement à d’autres champignons hallucinogènes bien connus, Lanmaoa asiatica ne contient pas les molécules classiques comme la psilocybine. Les scientifiques soupçonnent donc l’existence d’un composé encore mal identifié, capable d’altérer les zones du cerveau impliquées dans la perception des tailles, des distances et des proportions.Autrement dit, ce champignon ne modifie pas la réalité extérieure. Il modifie la manière dont le cerveau interprète cette réalité. Et c’est précisément ce dérèglement perceptif qui donne l’illusion d’un monde peuplé d’êtres miniatures.En définitive, aucun champignon ne fait réellement rapetisser les humains. Mais certains peuvent créer une illusion si puissante qu’elle vous fera croire, pendant quelques heures, que vous êtes devenu un géant entouré d’un peuple invisible. Une expérience fascinante pour les scientifiques, mais beaucoup moins pour ceux qui la vivent. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
En 1872, dans son ouvrage L’Expression des émotions chez l’homme et les animaux, Charles Darwin propose une idée révolutionnaire pour l’époque : les émotions humaines ne sont pas uniquement façonnées par la culture, mais possèdent une base biologique universelle. Selon lui, certaines émotions fondamentales sont partagées par tous les êtres humains, quelles que soient leur origine, leur langue ou leur société. Il en identifie six principales, aujourd’hui appelées émotions universelles.La première est la joie. Elle se manifeste par le sourire, le rire, un visage détendu et lumineux. La joie est associée aux expériences positives, au plaisir, à la réussite ou aux relations sociales satisfaisantes. D’un point de vue évolutif, elle renforce les comportements bénéfiques à la survie et favorise les liens sociaux, indispensables à la vie en groupe.La deuxième émotion universelle est la tristesse. Elle se reconnaît notamment par les larmes, les paupières tombantes et une posture affaissée. La tristesse apparaît en réponse à une perte, un échec ou une déception. Elle joue un rôle important : elle incite au repli temporaire, favorise l’introspection et peut susciter la compassion et le soutien de l’entourage.Vient ensuite la peur, sans doute l’une des émotions les plus vitales. Elle se traduit par des yeux écarquillés, une tension musculaire et une accélération du rythme cardiaque. La peur prépare l’organisme à réagir face au danger, en déclenchant la fuite ou la défense. C’est un mécanisme de survie hérité de millions d’années d’évolution.La quatrième émotion est la colère. Elle s’exprime par des sourcils froncés, une mâchoire crispée et une voix plus forte. La colère survient lorsqu’un individu se sent menacé, frustré ou traité injustement. Sur le plan adaptatif, elle sert à défendre ses limites, à dissuader un adversaire et à rétablir un équilibre perçu comme rompu.Darwin identifie également le dégoût comme émotion fondamentale. Elle se manifeste par un haut-le-cœur, un froncement du nez et un rejet instinctif. À l’origine, le dégoût protège contre l’ingestion de substances potentiellement toxiques ou contaminées. Avec le temps, il s’est étendu à des domaines moraux et sociaux, comme le rejet de certains comportements jugés inacceptables.Enfin, la sixième émotion universelle est la surprise. Elle se caractérise par des yeux grands ouverts, des sourcils relevés et une bouche entrouverte. La surprise est une réaction brève face à un événement inattendu. Elle permet d’augmenter rapidement l’attention et d’évaluer la situation afin d’adopter la réponse la plus appropriée.Ces six émotions constituent les fondations du monde émotionnel humain. Elles ne sont ni bonnes ni mauvaises en soi : elles sont des outils biologiques destinés à guider nos comportements. Les travaux de Darwin ont ouvert la voie à plus d’un siècle de recherches montrant que, malgré nos différences culturelles, nous partageons un socle émotionnel commun profondément inscrit dans notre nature. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
En Finlande, 95% des nouveau-nés dorment dans des cartons ! Plus exactement dans une « baby box », un grand carton fourni gratuitement par l’État, équipé d’un petit matelas et d’une literie pour bébé. Mais contrairement à ce que l’on imagine parfois, ce n’est ni un symbole de pauvreté ni une simple mesure d’économie : cette pratique est l’héritage d’une politique de santé publique vieille de près d’un siècle.L’histoire débute au début du XXᵉ siècle, dans un pays encore jeune et confronté à un taux de mortalité infantile élevé. De nombreuses familles vivent dans des conditions modestes, et l’accès aux soins est inégal. Dans les années 1930, le gouvernement finlandais met en place une mesure inédite : offrir aux futures mères un kit de maternité contenant des vêtements, des couvertures, des produits d’hygiène et des objets indispensables pour accueillir un nourrisson.En 1938, cette aide devient officielle et ciblée d’abord vers les familles les plus modestes. Le kit est distribué dans une grande boîte en carton solide, accompagnée d’un petit matelas. Très vite, les parents commencent à utiliser cette boîte comme premier berceau, faute parfois de mobilier adapté, mais surtout parce qu’elle est pratique, propre et sécurisante.L’objectif ne se limite pas à fournir du matériel. Pour recevoir la baby box, les femmes enceintes doivent effectuer au moins une visite médicale prénatale. Ce mécanisme incite les futures mères à consulter un professionnel de santé, ce qui améliore le suivi des grossesses et réduit les risques de complications. En 1949, le dispositif est élargi à toutes les femmes enceintes, quel que soit leur revenu.Au fil des décennies, la Finlande voit son taux de mortalité infantile chuter de manière spectaculaire. Bien sûr, cette amélioration s’explique par de nombreux facteurs, comme les progrès médicaux et l’amélioration des conditions de vie. Mais la baby box est devenue le symbole d’une approche simple : donner à chaque enfant un bon départ, indépendamment de l’origine sociale de ses parents.Aujourd’hui, les parents peuvent choisir entre recevoir la boîte ou une somme d’argent, mais la majorité continue de préférer la baby box. Elle contient des vêtements pour différentes saisons, des draps, des couvertures, des produits de soin, et parfois même un petit livre ou un jouet.Si certains bébés dorment dans la boîte, ce n’est pas une obligation, mais un choix. La baby box est surtout devenue un rituel culturel, partagé par presque toutes les familles finlandaises.En réalité, ces cartons ne sont pas de simples boîtes : ils incarnent une idée puissante. Celle qu’une société peut, par des gestes simples, réduire les inégalités dès les premiers jours de la vie. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.






👌👌
en Iran, cette année il y a 27 jours fériés !!!😁
Mettre des pubs McDonald's pour influencer des enfants ? Sérieusement ?
Du contenu qui peut parfois être intéressant même pour les adultes. Cependant, 45s de pubs sur 2 minutes d'épisodes c'est dingue... c'est-à-dire que si je veux laisser le podcast une demi-heure, je vais avoir plus de 11 minutes de pubs ?!? En plus, des pubs Mc Donald's pour un contenu destiné aux enfants, c'est ethniquement inapproprié. Jamais je laisse ça à mes enfants.
il a 10 chiffres il ne faut pas oublier le 0 ;)
Les "manags"?
franchement je ne savais pas