Discover
Choses à Savoir - Culture générale

Choses à Savoir - Culture générale
Author: Choses à Savoir
Subscribed: 79,655Played: 3,777,735Subscribe
Share
© Choses à Savoir
Description
Développez votre culture générale.
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
3039 Episodes
Reverse
Découverts dans les années 1990 par l’équipe de Giacomo Rizzolatti à Parme, les neurones miroirs s’activent quand on réalise une action, mais aussi quand on voit quelqu’un d’autre la faire. Quand nous entendons ou voyons une personne rire, ces neurones déclenchent dans notre cerveau des circuits moteurs similaires à ceux qui commandent le rire. Cela explique le réflexe d’imitation quasi automatique.Le rire engage plusieurs zones cérébrales :le cortex prémoteur et moteur (contrôle des muscles du visage et de la respiration),le système limbique (amygdale, hypothalamus), impliqué dans la régulation des émotions,et le cortex auditif qui reconnaît les sons du rire et prépare une réponse.Des études en IRM fonctionnelle ont montré que l’écoute d’un rire active ces régions comme si la personne était prête à rire à son tour.Sur le plan neurophysiologique, le rire est une réaction émotionnelle vocale. L’audition d’un rire stimule le gyrus temporal supérieur, spécialisé dans la perception des expressions vocales, et connecte ensuite les zones émotionnelles profondes. Cela provoque une « contagion émotionnelle », comparable à ce qui se passe avec un bâillement.Des chercheurs de l’University College London ont diffusé des enregistrements de rires à des volontaires tout en observant leur activité cérébrale par IRM. Résultat : l’écoute du rire active les circuits moteurs faciaux, comme si les participants s’apprêtaient à sourire. C’est la démonstration directe du mécanisme de contagion.D’un point de vue scientifique, cette contagion aurait un rôle adaptatif : renforcer la synchronisation sociale. Mais au niveau strictement biologique, elle s’explique par l’architecture neuronale qui relie perception (entendre un rire) et action (rire soi-même), rendant la propagation du rire quasiment automatique.En résumé, le rire est contagieux avant tout parce que notre cerveau possède des circuits miroirs et émotionnels qui lient la perception d’un rire à l’activation des zones motrices du rire. C’est un phénomène neurobiologique mesurable, qui illustre la puissance du mimétisme inscrit dans notre système nerveux. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Quand on pense à la France, trois images surgissent souvent : la baguette, le vin… et le croissant. Pourtant, l’histoire de ce dernier réserve une belle surprise : le croissant n’est pas né en France, mais en Autriche.L’histoire remonte à 1683, à Vienne, capitale des Habsbourg. Cette année-là, la ville est assiégée par l’armée ottomane. Les combats font rage et les habitants craignent l’invasion. Une légende raconte que ce sont les boulangers, levés aux aurores pour pétrir la pâte, qui entendirent des bruits suspects sous les remparts. Les Ottomans creusaient des tunnels pour pénétrer dans la cité. Prévenus à temps, les défenseurs purent contrecarrer l’attaque et repousser l’ennemi.La victoire fut éclatante. Pour la célébrer, les boulangers eurent une idée ingénieuse : façonner une pâtisserie en forme de croissant de lune, emblème du drapeau ottoman. Mordre dans cette pâte dorée revenait ainsi, symboliquement, à croquer l’ennemi. C’est la naissance du kipferl, ancêtre du croissant.Ce kipferl viennois n’était pas feuilleté comme celui que nous connaissons aujourd’hui. Il s’agissait plutôt d’une pâte briochée, dense, parfois enrichie d’amandes ou de noisettes. On en trouve d’ailleurs des variantes dans toute l’Europe centrale, où il est consommé depuis le Moyen Âge.Alors, comment cette viennoiserie est-elle devenue française ? La réponse se trouve au XIXᵉ siècle. En 1839, un officier autrichien à la retraite, August Zang, ouvre une boulangerie viennoise à Paris, rue de Richelieu. Ses kipferl séduisent rapidement la clientèle parisienne, avide de nouveautés. Les artisans français adoptent l’idée, mais la transforment : au lieu d’une pâte briochée, ils utilisent la pâte feuilletée levée, déjà employée pour les vol-au-vent ou les chaussons. Le croissant tel que nous le connaissons aujourd’hui, léger, croustillant, beurré, est donc une invention française… à partir d’un concept autrichien.Cette hybridation explique le paradoxe : le croissant est à la fois étranger et profondément français. Étranger par ses origines historiques, français par son perfectionnement culinaire et sa diffusion. C’est d’ailleurs seulement au XXᵉ siècle que le croissant devient un incontournable du petit-déjeuner hexagonal, accompagné d’un café noir ou d’un bol de chocolat chaud.Ainsi, derrière cette viennoiserie dorée se cache une histoire de guerre, de symboles et de métissage culturel. Le croissant n’est pas né en France, mais la France en a fait un emblème universel. Une preuve que, parfois, l’identité culinaire se construit dans la rencontre des traditions plutôt que dans la pureté des origines. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
On confond souvent avidité et cupidité, comme si ces deux termes désignaient la même soif insatiable. Pourtant, ils recouvrent des nuances importantes, tant sur le plan psychologique que moral.L’avidité est d’abord un élan intérieur, une pulsion tournée vers la possession ou la consommation. C’est un désir intense, presque animal, d’obtenir toujours plus : plus de nourriture, plus de pouvoir, plus de plaisir. L’avidité se manifeste dans une recherche sans fin, où ce que l’on obtient n’apaise jamais durablement le besoin. Elle peut être matérielle, mais aussi symbolique : une avidité de reconnaissance, d’expériences, d’influence. Le philosophe Spinoza la décrivait déjà comme une passion qui naît du manque et qui s’auto-entretient.La cupidité, elle, est plus précise et plus ciblée. C’est l’amour excessif de l’argent et des richesses matérielles. Être cupide, c’est vouloir accumuler sans relâche de l’or, des biens, des profits, parfois au mépris de l’éthique ou de la justice. Là où l’avidité est une faim généralisée, la cupidité est une obsession particulière pour l’avoir monétaire. Dans l’imaginaire collectif, on pense à l’usurier, au banquier véreux, ou au personnage de l’oncle Picsou, dont la fortune s’accumule dans un coffre géant qu’il ne cesse de remplir.Ces deux notions diffèrent aussi dans leur rapport au monde. L’avidité peut toucher n’importe qui, dans n’importe quel domaine. Un scientifique peut être avide de savoir, un sportif avide de victoires. Cette avidité n’est pas toujours négative : elle peut stimuler la créativité, l’innovation, le dépassement de soi. Mais poussée à l’excès, elle devient destructrice, car elle ne laisse jamais de place à la satisfaction ni à la sérénité. La cupidité, au contraire, porte en elle une connotation presque toujours péjorative. Elle enferme l’individu dans la quête de profit matériel, souvent au détriment d’autrui.On pourrait dire que la cupidité est une forme spécialisée d’avidité : elle en est une branche, centrée sur l’argent. Mais elle a pris dans l’histoire une telle importance morale qu’elle est devenue l’un des sept péchés capitaux du christianisme. L’avidité, elle, ne figure pas dans cette liste, car elle peut encore se décliner sous des formes neutres ou positives.En résumé, l’avidité est une soif sans limite, la cupidité une soif d’argent. L’une peut être moteur ou poison selon le contexte, l’autre est presque toujours perçue comme un vice. Comprendre cette différence, c’est mieux saisir comment nos désirs façonnent nos comportements et parfois nos excès. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Quand on évoque les grandes civilisations précolombiennes, deux noms surgissent immédiatement : les Mayas et les Incas. Pourtant, si elles ont toutes deux marqué l’histoire de l’Amérique, elles sont très différentes dans leur localisation, leur organisation et leurs héritages.Les Mayas apparaissent bien avant les Incas. Leur civilisation se développe dès 2000 avant notre ère, dans les forêts tropicales du Yucatán, au sud du Mexique, ainsi qu’au Guatemala, au Belize et au Honduras actuels. Les Incas, eux, émergent beaucoup plus tard, au XIIIᵉ siècle, dans la cordillère des Andes, principalement au Pérou. Cette différence chronologique explique déjà un contraste : quand l’empire inca atteint son apogée au XVe siècle, les grandes cités mayas étaient déjà abandonnées depuis longtemps.Sur le plan politique, le contraste est frappant. Les Mayas n’avaient pas un empire unifié mais une mosaïque de cités-États indépendantes, comme Tikal, Palenque ou Copán, qui rivalisaient entre elles par des guerres et des alliances. Les Incas, au contraire, fondèrent un empire centralisé : le Tawantinsuyu. Depuis Cuzco, l’empereur, appelé le Sapa Inca, exerçait un pouvoir absolu sur des millions de sujets et un territoire immense s’étendant de la Colombie jusqu’au Chili.Sur le plan culturel, les Mayas brillèrent surtout par leur écriture et leurs connaissances scientifiques. Ils développèrent un système d’écriture hiéroglyphique complexe, unique en Amérique, qui permettait de noter aussi bien des événements politiques que des récits mythologiques. Ils élaborèrent également un calendrier extrêmement précis, basé sur l’astronomie, et laissèrent des monuments impressionnants comme les pyramides de Chichén Itzá. Les Incas, eux, ne connaissaient pas l’écriture. Pour conserver la mémoire des tributs ou des recensements, ils utilisaient les quipus, des cordelettes nouées dont les combinaisons servaient de code numérique. Leur génie s’exprima surtout dans l’ingénierie : routes pavées traversant les Andes, ponts suspendus, systèmes d’irrigation et villes perchées comme Machu Picchu.Enfin, leurs religions différaient. Les Mayas pratiquaient des rituels sanglants pour apaiser leurs dieux, y compris des sacrifices humains. Les Incas, eux, adoraient surtout Inti, le dieu Soleil, et considéraient l’empereur comme son descendant direct. Leurs sacrifices humains existaient, mais étaient plus rares et souvent réservés à des moments exceptionnels.En somme, les Mayas furent des astronomes et des scribes brillants, mais fragmentés politiquement. Les Incas, eux, bâtirent un empire solide et organisé, mais sans écriture. Deux civilisations fascinantes, qui montrent la diversité et la richesse des mondes précolombiens bien avant l’arrivée des Européens. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Au Japon, l’histoire des 47 rōnin est sans doute la plus célèbre des récits de loyauté et de vengeance. Elle s’est déroulée au tout début du XVIIIᵉ siècle et est devenue, au fil du temps, une véritable légende nationale.Tout commence en 1701. Le seigneur Asano Naganori est chargé d’accueillir un émissaire impérial au château d’Edo. Mais il est humilié à plusieurs reprises par Kira Yoshinaka, un haut fonctionnaire corrompu et arrogant. Perdant son sang-froid, Asano dégaine son sabre dans l’enceinte du château, un acte interdit. Pour cette faute, il est condamné au seppuku, le suicide rituel, et ses terres sont confisquées. Ses samouraïs se retrouvent soudain sans maître : ils deviennent des rōnin, des guerriers errants.Au lieu d’accepter leur sort, quarante-sept d’entre eux décident de venger leur seigneur. Pendant près de deux ans, ils dissimulent leurs intentions : certains se font passer pour des ivrognes ou des miséreux, afin de tromper la vigilance de Kira. Puis, une nuit de l’hiver 1703, ils passent à l’action. Ils attaquent la résidence de Kira, la prennent d’assaut et finissent par le trouver caché dans un réduit. Ils le forcent à se suicider, et ramènent sa tête au tombeau de leur maître, accomplissant ainsi leur devoir de fidélité.Mais leur geste les place en contradiction avec la loi. Le shogun, conscient de l’admiration populaire que suscite leur acte, hésite longuement. Finalement, il décide de les condamner au seppuku, afin de respecter la justice tout en leur accordant une mort honorable. Les 47 rōnin se donnent la mort avec dignité, et leur mémoire entre dans l’histoire.Pourquoi cette histoire est-elle devenue si célèbre dans le monde ? Parce qu’elle incarne des valeurs universelles : la loyauté, le sacrifice, l’honneur. Au Japon, elle est enseignée comme un modèle du bushidō, le code d’honneur des samouraïs. Des sanctuaires et des tombes, comme celles du temple Sengaku-ji à Tokyo, attirent encore des milliers de visiteurs. Et cette légende a inspiré innombrables pièces de théâtre kabuki, films, mangas et même productions hollywoodiennes.En résumé, l’affaire des 47 rōnin n’est pas seulement une anecdote de l’histoire japonaise : c’est un récit fondateur, qui résonne bien au-delà des frontières du Japon. Elle rappelle la force des valeurs collectives, mais aussi le prix parfois terrible de la fidélité absolue. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Quand on imagine un pilote d’avion, on pense souvent à quelqu’un doté d’une vue d’aigle, capable de distinguer chaque détail dans le ciel. Mais en réalité, les choses sont plus nuancées. Les autorités aéronautiques n’exigent pas une vision “parfaite”, mais une vision suffisamment bonne, quitte à être corrigée par des lunettes ou des lentilles.Aux États-Unis, par exemple, la FAA impose que les pilotes de ligne obtiennent une acuité visuelle de 20/20 de loin dans chaque œil, mais cela peut être avec correction. Autrement dit, si un pilote a besoin de lunettes, il est tout à fait autorisé à voler, tant que sa vision corrigée atteint le seuil. Pour la vision de près – indispensable pour lire les instruments – une acuité de 20/40 est suffisante. En Europe, sous l’autorité de l’EASA, les règles sont similaires : l’important n’est pas d’avoir une vue naturellement parfaite, mais de pouvoir atteindre les normes grâce à une correction optique. Les pilotes qui portent des lunettes doivent simplement emporter une paire de secours dans le cockpit.Bien sûr, certaines conditions sont encadrées de près. Les lentilles de contact sont admises, mais pas la “monovision” (un œil corrigé pour le loin, l’autre pour le près), car elle perturbe la perception de la profondeur. La chirurgie réfractive, comme le LASIK, est également acceptée, à condition que la vision soit stabilisée et qu’il n’y ait pas de séquelles gênantes, comme des halos lumineux la nuit.Un autre point crucial est la vision des couleurs. Impossible de piloter sans distinguer clairement le rouge, le vert et le blanc : ce sont les couleurs des feux de navigation, des signaux lumineux ou encore des systèmes d’approche visuelle. Les candidats qui échouent aux tests classiques peuvent parfois prouver en situation réelle qu’ils reconnaissent bien ces signaux, mais sinon des restrictions s’appliquent, comme l’interdiction de voler de nuit.Enfin, la vision binoculaire et la perception de la profondeur sont indispensables pour estimer les distances, surtout lors des phases critiques comme l’atterrissage. Certaines pathologies, comme un strabisme important ou une perte du champ visuel, peuvent être éliminatoires.En somme, non, il n’est pas nécessaire d’avoir des yeux parfaits pour devenir pilote. Ce qui compte, c’est de respecter des normes précises, atteignables avec une bonne correction et un suivi médical. Et cela explique pourquoi de nombreux commandants de bord que nous croisons dans les avions de ligne portent… tout simplement des lunettes. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
L’expression française « finir en eau de boudin » signifie qu’une affaire qui semblait bien engagée tourne mal ou se termine de façon décevante, presque ridicule. Mais pourquoi associer ce dénouement à du « boudin » et surtout à de l’« eau » ?L’explication vient de la cuisine traditionnelle. Le boudin, qu’il soit noir ou blanc, est une charcuterie préparée en remplissant une enveloppe (souvent l’intestin du porc) avec un mélange à base de sang, de viande ou de lait. Pour que le boudin prenne, il faut le cuire dans de l’eau bouillante. Or, si la peau se perce pendant la cuisson, la farce s’échappe et se répand dans l’eau. Résultat : au lieu d’un bon boudin bien compact, on obtient une bouillie liquide, informe et inutilisable. On dit alors que tout est parti « en eau de boudin ».C’est cette image culinaire qui a nourri la métaphore. Un projet peut sembler solide au départ, mais au moment décisif, il se « perce », se délite, et finit par se dissoudre, tout comme le boudin raté dans sa casserole. L’expression est attestée dès le XVIIIᵉ siècle et a rapidement quitté les cuisines pour s’imposer dans le langage courant.Passons à la seconde expression: « de but en blanc ».Aujourd’hui elle erst utilisée pour désigner quelque chose qui est dit ou fait brusquement, sans préparation ni détour. Par exemple : « Il m’a demandé, de but en blanc, si je comptais démissionner ».Son origine, en revanche, est militaire et assez parlante.Au XVIᵉ siècle, le mot but désignait la cible en tir à l’arc ou en artillerie. Quant au mot blanc, il ne renvoie pas à la couleur banale, mais au point blanc peint ou marqué au centre de la cible, servant à viser avec précision. Le « blanc » était donc la partie la plus visible, la plus claire, que le tireur devait atteindre.L’expression « tirer de but en blanc » signifiait donc tirer directement sur la cible, à courte distance, sans calcul compliqué de trajectoire. L’idée était qu’à cette portée, le tir pouvait aller droit au but, sans correction. Peu à peu, le sens figuré est apparu : faire quelque chose franchement, sans détour, sans précaution.Dès le XVIIᵉ siècle, on retrouve cette formule dans des textes littéraires avec ce sens figuré. Aujourd’hui, l’expression a totalement perdu son lien avec les armes à feu, mais garde cette idée d’action directe et soudaine.En résumé, « de but en blanc » nous vient du vocabulaire du tir et signifie littéralement « droit sur la cible ». Transposé dans le langage courant, cela traduit une parole ou une action spontanée, sans préambule, qui surprend par sa franchise. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Aujourd’hui, quand on dit qu’un récipient est “hermétiquement fermé”, on pense à un couvercle parfaitement étanche, qu’aucune goutte d’air ou de liquide ne peut traverser. Mais l’histoire du mot est bien plus ancienne et surprenante : elle nous mène aux pratiques mystérieuses des alchimistes et au dieu grec Hermès.Dans l’Antiquité tardive et au Moyen Âge, l’alchimie se présentait comme une quête à la fois scientifique et spirituelle. Les alchimistes cherchaient à transformer les métaux, à fabriquer la pierre philosophale ou à atteindre l’immortalité. Leur savoir, souvent codé et réservé à quelques initiés, fut désigné par le terme hermétisme. Pourquoi ce nom ? Parce que leur tradition se réclamait d’Hermès Trismégiste, figure mythique associée à la sagesse. Ce personnage, mélange du dieu grec Hermès et du dieu égyptien Thot, était censé avoir transmis aux hommes des textes ésotériques décrivant les secrets du cosmos et de la matière.L’adjectif hermétique servait donc d’abord à qualifier tout ce qui se rapportait à cette doctrine occulte, réputée incompréhensible pour le commun des mortels. C’est de là qu’est né le sens figuré que nous connaissons encore : un discours “hermétique” est obscur, réservé aux initiés.Mais le mot a pris aussi un sens beaucoup plus concret grâce aux pratiques mêmes des alchimistes. Dans leurs laboratoires, ils utilisaient des bocaux et des cornues pour réaliser leurs expériences. Or, pour que leurs réactions chimiques aboutissent, il fallait absolument empêcher l’air extérieur de pénétrer et sceller parfaitement les récipients. Ils ont ainsi mis au point des techniques de fermeture avec de la cire, des soudures ou des scellements divers. On parlait alors de récipients “fermés à la manière des hermétistes”, autrement dit des alchimistes. Peu à peu, le terme “hermétique” a désigné non plus seulement un savoir secret, mais aussi un objet totalement clos, imperméable à l’air et à l’eau.C’est cette double filiation – symbolique et technique – qui explique la richesse du mot. L’hermétisme, doctrine ésotérique, a donné naissance à l’adjectif “hermétique” pour qualifier ce qui est obscur. Puis, par extension, et grâce aux méthodes pratiques de fermeture utilisées dans les laboratoires alchimiques, le terme a pris son sens moderne d’“étanche”.Ainsi, chaque fois que l’on ferme un bocal “hermétiquement”, on perpétue sans le savoir un héritage venu de l’alchimie et des mystères d’Hermès Trismégiste. Un mot du quotidien qui, derrière sa banalité, cache une histoire faite de mythes, de secrets et d’expériences en laboratoire. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Une étude conjointe des universités de Berkeley, Stanford et Harvard révèle un écart frappant : les femmes utilisent les outils d’IA environ 25 % de moins que les hommes. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
À première vue, tout semble les opposer. D’un côté, un fort militaire construit en pleine mer, au large des côtes de Charente-Maritime, devenu aujourd’hui un décor de jeu télévisé culte. De l’autre, un monument colossal offert par la France aux États-Unis en 1886, symbole universel de liberté et d’accueil. Pourtant, un lien discret mais bien réel unit Fort Boyard et la statue de la Liberté : la pierre dont ils sont en partie faits.Ce point commun, c’est la pierre de Crazannes. Extraite de carrières situées en Charente-Maritime, non loin de Rochefort, cette roche calcaire est réputée depuis des siècles pour sa qualité exceptionnelle. Blanche, fine et résistante, elle se taille facilement tout en supportant très bien les intempéries. Ces qualités en ont fait un matériau de choix pour de nombreux édifices, en France et ailleurs.Au XIXᵉ siècle, lorsqu’il fallut bâtir le socle monumental de la statue de la Liberté à New York, une partie des blocs de pierre acheminés provenait précisément de ces carrières charentaises. Ces pierres de Crazannes, taillées et expédiées par bateau, ont donc traversé l’Atlantique pour s’intégrer dans ce piédestal qui soutient encore aujourd’hui la célèbre statue conçue par Auguste Bartholdi et dont la structure métallique fut réalisée par Gustave Eiffel.Quelques décennies plus tôt, c’est déjà cette même pierre qui avait servi à l’édification de Fort Boyard. Commencé sous Napoléon Ier pour protéger l’arsenal de Rochefort, le chantier du fort a duré des décennies en raison des difficultés techniques et financières. Les blocs de Crazannes, extraits localement, ont été transportés par voie fluviale puis maritime jusqu’au banc de sable où s’élève aujourd’hui le fort. Sans cette pierre robuste, la construction d’un tel édifice au milieu des courants violents de l’Atlantique aurait été encore plus complexe.Ce double usage de la pierre de Crazannes crée donc un pont inattendu entre deux monuments très différents. Fort Boyard, isolé dans l’océan, est devenu un symbole régional et culturel français. La statue de la Liberté, quant à elle, est un emblème planétaire. Mais tous deux portent en eux un fragment de Charente-Maritime, une mémoire géologique qui témoigne de l’importance des carrières locales dans l’architecture mondiale.En somme, derrière le fort de pierre et la dame de cuivre se cache la même histoire : celle d’un calcaire blanc charentais, modeste dans son apparence, mais qui a contribué à bâtir deux icônes du patrimoine, l’une française, l’autre universelle. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
En 2019, à la foire d’art contemporain Art Basel Miami, un objet pour le moins surprenant attire les foules : une banane, fixée au mur avec un simple morceau de ruban adhésif gris. L’œuvre, baptisée Comedian, est signée par l’artiste italien Maurizio Cattelan, déjà connu pour son humour grinçant et ses provocations. Son prix ? Entre 120 000 et 150 000 dollars l’exemplaire. Trois versions de cette banane ont été vendues en quelques jours. Mais comment un fruit périssable, scotché à la va-vite, peut-il être considéré comme de l’art – et surtout, valoir une telle somme ?La clé réside dans la nature même de l’art contemporain. Depuis Marcel Duchamp et son urinoir (Fontaine, 1917), l’art ne se limite plus à la virtuosité technique ou à la beauté esthétique. Il peut être une idée, une provocation, un geste qui bouscule nos certitudes. Cattelan s’inscrit dans cette lignée : en choisissant un objet banal, universel, il met en lumière l’absurdité et parfois l’excentricité du marché de l’art. Ce n’est pas la banane qui a de la valeur en soi, mais le concept qu’elle incarne et la signature de l’artiste.La banane devient ainsi un symbole. Elle parle de consommation, d’éphémère (puisqu’elle pourrit), mais aussi du rôle de l’artiste dans une société où tout peut devenir œuvre d’art si le contexte l’y autorise. Acheter Comedian, ce n’est pas acheter un fruit et du scotch, c’est acheter l’idée, accompagnée d’un certificat d’authenticité. Si la banane noircit, il suffit d’en remplacer une autre : ce qui compte, c’est le geste de la scotcher, selon les instructions de Cattelan.L’événement a aussi généré un énorme buzz médiatique. La banane a été prise en photo par des milliers de visiteurs, reprise dans la presse mondiale, et même… mangée par un performeur, David Datuna, qui a baptisé son acte “Hungry Artist”. Cet épisode n’a fait qu’accroître la notoriété et la valeur symbolique de l’œuvre.En somme, Comedian illustre parfaitement la logique de l’art contemporain : provoquer, questionner, jouer avec les codes. Son prix astronomique n’est pas lié au coût des matériaux, mais à la puissance de l’idée, au nom de l’artiste, et à la frénésie spéculative du marché. Une banane scotchée au mur devient donc une œuvre d’art, parce qu’elle nous oblige à nous demander : qu’est-ce que l’art ? Et rien que pour cela, elle a déjà rempli sa mission. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Dans la langue française, les figures de style sont nombreuses et parfois si proches qu’on les confond. C’est le cas de la litote et de l’euphémisme. Toutes deux consistent à dire autrement ce que l’on pense, mais leurs intentions sont différentes. Pour bien comprendre, il faut les distinguer pas à pas.La litote est une figure d’amplification par atténuation. Cela paraît paradoxal, mais c’est simple : on dit moins pour suggérer plus. L’exemple le plus célèbre est celui de Corneille dans Le Cid, quand Chimène dit à Rodrigue : « Va, je ne te hais point ». Elle n’ose pas avouer son amour, alors elle l’exprime de façon atténuée, par la négation du contraire. En réalité, elle dit beaucoup plus fort « je t’aime » que si elle l’avait affirmé directement. On retrouve ce procédé dans le langage courant : « Ce n’est pas mauvais » signifie en fait « C’est bon » ; « Ce n’est pas idiot » équivaut à « C’est intelligent ». La litote renforce donc le sens en passant par une retenue.L’euphémisme, lui, suit une logique opposée. Son but n’est pas de renforcer, mais d’adoucir. On emploie un mot ou une formule plus douce pour évoquer une réalité jugée trop dure, trop crue ou trop brutale. Par exemple, dire « il nous a quittés » au lieu de « il est mort » ; « les personnes à mobilité réduite » au lieu de « les handicapés » ; ou encore « un plan social » au lieu de « licenciements ». Ici, il ne s’agit pas de suggérer plus, mais d’atténuer la charge émotionnelle ou négative. L’euphémisme sert donc à ménager la sensibilité de celui qui écoute, ou à rendre plus acceptable une réalité difficile.La confusion vient du fait que, dans les deux cas, on atténue le propos. Mais la finalité diffère. La litote est une stratégie rhétorique pour insister indirectement, amplifier par la retenue. L’euphémisme est un adoucissement, une manière de lisser ou d’édulcorer une réalité.On pourrait dire que la litote est une sorte de clin d’œil, une complicité avec l’auditeur : « Je ne dis pas tout, mais tu comprends bien ce que je veux dire ». L’euphémisme, lui, est une politesse du langage : « Je choisis des mots plus doux pour ne pas heurter ».En résumé, la litote suggère plus qu’elle ne dit, l’euphémisme dit moins pour choquer moins. L’une amplifie, l’autre adoucit. Et toutes deux montrent combien la langue française aime jouer avec les nuances. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Le système de notation sur 20 est tellement ancré en France qu’on a l’impression qu’il a toujours existé. Pourtant, il est relativement récent et s’inscrit dans une histoire précise de l’école française.Avant le XIXᵉ siècleJusqu’au début du XIXᵉ siècle, il n’existait pas de barème uniforme. Les maîtres utilisaient différentes façons d’évaluer : appréciations écrites (“bien”, “médiocre”, “à corriger”), classements des élèves par ordre de mérite, ou encore des notations sur des bases variables (sur 5, sur 10, voire sur 60 dans certaines écoles militaires).L’apparition du barème sur 20C’est en 1890 que le ministère de l’Instruction publique, sous la IIIᵉ République, impose officiellement la notation de 0 à 20 dans les lycées et collèges. L’idée était d’uniformiser les évaluations, notamment pour le baccalauréat, qui se généralisait comme examen national.Pourquoi 20 et pas 10 ou 100 ? Le choix est lié à la tradition française des fractions et des pourcentages : une note sur 20 permet une correspondance simple avec les pourcentages (10/20 = 50 %, 15/20 = 75 %, etc.). C’est un compromis pratique entre précision et simplicité.Son enracinement dans l’école françaisePeu à peu, ce barème devient la norme dans toutes les disciplines et à tous les niveaux. Il s’inscrit dans la logique républicaine de méritocratie : chacun est jugé selon un même standard, ce qui permet comparaisons, classements et concours.Débats et critiquesDès le XXᵉ siècle, des pédagogues critiquent ce système, jugé trop rigide et anxiogène. Certains pays européens ont choisi d’autres barèmes (sur 5 ou sur 6 en Allemagne et en Suisse, sur lettres aux États-Unis). En France aussi, des enseignants expérimentent parfois d’autres approches : évaluation par compétences, notes sur 10, ou suppression pure et simple des notes en primaire. Mais le “sur 20” reste extrêmement résistant, car il fait partie de la culture scolaire française et même de l’imaginaire collectif (qui ne connaît pas le fameux “zéro pointé” ?).En résuméOn donne donc officiellement des notes sur 20 depuis 1890, dans le cadre des réformes républicaines de l’école. Ce système est né d’un besoin d’uniformité et de lisibilité, et il est devenu un symbole durable de l’évaluation à la française Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Quand on pense aux symboles de la République française, l’image de Marianne s’impose immédiatement : une figure féminine coiffée du bonnet phrygien, incarnation de la liberté et de la nation. Les États-Unis, eux aussi, ont eu leur équivalent au XIXᵉ siècle : Columbia, une allégorie féminine qui personnifia longtemps l’Amérique avant que l’Oncle Sam ne lui vole la vedette.Le nom « Columbia » dérive de Christophe Colomb, perçu à l’époque comme le découvreur du Nouveau Monde. Dès la fin du XVIIIᵉ siècle, on utilise ce nom pour désigner poétiquement les États-Unis. Dans les discours, la poésie ou les chansons patriotiques, Columbia représente la jeune république américaine, indépendante de la Grande-Bretagne. On la retrouve notamment dans des vers de Philip Freneau ou dans des journaux politiques de la période révolutionnaire.Visuellement, Columbia prend la forme d’une femme noble, souvent drapée à l’antique comme une déesse grecque ou romaine. Comme Marianne, elle incarne à la fois la liberté, la vertu et la force de la nation. On la représente parfois avec une lance, un bouclier frappé de l’aigle américain, ou tenant la bannière étoilée. Elle est à la fois guerrière et protectrice, symbole d’une nation jeune mais ambitieuse.Tout au long du XIXᵉ siècle, Columbia devient omniprésente dans la culture populaire. On la voit sur les affiches de recrutement, les gravures, les caricatures politiques et même dans les salles de classe. Elle incarne l’idéalisme américain, le progrès, mais aussi l’expansion territoriale. Pendant la guerre de Sécession, on l’utilise pour symboliser l’unité retrouvée du pays. Après 1870, elle apparaît régulièrement aux côtés de « Brother Jonathan » (autre personnage symbolisant l’Américain ordinaire) avant que l’Oncle Sam ne s’impose définitivement comme figure nationale.Le cinéma a d’ailleurs prolongé ce mythe : le logo de la société Columbia Pictures, créé dans les années 1920, reprend cette figure féminine, debout, drapée comme une déesse, tenant une torche lumineuse. Preuve que, même si Columbia a perdu sa centralité politique, elle a survécu comme image culturelle durable.Pourquoi a-t-elle été éclipsée ? Au tournant du XXᵉ siècle, l’Oncle Sam, caricature masculine plus directe et plus identifiable, incarne mieux la puissance militaire et industrielle des États-Unis. Columbia, figure allégorique et classique, apparaissait peut-être trop abstraite face à une Amérique en pleine modernisation.En résumé, Columbia fut la Marianne américaine : une femme symbolisant liberté et république, héritière des mythes antiques, utilisée pour unir et inspirer la nation. Même oubliée, elle continue de briller à travers l’iconographie du cinéma et les archives d’une Amérique en quête de symboles. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Les théories du complot ont toujours fasciné : de l’assassinat de Kennedy aux supposés secrets cachés sur la Lune, elles attirent l’attention et s’enracinent dans l’opinion publique. Mais pourquoi notre cerveau semble-t-il si réceptif à ces récits parallèles ? Les neurosciences offrent plusieurs pistes pour comprendre ce phénomène.D’abord, notre cerveau est une formidable machine à détecter des schémas. Évolutivement, il valait mieux repérer trop de liens que pas assez : mieux vaut imaginer un prédateur caché dans les fourrés que de l’ignorer. Ce biais, appelé apophénie, pousse à voir des connexions et des intentions là où il n’y en a pas forcément. Les théories du complot exploitent cette tendance : elles donnent une cohérence apparente à des événements chaotiques.Ensuite, la dimension émotionnelle joue un rôle clé. Face à une catastrophe, comme un attentat ou une pandémie, accepter le hasard ou l’incompétence est psychologiquement difficile. Les théories du complot apportent une explication plus “satisfaisante” : si quelqu’un contrôle la situation, alors le monde reste prévisible. Cela réduit l’angoisse liée à l’incertitude, même si l’explication est fausse. Des études en imagerie cérébrale montrent que l’incertitude active l’amygdale, centre de la peur et de l’anxiété, tandis que les récits complotistes activent le cortex préfrontal, impliqué dans la recherche de sens et la rationalisation.De plus, croire aux complots répond à un besoin identitaire. Se sentir détenteur d’un savoir “caché” procure un sentiment de supériorité et d’appartenance à une communauté éclairée, contre la masse des “naïfs”. Sur le plan neurologique, cela stimule les circuits de la récompense dopaminergiques, semblables à ceux activés par les réseaux sociaux : notre cerveau aime se sentir unique et valorisé.Une étude publiée en 2019 dans Nature Human Behaviour par Roland Imhoff et Martin Bruder montre que l’adhésion aux théories du complot est fortement liée au besoin de certitude et de singularité. Les chercheurs soulignent que plus une personne ressent un manque de contrôle, plus elle est susceptible d’accepter des récits complotistes qui rétablissent une illusion d’ordre.En somme, notre attirance pour les théories du complot n’est pas due à un défaut d’intelligence, mais à la manière dont notre cerveau traite l’incertitude, l’anxiété et le besoin de sens. Elles exploitent des mécanismes neuronaux anciens : la détection de schémas, la gestion de la peur, et la recherche de reconnaissance sociale. Autrement dit, le complotisme est une réponse naturelle de notre cerveau… mais pas forcément une réponse rationnelle. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Le terme barebacking vient de l’anglais et signifie littéralement « monter à cru », une image équestre reprise dans le domaine de la sexualité. Dans ce contexte, il désigne les rapports sexuels anaux entre hommes sans préservatif, en particulier lorsqu’ils sont pratiqués de manière délibérée et recherchée, malgré les risques connus de transmission d’infections sexuellement transmissibles (IST), notamment le VIH.Le barebacking est apparu comme phénomène social et culturel dans les années 1990, dans certains milieux homosexuels occidentaux. Avec l’arrivée des trithérapies antirétrovirales, qui ont transformé le VIH d’une maladie souvent mortelle en une affection chronique mieux contrôlée, une partie de la communauté a relâché la stricte discipline du préservatif. Pour certains, le barebacking est associé à une recherche de plaisir « pur », sans barrière, mais aussi à une quête d’intimité et de confiance. Le préservatif est alors perçu comme un obstacle, à la fois physique et symbolique.Mais cette pratique reste très controversée. Du point de vue médical, elle accroît considérablement le risque de transmission du VIH et d’autres IST comme la syphilis, l’hépatite C ou la gonorrhée. Les autorités de santé considèrent le barebacking comme un comportement à haut risque. Ce qui alimente le débat, c’est qu’il existe aussi une dimension politique et identitaire : pour certains hommes, le choix du barebacking relève d’une affirmation de liberté sexuelle et d’un rejet des normes imposées par la prévention classique.Depuis les années 2010, la polémique a pris une nouvelle tournure avec l’arrivée des outils de prévention biomédicale comme la PrEP (prophylaxie pré-exposition). Cette stratégie consiste à prendre un traitement antirétroviral préventif pour réduire de façon drastique le risque de contracter le VIH. Associée à la charge virale indétectable chez les personnes séropositives sous traitement, elle a contribué à redéfinir le paysage des pratiques sexuelles. Certains défendent donc l’idée que le barebacking peut être pratiqué de façon « sécurisée » si ces dispositifs sont utilisés, même si cela n’élimine pas les risques liés aux autres infections.Enfin, il existe aussi une dimension psychologique et parfois transgressive : pour une minorité, le barebacking peut être associé à un fantasme de danger, voire à des pratiques extrêmes comme le bug chasing (chercher volontairement la contamination). Ces comportements restent marginaux, mais ils participent à l’image sulfureuse du phénomène.En résumé, le barebacking n’est pas seulement une pratique sexuelle : c’est un objet de controverse où s’entremêlent plaisir, liberté individuelle, risques sanitaires et enjeux de santé publique. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Dans notre langage quotidien, on utilise souvent les mots « sexe » et « genre » comme s’ils étaient interchangeables. Pourtant, en sciences humaines comme en biologie, ces deux notions ne désignent pas la même réalité. Comprendre cette différence est essentiel pour saisir les débats actuels autour de l’identité, des droits et de la société.Le sexe, d’abord, relève de la biologie. Il désigne l’ensemble des caractéristiques physiques et physiologiques qui distinguent le mâle et la femelle chez l’espèce humaine : chromosomes, organes reproducteurs, hormones, caractéristiques sexuelles secondaires comme la pilosité ou la voix. En résumé, le sexe est déterminé par la nature et observé à la naissance. Mais même là, la réalité est plus complexe qu’on ne l’imagine : certaines personnes naissent intersexes, avec des caractéristiques biologiques qui ne correspondent pas strictement aux catégories « mâle » ou « femelle ».Le genre, lui, est une construction sociale et culturelle. Il désigne les rôles, les comportements et les représentations qu’une société associe au fait d’être masculin ou féminin. Être un « homme » ou une « femme » dans une culture donnée implique des attentes : comment on s’habille, quelle profession on exerce, quelles attitudes on adopte. Or ces normes varient selon les époques et les cultures. Ce qui est considéré comme « masculin » dans une société peut être vu comme « féminin » ailleurs.Ainsi, si le sexe se rapporte au corps, le genre se rapporte aux significations que les sociétés attribuent à ce corps. Par exemple, biologiquement, rien n’empêche une femme de devenir médecin ou une homme de s’occuper des enfants à la maison. Mais pendant longtemps, les stéréotypes de genre ont assigné ces rôles différemment.Aujourd’hui, la distinction entre sexe et genre permet de mieux comprendre les débats autour des identités de genre. Certaines personnes peuvent se reconnaître dans un genre qui ne correspond pas à leur sexe biologique, d’autres se définir en dehors du cadre binaire homme/femme. Ces réalités interrogent nos catégories habituelles et bousculent les repères.Être pédagogue, c’est rappeler que distinguer sexe et genre n’efface pas les différences biologiques, mais met en lumière le poids de la culture et des normes sociales. Cela permet d’éviter les confusions et d’ouvrir un espace de dialogue plus nuancé, où l’on reconnaît à la fois la diversité des corps et celle des identités. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
On l’entend souvent dans les manuels scolaires, les débats politiques ou les conversations de café : Louis XIV, le Roi-Soleil, aurait proclamé un jour, plein de superbe, « L’État, c’est moi ». La formule est devenue l’illustration parfaite de l’absolutisme royal, comme si elle condensait à elle seule l’idée que le roi se confondait avec la nation. Mais la vérité est plus subtile… et bien différente.D’abord, aucun texte sérieux ne rapporte que Louis XIV ait prononcé ces mots. On ne les trouve dans aucune correspondance, aucun discours officiel, aucun témoignage direct de ses contemporains. Cette phrase apparaît bien plus tard, et relève de ce que les historiens appellent une attribution apocryphe, autrement dit inventée. L’idée était trop belle pour ne pas être reprise : un roi qui concentre tous les pouvoirs, se voyant au-dessus de tout, cela collait parfaitement à l’image qu’on se faisait de lui.Pourtant, Louis XIV n’a pas manqué de rappeler la distinction entre sa personne et l’État. À la fin de sa vie, peu avant de mourir en 1715, il aurait déclaré à son arrière-petit-fils, le futur Louis XV : « Je m’en vais, mais l’État demeurera toujours. » Cette phrase, au contraire de la légende, montre une conscience de la pérennité des institutions au-delà du souverain. Le monarque, même absolu, se voyait comme un maillon d’une longue chaîne, et non comme l’État lui-même.D’où vient alors cette célèbre citation ? Beaucoup pensent qu’elle a été forgée plus tard, au XIXᵉ siècle, par des historiens ou des pamphlétaires qui voulaient caricaturer l’absolutisme. Elle résume bien la philosophie politique de l’Ancien Régime – où le roi concentrait l’exécutif, le législatif et le judiciaire –, mais elle n’est pas authentique. C’est un peu comme si la légende avait dépassé la réalité.Ainsi, « L’État, c’est moi » n’est pas la confession orgueilleuse d’un roi, mais plutôt une invention qui traduit l’image que la postérité s’est faite de Louis XIV. Ce dernier, certes, incarnait la monarchie absolue et concentrait un pouvoir immense, mais il n’a jamais prétendu être l’État. La nuance est de taille : ce sont les hommes qui passent, mais les institutions, elles, demeurent. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Quand on pense aux drapeaux nationaux, on imagine presque toujours un rectangle. Pourtant, la Suisse fait figure d’exception : son drapeau est carré. Ce détail, qui attire souvent la curiosité, a des racines historiques et symboliques profondes.L’origine du drapeau suisse remonte au Moyen Âge. Dès le XIVᵉ siècle, lors des batailles menées par la Confédération helvétique naissante, les soldats portaient une croix blanche cousue sur leurs vêtements ou bannières rouges. Cette croix n’était pas un emblème religieux, mais un signe distinctif permettant de se reconnaître au milieu des combats. Progressivement, cette croix blanche sur fond rouge est devenue l’un des symboles de l’unité helvétique.Le choix du format carré s’explique par l’usage militaire. Les enseignes de guerre médiévales suisses étaient carrées ou presque carrées, plus faciles à manier sur les champs de bataille et adaptées aux piques et hallebardes portées par les fantassins. Ce format s’est transmis à travers les siècles, au point de devenir une marque d’identité visuelle.Ce n’est toutefois qu’au XIXᵉ siècle, avec la création de l’État fédéral moderne en 1848, que le drapeau suisse a été officialisé dans sa forme actuelle : un carré rouge orné en son centre d’une croix blanche aux branches égales et élargies. Cette codification visait à distinguer la Suisse sur la scène internationale, notamment après le Congrès de Vienne (1815) où sa neutralité avait été reconnue.Aujourd’hui, la Suisse partage cette particularité avec un seul autre État : le Vatican, dont le drapeau est également carré. Partout ailleurs, les drapeaux nationaux sont rectangulaires, ce qui rend celui de la Suisse immédiatement reconnaissable. Fait amusant : lors des compétitions sportives ou dans certaines institutions internationales, on représente parfois le drapeau suisse en format rectangulaire pour des raisons pratiques. Mais la version officielle reste bien le carré.Le drapeau suisse a aussi inspiré d’autres symboles universels. Le plus célèbre est celui de la Croix-Rouge : créée à Genève en 1863, l’organisation a adopté comme emblème une croix rouge sur fond blanc, soit l’inverse exact du drapeau national. Ce choix illustre combien ce petit carré rouge frappé d’une croix blanche est associé, dans le monde entier, à des valeurs de neutralité, de protection et d’assistance.En résumé, le drapeau suisse est carré parce qu’il hérite de traditions militaires médiévales et parce qu’il a été officialisé ainsi au XIXᵉ siècle. Cette singularité géométrique en fait l’un des emblèmes les plus distinctifs au monde, à la fois simple, ancien et immédiatement identifiable. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Dans l’Univers, les éléments chimiques ne sont pas tous apparus en même temps. Les plus légers (comme l’hydrogène et l’hélium) se sont formés dès le Big Bang. Mais pour les éléments lourds, comme l’or, il a fallu des événements beaucoup plus violents. Pendant longtemps, on a cru qu’ils se formaient uniquement dans les supernovæ, ces explosions d’étoiles massives en fin de vie. Aujourd’hui, grâce aux observations récentes, on sait que l’or naît surtout lors de la fusion d’étoiles à neutrons, des astres ultra-denses qui entrent en collision et libèrent une énergie colossale. Ces événements rarissimes projettent dans l’espace des quantités énormes de métaux précieux, dont l’or.Comment l’or est arrivé sur TerreQuand notre planète s’est formée, il y a environ 4,5 milliards d’années, l’or était déjà présent dans le nuage de gaz et de poussières qui a donné naissance au Système solaire. Mais la Terre primitive, encore en fusion, a fait « couler » la majorité de son or vers le noyau, trop profond pour être accessible. Celui que nous exploitons aujourd’hui provient en grande partie d’un autre apport : celui des météorites, tombées sur la Terre plusieurs centaines de millions d’années après sa formation, au moment de ce que les géologues appellent le « grand bombardement tardif ».Pourquoi l’or est si particulierL’or est rare, mais pas inexistant. Sa particularité chimique – il ne s’oxyde pas, ne se ternit pas, et se travaille facilement – a fait qu’il a été perçu très tôt par les humains comme une matière précieuse, idéale pour symboliser le pouvoir, la richesse et la pérennité. C’est aussi pour cela qu’il est devenu une base monétaire dans de nombreuses civilisations.En résumé, l’or que l’on porte en bijou ou que l’on garde dans les coffres ne vient pas de la Terre… mais d’événements cataclysmiques ayant eu lieu dans l’espace, il y a des milliards d’années. Chaque gramme d’or est en fait un morceau de collision stellaire, arrivé jusqu’à nous après un très long voyage cosmique. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
vous parlez trop vite.
c’est choquant les chiffre je pensais pas que c’était possible. Après tour dépend de ce que on entend par viol si c’est vraiment dans le lit la c'est juste choquant et pas normal ou si c’est une tape sur les partie,un bisou forcé, des gestes déplacer là les chiffres sont moins choquant mais un peu quand même
L'idéologie Wok quand elle s'éteindra, aura eu au moins un mérite aux yeux de ceux qui ont un minimum de culture historique. c'est de montrer que l'histoire est écrite par les vainqueurs du moment et qu'elle a toujours été falsifiée; par les empires, par le Vatican sous la monarchie et jusqu'à aujourd'hui et par la république jusqu'à nos jours...
C'est absolument faux! Hitler était catholique et le fondateur de la SS Heinrich Himmler avait été jésuite... C'est juste de la propagande catholique pour dédouaner le Vatican...
publicités insupportables qui se répètent toutes les 2 minutes. l'émission perd tout son intérêt. dommage.
🫱🏼🫲🏻
😂😂
هو تةةةةةةةةةيرررررررررتتؤيءgw
يرؤرؤرررءيرىىىىىىىلارؤؤؤؤ سوت وتوتر
Êtes-vous sûr que ces techniques ne sont pas inspirées à l origine des méthodes françaises durant la guerre d Algérie ??
merci pour votre podcast! vous êtes une source importante pour améliorer notre savoir🤗❤️
J'adore Choses à savoir ! 🤓
C'est bzzigrement intéressant !
Très intéressant merci beaucoup ❤️
on dirait le malade imaginaire. et d'autres conte du même genre.
7
Je crois que ce fact est faux
hyper intéressant
Podcast sympa mais trop d'approximations... dans le genre, je préfère largement le podcast Culture G
Merci pour ce sujet passionnant.peut on le retrouver en ligne ?