Discover
Pourquoi donc ?

Pourquoi donc ?
Author: Choses à Savoir
Subscribed: 4,667Played: 347,232Subscribe
Share
© Choses à Savoir
Description
Je réponds de façon claire et directe à toutes les questions essentielles, en une minute chrono !
Si vous cherchez le podcast Petits Curieux, c'est par ici: https://chosesasavoir.com/podcast/petits-curieux-2/
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
898 Episodes
Reverse
En 2019, à la foire d’art contemporain Art Basel Miami, un objet pour le moins surprenant attire les foules : une banane, fixée au mur avec un simple morceau de ruban adhésif gris. L’œuvre, baptisée Comedian, est signée par l’artiste italien Maurizio Cattelan, déjà connu pour son humour grinçant et ses provocations. Son prix ? Entre 120 000 et 150 000 dollars l’exemplaire. Trois versions de cette banane ont été vendues en quelques jours. Mais comment un fruit périssable, scotché à la va-vite, peut-il être considéré comme de l’art – et surtout, valoir une telle somme ?La clé réside dans la nature même de l’art contemporain. Depuis Marcel Duchamp et son urinoir (Fontaine, 1917), l’art ne se limite plus à la virtuosité technique ou à la beauté esthétique. Il peut être une idée, une provocation, un geste qui bouscule nos certitudes. Cattelan s’inscrit dans cette lignée : en choisissant un objet banal, universel, il met en lumière l’absurdité et parfois l’excentricité du marché de l’art. Ce n’est pas la banane qui a de la valeur en soi, mais le concept qu’elle incarne et la signature de l’artiste.La banane devient ainsi un symbole. Elle parle de consommation, d’éphémère (puisqu’elle pourrit), mais aussi du rôle de l’artiste dans une société où tout peut devenir œuvre d’art si le contexte l’y autorise. Acheter Comedian, ce n’est pas acheter un fruit et du scotch, c’est acheter l’idée, accompagnée d’un certificat d’authenticité. Si la banane noircit, il suffit d’en remplacer une autre : ce qui compte, c’est le geste de la scotcher, selon les instructions de Cattelan.L’événement a aussi généré un énorme buzz médiatique. La banane a été prise en photo par des milliers de visiteurs, reprise dans la presse mondiale, et même… mangée par un performeur, David Datuna, qui a baptisé son acte “Hungry Artist”. Cet épisode n’a fait qu’accroître la notoriété et la valeur symbolique de l’œuvre.En somme, Comedian illustre parfaitement la logique de l’art contemporain : provoquer, questionner, jouer avec les codes. Son prix astronomique n’est pas lié au coût des matériaux, mais à la puissance de l’idée, au nom de l’artiste, et à la frénésie spéculative du marché. Une banane scotchée au mur devient donc une œuvre d’art, parce qu’elle nous oblige à nous demander : qu’est-ce que l’art ? Et rien que pour cela, elle a déjà rempli sa mission. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Le système de notation sur 20 est tellement ancré en France qu’on a l’impression qu’il a toujours existé. Pourtant, il est relativement récent et s’inscrit dans une histoire précise de l’école française.Avant le XIXᵉ siècleJusqu’au début du XIXᵉ siècle, il n’existait pas de barème uniforme. Les maîtres utilisaient différentes façons d’évaluer : appréciations écrites (“bien”, “médiocre”, “à corriger”), classements des élèves par ordre de mérite, ou encore des notations sur des bases variables (sur 5, sur 10, voire sur 60 dans certaines écoles militaires).L’apparition du barème sur 20C’est en 1890 que le ministère de l’Instruction publique, sous la IIIᵉ République, impose officiellement la notation de 0 à 20 dans les lycées et collèges. L’idée était d’uniformiser les évaluations, notamment pour le baccalauréat, qui se généralisait comme examen national.Pourquoi 20 et pas 10 ou 100 ? Le choix est lié à la tradition française des fractions et des pourcentages : une note sur 20 permet une correspondance simple avec les pourcentages (10/20 = 50 %, 15/20 = 75 %, etc.). C’est un compromis pratique entre précision et simplicité.Son enracinement dans l’école françaisePeu à peu, ce barème devient la norme dans toutes les disciplines et à tous les niveaux. Il s’inscrit dans la logique républicaine de méritocratie : chacun est jugé selon un même standard, ce qui permet comparaisons, classements et concours.Débats et critiquesDès le XXᵉ siècle, des pédagogues critiquent ce système, jugé trop rigide et anxiogène. Certains pays européens ont choisi d’autres barèmes (sur 5 ou sur 6 en Allemagne et en Suisse, sur lettres aux États-Unis). En France aussi, des enseignants expérimentent parfois d’autres approches : évaluation par compétences, notes sur 10, ou suppression pure et simple des notes en primaire. Mais le “sur 20” reste extrêmement résistant, car il fait partie de la culture scolaire française et même de l’imaginaire collectif (qui ne connaît pas le fameux “zéro pointé” ?).En résuméOn donne donc officiellement des notes sur 20 depuis 1890, dans le cadre des réformes républicaines de l’école. Ce système est né d’un besoin d’uniformité et de lisibilité, et il est devenu un symbole durable de l’évaluation à la française Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Les théories du complot ont toujours fasciné : de l’assassinat de Kennedy aux supposés secrets cachés sur la Lune, elles attirent l’attention et s’enracinent dans l’opinion publique. Mais pourquoi notre cerveau semble-t-il si réceptif à ces récits parallèles ? Les neurosciences offrent plusieurs pistes pour comprendre ce phénomène.D’abord, notre cerveau est une formidable machine à détecter des schémas. Évolutivement, il valait mieux repérer trop de liens que pas assez : mieux vaut imaginer un prédateur caché dans les fourrés que de l’ignorer. Ce biais, appelé apophénie, pousse à voir des connexions et des intentions là où il n’y en a pas forcément. Les théories du complot exploitent cette tendance : elles donnent une cohérence apparente à des événements chaotiques.Ensuite, la dimension émotionnelle joue un rôle clé. Face à une catastrophe, comme un attentat ou une pandémie, accepter le hasard ou l’incompétence est psychologiquement difficile. Les théories du complot apportent une explication plus “satisfaisante” : si quelqu’un contrôle la situation, alors le monde reste prévisible. Cela réduit l’angoisse liée à l’incertitude, même si l’explication est fausse. Des études en imagerie cérébrale montrent que l’incertitude active l’amygdale, centre de la peur et de l’anxiété, tandis que les récits complotistes activent le cortex préfrontal, impliqué dans la recherche de sens et la rationalisation.De plus, croire aux complots répond à un besoin identitaire. Se sentir détenteur d’un savoir “caché” procure un sentiment de supériorité et d’appartenance à une communauté éclairée, contre la masse des “naïfs”. Sur le plan neurologique, cela stimule les circuits de la récompense dopaminergiques, semblables à ceux activés par les réseaux sociaux : notre cerveau aime se sentir unique et valorisé.Une étude publiée en 2019 dans Nature Human Behaviour par Roland Imhoff et Martin Bruder montre que l’adhésion aux théories du complot est fortement liée au besoin de certitude et de singularité. Les chercheurs soulignent que plus une personne ressent un manque de contrôle, plus elle est susceptible d’accepter des récits complotistes qui rétablissent une illusion d’ordre.En somme, notre attirance pour les théories du complot n’est pas due à un défaut d’intelligence, mais à la manière dont notre cerveau traite l’incertitude, l’anxiété et le besoin de sens. Elles exploitent des mécanismes neuronaux anciens : la détection de schémas, la gestion de la peur, et la recherche de reconnaissance sociale. Autrement dit, le complotisme est une réponse naturelle de notre cerveau… mais pas forcément une réponse rationnelle. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Dans notre langage quotidien, on utilise souvent les mots « sexe » et « genre » comme s’ils étaient interchangeables. Pourtant, en sciences humaines comme en biologie, ces deux notions ne désignent pas la même réalité. Comprendre cette différence est essentiel pour saisir les débats actuels autour de l’identité, des droits et de la société.Le sexe, d’abord, relève de la biologie. Il désigne l’ensemble des caractéristiques physiques et physiologiques qui distinguent le mâle et la femelle chez l’espèce humaine : chromosomes, organes reproducteurs, hormones, caractéristiques sexuelles secondaires comme la pilosité ou la voix. En résumé, le sexe est déterminé par la nature et observé à la naissance. Mais même là, la réalité est plus complexe qu’on ne l’imagine : certaines personnes naissent intersexes, avec des caractéristiques biologiques qui ne correspondent pas strictement aux catégories « mâle » ou « femelle ».Le genre, lui, est une construction sociale et culturelle. Il désigne les rôles, les comportements et les représentations qu’une société associe au fait d’être masculin ou féminin. Être un « homme » ou une « femme » dans une culture donnée implique des attentes : comment on s’habille, quelle profession on exerce, quelles attitudes on adopte. Or ces normes varient selon les époques et les cultures. Ce qui est considéré comme « masculin » dans une société peut être vu comme « féminin » ailleurs.Ainsi, si le sexe se rapporte au corps, le genre se rapporte aux significations que les sociétés attribuent à ce corps. Par exemple, biologiquement, rien n’empêche une femme de devenir médecin ou une homme de s’occuper des enfants à la maison. Mais pendant longtemps, les stéréotypes de genre ont assigné ces rôles différemment.Aujourd’hui, la distinction entre sexe et genre permet de mieux comprendre les débats autour des identités de genre. Certaines personnes peuvent se reconnaître dans un genre qui ne correspond pas à leur sexe biologique, d’autres se définir en dehors du cadre binaire homme/femme. Ces réalités interrogent nos catégories habituelles et bousculent les repères.Être pédagogue, c’est rappeler que distinguer sexe et genre n’efface pas les différences biologiques, mais met en lumière le poids de la culture et des normes sociales. Cela permet d’éviter les confusions et d’ouvrir un espace de dialogue plus nuancé, où l’on reconnaît à la fois la diversité des corps et celle des identités. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Dans l’Univers, les éléments chimiques ne sont pas tous apparus en même temps. Les plus légers (comme l’hydrogène et l’hélium) se sont formés dès le Big Bang. Mais pour les éléments lourds, comme l’or, il a fallu des événements beaucoup plus violents. Pendant longtemps, on a cru qu’ils se formaient uniquement dans les supernovæ, ces explosions d’étoiles massives en fin de vie. Aujourd’hui, grâce aux observations récentes, on sait que l’or naît surtout lors de la fusion d’étoiles à neutrons, des astres ultra-denses qui entrent en collision et libèrent une énergie colossale. Ces événements rarissimes projettent dans l’espace des quantités énormes de métaux précieux, dont l’or.Comment l’or est arrivé sur TerreQuand notre planète s’est formée, il y a environ 4,5 milliards d’années, l’or était déjà présent dans le nuage de gaz et de poussières qui a donné naissance au Système solaire. Mais la Terre primitive, encore en fusion, a fait « couler » la majorité de son or vers le noyau, trop profond pour être accessible. Celui que nous exploitons aujourd’hui provient en grande partie d’un autre apport : celui des météorites, tombées sur la Terre plusieurs centaines de millions d’années après sa formation, au moment de ce que les géologues appellent le « grand bombardement tardif ».Pourquoi l’or est si particulierL’or est rare, mais pas inexistant. Sa particularité chimique – il ne s’oxyde pas, ne se ternit pas, et se travaille facilement – a fait qu’il a été perçu très tôt par les humains comme une matière précieuse, idéale pour symboliser le pouvoir, la richesse et la pérennité. C’est aussi pour cela qu’il est devenu une base monétaire dans de nombreuses civilisations.En résumé, l’or que l’on porte en bijou ou que l’on garde dans les coffres ne vient pas de la Terre… mais d’événements cataclysmiques ayant eu lieu dans l’espace, il y a des milliards d’années. Chaque gramme d’or est en fait un morceau de collision stellaire, arrivé jusqu’à nous après un très long voyage cosmique. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Imaginez cette situation : vous réussissez un examen difficile. Tout de suite, vous pensez : « J’ai travaillé dur, j’étais bien préparé, je suis intelligent. » Mais si, à l’inverse, vous échouez, il est tentant de se dire : « Le sujet était trop compliqué, le professeur a été injuste, j’ai manqué de chance. » Ce mécanisme porte un nom : le biais d’auto-complaisance.Ce biais est une tendance psychologique universelle : nous attribuons nos réussites à nos qualités personnelles, et nos échecs à des facteurs extérieurs. C’est une manière de protéger notre estime de soi. Après tout, il est plus agréable de se voir comme compétent et de rejeter la responsabilité de nos erreurs sur les circonstances.Les chercheurs en psychologie sociale ont étudié ce phénomène dès les années 1970. Ils ont montré que, dans des expériences contrôlées, les participants avaient systématiquement tendance à revendiquer leurs succès comme mérités, tout en minimisant leur part de responsabilité dans leurs échecs. Par exemple, un étudiant qui obtient une bonne note pensera que c’est grâce à son intelligence, mais si la note est mauvaise, il accusera l’examinateur ou le manque de temps.Ce biais n’est pas seulement individuel : il se retrouve aussi au niveau des groupes. Une équipe sportive victorieuse mettra en avant son talent, sa cohésion, son travail acharné. Mais si elle perd, elle parlera de l’arbitre, du terrain ou du mauvais temps. Dans le monde de l’entreprise, c’est pareil : un projet réussi est attribué à la stratégie et au leadership ; un échec, à la crise économique ou à la concurrence déloyale.Pourquoi agit-on ainsi ? Parce que notre cerveau cherche à maintenir une image positive de nous-mêmes. C’est une sorte de mécanisme de défense psychologique. Il nous aide à garder confiance, à ne pas nous effondrer face aux difficultés. Mais ce confort a un prix : le biais d’auto-complaisance nous empêche parfois de tirer les bonnes leçons de nos erreurs. Si tout est toujours la faute des autres, il devient plus difficile de progresser.Être conscient de ce biais est déjà un premier pas pour le limiter. Accepter qu’un échec peut venir aussi de nos choix, de notre préparation ou de nos limites, ce n’est pas se rabaisser : c’est se donner une chance de s’améliorer. De même, reconnaître que parfois la chance ou les circonstances jouent dans nos succès, c’est garder une humilité précieuse.Ainsi, comprendre le biais d’auto-complaisance, c’est apprendre à mieux évaluer nos réussites et nos échecs, et donc à mieux grandir. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
C’est une question qui intrigue, parfois dérange : où s’arrête la religion et où commence la secte ? Les deux semblent partager beaucoup de points communs : des croyances, des rituels, des chefs spirituels, des fidèles. Pourtant, dans notre imaginaire collectif, la religion est perçue comme respectable, intégrée, presque « normale », tandis que la secte inspire méfiance, voire peur.Historiquement, le mot « secte » n’avait rien de péjoratif. Dans la Rome antique, il désignait simplement un « courant » ou une « école de pensée ». Les stoïciens, les épicuriens, c’étaient des sectes philosophiques. Mais au fil du temps, le terme a pris une connotation négative, notamment avec l’essor du christianisme. Les premières communautés chrétiennes étaient elles-mêmes vues comme une secte par les Romains ! Ce qui montre bien que la frontière est mouvante et dépend du regard social.Alors, qu’est-ce qui fait la différence aujourd’hui ?La religion, au sens classique, rassemble un grand nombre d’adeptes sur une longue durée. Elle s’institutionnalise : elle a une organisation, une hiérarchie, un corpus de textes et surtout une reconnaissance sociale et culturelle. Le christianisme, l’islam, le bouddhisme… toutes ces religions sont ancrées dans l’histoire et reconnues par les États. Elles se transmettent de génération en génération.La secte, elle, est perçue comme marginale et fermée. Souvent centrée autour d’un gourou charismatique, elle fonctionne sur un rapport d’autorité très fort et peut exercer un contrôle sur la vie intime de ses membres : choix de vie, relations familiales, argent. Ce n’est pas tant le contenu des croyances qui la distingue, mais la manière dont elles sont imposées. En France, par exemple, une commission parlementaire a défini des critères : manipulation mentale, isolement social, rupture avec l’entourage, dérives financières ou sexuelles. Ce sont ces pratiques qui font basculer un groupe spirituel dans la catégorie « secte ».Mais la ligne reste floue. Car une religion universellement reconnue aujourd’hui a pu être qualifiée de secte hier. Et certains défenseurs de petites communautés spirituelles dénoncent une stigmatisation injuste. Finalement, la différence n’est pas seulement théologique ou organisationnelle, elle est aussi politique et sociale : une religion est une secte qui a « réussi », disent certains sociologues.Alors, religion ou secte ? La réponse dépend souvent du point de vue, du contexte historique et de la reconnaissance institutionnelle. Une chose est sûre : cette frontière, instable, révèle surtout combien la croyance est un phénomène humain, toujours en mouvement, oscillant entre quête de sens et besoin d’encadrement. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Imaginez l’Europe scientifique des années 1920. À cette époque, la plupart des savants sont convaincus que l’univers est figé, éternel, immuable. Pourtant, dans un petit bureau de Louvain, en Belgique, un homme s’apprête à bouleverser cette certitude. Cet homme, c’est Georges Lemaître. Fait singulier : il est à la fois prêtre catholique et brillant physicien.Lemaître lit avec passion les travaux d’Einstein sur la relativité générale. En parallèle, il suit avec intérêt les observations de certains astronomes, qui montrent que la lumière des galaxies lointaines semble « tirée » vers le rouge : un indice que ces galaxies s’éloignent. Alors, une idée surgit : et si l’univers tout entier était en expansion ?En 1927, il publie une hypothèse qui va faire scandale. Si l’univers s’agrandit aujourd’hui, c’est qu’en remontant le temps, il devait être jadis concentré en un seul point, incroyablement dense et chaud. Lemaître parle d’« atome primitif » : une minuscule graine contenant toute la matière et l’énergie, avant de se fragmenter pour donner naissance au cosmos. C’est la première ébauche de ce qu’on appellera, bien plus tard, le Big Bang.La communauté scientifique est partagée. Einstein lui-même, lorsqu’il découvre cette théorie, admet qu’elle est « élégante », mais il n’y croit pas. Et en 1949, un rival, Fred Hoyle, qui défendait l’idée d’un univers éternel, se moque à la radio en parlant de « Big Bang ». Un sobriquet ironique… qui deviendra le nom officiel.Mais il y a un détail qui intrigue le grand public : Lemaître est prêtre. Un homme de foi qui propose une origine à l’univers ? Cela ressemble trop à la Création racontée par la Bible. Le Vatican s’en réjouit et tente même de faire de cette théorie une confirmation scientifique de la Genèse. Mais Lemaître s’y oppose fermement. Pour lui, la science explique le « comment » du monde, et la religion le « pourquoi ». Jamais il ne voulait que ses équations servent de preuve théologique.La suite appartient à l’histoire. En 1965, deux ingénieurs américains découvrent par hasard un bruit étrange capté par leur antenne. Ce « bruit », c’est en réalité le rayonnement fossile, l’écho lumineux de l’explosion initiale. Dès lors, la théorie de Lemaître devient incontournable.Ainsi, derrière l’une des idées les plus révolutionnaires du XXᵉ siècle se cache un homme à la double vocation. Un savant qui, en conciliant rigueur scientifique et foi personnelle, a montré que les chemins de la vérité pouvaient se croiser… sans jamais se confondre. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Au tout début du XXᵉ siècle, un chien fit beaucoup parler de lui dans la capitale française. C’était un Terre-Neuve, une race réputée pour sa puissance, son endurance et son instinct de sauvetage. En février 1908, le New York Times relata une histoire aussi héroïque qu’étonnante : ce chien semblait sauver régulièrement des enfants tombés dans la Seine.Le premier épisode paraissait banal. Un jeune garçon, emporté par les eaux glacées du fleuve, fut secouru par l’animal. Le chien plongea, agrippa l’enfant et le ramena sur la berge. Les témoins, admiratifs, acclamèrent le sauvetage. Le père de l’enfant, soulagé, remercia le Terre-Neuve par un repas royal : un steak.Deux jours plus tard, la scène se répéta presque à l’identique. Un autre enfant tomba, un autre sauvetage héroïque eut lieu, et une nouvelle récompense fut offerte. À partir de là, les « noyades accidentelles » se multiplièrent. Chaque jour ou presque, le chien se jetait courageusement à l’eau pour ramener un enfant au sec. La presse s’enflamma, et l’animal devint une célébrité locale.Mais bientôt, l’affaire éveilla des soupçons. Pourquoi tant d’accidents, concentrés dans la même zone ? Les habitants craignirent un criminel qui pousserait les enfants dans la Seine. Une surveillance plus discrète permit enfin de résoudre l’énigme… Le coupable n’était autre que le héros lui-même ! Le Terre-Neuve, ayant compris que chaque sauvetage lui valait un steak, avait élaboré une stratégie redoutable : pousser les enfants à l’eau, puis les sauver aussitôt pour obtenir sa récompense.Le New York Times résuma l’affaire sous le titre ironique « DOG A FAKE HERO » — le chien n’était pas seulement un sauveteur, mais aussi un fin stratège qui avait mis son intelligence au service de son estomac.Cette anecdote illustre parfaitement ce que la science appelle le conditionnement opérant : les animaux, tout comme les humains, apprennent à associer un comportement à une récompense et peuvent reproduire ce comportement de manière opportuniste. Les Terre-Neuve, en particulier, combinent une grande force physique, une aptitude naturelle à l’eau et une intelligence sociale développée. Ils savent évaluer les situations et agir seuls, parfois de manière surprenante.Ainsi, ce chien parisien de 1908, mi-héros mi-filou, rappelle que l’intelligence animale ne se limite pas à l’obéissance : elle inclut aussi l’art de manipuler son environnement — et parfois même les humains. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Les boulangers présentent effectivement une fréquence plus élevée d’asthme que la population générale. On parle même d’« asthme du boulanger », une forme d’asthme professionnel identifiée depuis plusieurs décennies.1. La farine, un ennemi invisibleLa principale cause est l’inhalation de poussières de farine. Lors du pétrissage, du tamisage ou de la cuisson, de fines particules de farine se diffusent dans l’air de la boulangerie. En pénétrant dans les voies respiratoires, elles déclenchent une réaction allergique chez certains travailleurs.Selon l’INSERM, environ 15 à 20 % des boulangers développent des symptômes respiratoires liés à l’exposition à la farine au cours de leur carrière.L’asthme du boulanger représente près de 20 à 25 % des cas d’asthme professionnel déclarés en France.2. Une allergie progressiveLe mécanisme est le même que pour d’autres allergies : l’organisme identifie les protéines contenues dans la farine (blé, seigle, parfois enzymes ajoutées comme l’alpha-amylase) comme des « intrus ». Cela provoque une inflammation des bronches, qui rétrécissent et entraînent toux, essoufflement, sifflements et crises d’asthme.Ce processus peut mettre plusieurs années à se développer. Beaucoup de boulangers débutants ne ressentent rien, puis voient apparaître des symptômes au fil du temps.3. Des facteurs aggravantsLa levure et les additifs : certaines levures et enzymes utilisées pour améliorer la panification sont aussi allergènes.Les horaires de travail : lever tôt, manque de sommeil et atmosphère chaude et sèche fragilisent les voies respiratoires.La génétique : une prédisposition familiale aux allergies augmente le risque.4. ConséquencesL’asthme du boulanger peut être invalidant et, dans certains cas, oblige à changer de métier. C’est pourquoi il figure dans la liste officielle des maladies professionnelles indemnisées en France.5. PréventionHeureusement, des mesures existent :Installer des systèmes d’aspiration pour réduire la poussière.Préférer le versage lent des farines, éviter le tamisage brutal.Porter un masque filtrant adapté.Surveiller régulièrement la fonction respiratoire des boulangers à risque.En résumé : si les boulangers souffrent souvent d’asthme, c’est parce que leur quotidien les expose à des poussières de farine et d’enzymes hautement allergènes. Ce n’est pas une fatalité, mais un vrai problème de santé publique et professionnelle qui nécessite prévention et protection. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Quand on observe une colonie de fourmis, difficile d’imaginer que ces insectes minuscules obéissent à des règles de longévité radicalement différentes selon leur rôle. Certaines ne survivent que quelques semaines ou quelques mois, tandis que d’autres atteignent des records de longévité pour des insectes, vivant plusieurs années, parfois plus d’une décennie. Pourquoi un tel écart ?La première explication réside dans la répartition des tâches. Les fourmis ouvrières, par définition, sont en première ligne. Elles sortent du nid pour chercher de la nourriture, défendent la colonie et assurent son entretien. Ces activités les exposent aux prédateurs, aux accidents et aux aléas climatiques. Leur vie est donc courte, parfois seulement quelques mois. À l’inverse, la reine, dont la fonction principale est la reproduction, reste protégée au cœur du nid. Moins exposée aux dangers extérieurs, elle bénéficie d’une existence beaucoup plus longue. Chez certaines espèces, une reine peut dépasser les 15 ans, un chiffre exceptionnel pour un insecte.Mais la différence n’est pas qu’une affaire de risques. Elle est aussi physiologique. La reine possède un métabolisme particulier : son corps est optimisé pour pondre des milliers, parfois des millions d’œufs. Son organisme produit davantage d’antioxydants et bénéficie d’une régulation hormonale qui ralentit le vieillissement. Les ouvrières, en revanche, ont un métabolisme orienté vers l’action, consommant rapidement leurs ressources énergétiques, ce qui contribue à réduire leur durée de vie.Le repos joue également un rôle. Contrairement à nous, les fourmis ne dorment pas d’un seul bloc. Elles connaissent des micro-siestes répétées, sortes d’états végétatifs durant quelques minutes, plusieurs dizaines de fois par jour. Cependant, la durée totale de repos diffère selon le rôle social. Les ouvrières, notamment chez les fourmis de feu, ne s’accordent qu’environ 4 heures cumulées par jour, ce qui limite leur longévité à quelques mois. La reine, elle, bénéficie d’environ 9 heures de repos quotidien, favorisant une meilleure récupération et une survie prolongée.Enfin, il faut évoquer la plasticité sociale des fourmis. Dans certaines espèces, si une colonie perd sa reine, certaines ouvrières peuvent modifier leur physiologie et vivre bien plus longtemps qu’à l’ordinaire, assumant temporairement une fonction reproductive. Ce phénomène illustre à quel point l’espérance de vie des fourmis n’est pas fixée uniquement par la biologie, mais aussi par l’organisation sociale.En résumé, l’espérance de vie des fourmis dépend de trois grands facteurs : leur rôle dans la colonie, leur métabolisme et la quantité de repos qu’elles s’octroient. La reine, protégée, mieux reposée et dotée d’un organisme orienté vers la longévité, vit des années. Les ouvrières, elles, payent le prix de leur labeur incessant et de leur exposition aux dangers, leur vie étant brève mais essentielle à la survie du groupe. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Avez-vous déjà remarqué que certaines personnes semblent obtenir plus facilement un emploi, une augmentation ou même de la sympathie… simplement parce qu’elles sont considérées comme belles ? Ce phénomène porte un nom : le pretty privilege, littéralement le privilège accordé à la beauté. Et ce n’est pas qu’une impression : la science le mesure, chiffres à l’appui.Le pretty privilege, c’est l’ensemble des avantages sociaux, professionnels ou personnels que reçoivent les individus jugés physiquement attirants. Il repose sur deux grands mécanismes psychologiques :D’abord le stéréotype de l’attractivité, ou l’idée que “beau = bon”.Ensuite, l’effet de halo : une caractéristique positive – ici la beauté – influence l’évaluation d’autres traits comme l’intelligence, la sociabilité ou la compétence.Concrètement, ces biais ont des effets très tangibles. Une étude menée sur plus de 43 000 diplômés de MBA a montré que les personnes considérées comme les plus attirantes touchaient en moyenne 2,4 % de plus par an, soit environ 2 500 dollars. Pour les 10 % les plus beaux, le bonus atteignait 11 %, soit plus de 5 500 dollars annuels.Une autre enquête menée aux États-Unis révèle que ceux qui se jugent “extrêmement attirants” déclarent gagner près de 20 000 dollars de plus par an que les personnes perçues comme peu attirantes. On parle là d’un salaire moyen de 64 000 dollars contre 44 000.Mais le phénomène ne s’arrête pas au monde du travail. À l’école déjà, les élèves jugés beaux sont perçus comme plus intelligents et bénéficient de la bienveillance des enseignants. Et même devant un tribunal, la beauté peut influencer : plusieurs recherches ont montré que les accusés séduisants reçoivent parfois des peines plus légères… sauf si leur délit est directement lié à leur charme, comme une escroquerie sentimentale.Dans la vie quotidienne, être perçu comme attirant facilite aussi les relations. Des études montrent que les visages considérés comme beaux sont plus “centrés” dans les réseaux sociaux : ils ont plus d’amis, plus de soutien, et bénéficient d’une meilleure estime d’eux-mêmes. À l’inverse, les personnes jugées peu attirantes déclarent plus souvent souffrir de détresse psychologique ou de dépression.Attention cependant : ce privilège a un revers. Maintenir certains standards de beauté coûte du temps, de l’argent, et peut nuire à la santé mentale. De plus, les personnes séduisantes peuvent aussi être victimes d’objectification ou de jalousie.Alors, le pretty privilege existe bel et bien, et la science le confirme : la beauté agit comme une monnaie sociale, capable d’influencer nos salaires, nos relations, voire la justice. Mais ce pouvoir n’est pas sans ambiguïtés. Finalement, c’est peut-être notre regard collectif, et nos biais inconscients, qui donnent tant de valeur à la beauté. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Lorsque l’on pense à la Révolution d’Octobre 1917, on imagine d’abord la prise du pouvoir par les bolcheviks, la chute du tsar et les bouleversements politiques. Mais un autre champ de bataille a émergé à cette époque : celui de la vie intime. Et certains en sont venus à se demander si, dans cette Russie révolutionnaire, le polyamour avait été encouragé.Au lendemain de la révolution, les bolcheviks veulent détruire la vieille société « bourgeoise », et avec elle ses institutions jugées oppressives. La famille traditionnelle, fondée sur le mariage religieux et la fidélité, est perçue comme un outil de domination. En 1918, un nouveau code du mariage est adopté : divorce facilité, unions civiles reconnues, égalité accrue entre hommes et femmes. C’est une véritable révolution des mœurs.Dans ce contexte, des figures comme Alexandra Kollontaï, commissaire du peuple à l’Assistance publique et ardente féministe, défendent l’idée d’un amour libéré. Selon elle, les relations amoureuses et sexuelles ne devraient pas être enfermées dans les contraintes du mariage, mais vécues librement, « comme on boit un verre d’eau » disait-elle. Son discours, très radical pour l’époque, valorise des unions multiples, successives, choisies selon le désir, ce qui ressemble fortement à une forme de polyamour.Pendant quelques années, cette libéralisation suscite un climat d’expérimentation. Les jeunes urbains s’essayent à l’« amour libre », les divorces explosent, les couples se forment et se défont rapidement. Dans la presse et les cercles militants, on débat de la fin de la monogamie. On pourrait croire que l’État soviétique encourage ce mouvement. Mais en réalité, il s’agit surtout d’un courant intellectuel et social, pas d’une politique officielle.Très vite, les autorités comprennent que cette effervescence a un coût. La multiplication des divorces et des séparations entraîne une hausse dramatique du nombre d’enfants abandonnés. Les familles deviennent instables, la société désorientée. Dès le milieu des années 1920, le pouvoir cherche à rétablir l’ordre. Puis, dans les années 1930, avec Staline, le virage est brutal : la famille traditionnelle est réhabilitée, le mariage glorifié, la fidélité encouragée. L’État a désormais besoin de stabilité sociale et de natalité forte.En résumé, dans les premières années après 1917, le polyamour a bien été discuté, théorisé et parfois pratiqué, surtout sous l’influence de Kollontaï. Mais il n’a jamais été officiellement promu par l’URSS. La révolution sexuelle des débuts s’est rapidement heurtée au retour du conservatisme. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Imaginez une grande table au XVIᵉ siècle. Des mets somptueux, des coupes de vin, des convives élégants… mais pas de fourchette. Oui, vous m’avez bien entendu. On mange avec les doigts, parfois avec un couteau, mais cet ustensile si familier aujourd’hui est encore absent des tables françaises.Alors, comment la fourchette a-t-elle fait son entrée dans notre pays ? Et surtout, quel roi, un peu excentrique, a osé imposer cet objet qui allait transformer nos repas ?Une invention venue de loinLa fourchette n’est pas née en France. Elle apparaît dès le XIᵉ siècle dans l’Empire byzantin. À Constantinople, les aristocrates l’utilisent pour éviter de se salir les doigts en goûtant des plats délicats. L’Italie, toujours proche des échanges méditerranéens, adopte plus tôt cet ustensile, qui se glisse dans les cours princières de Venise et de Florence.Mais en France ? Rien. L’idée choque. Manger sans toucher la nourriture ? Inconcevable ! La fourchette est jugée inutile, artificielle, voire ridicule.L’arrivée à la cour de FranceC’est finalement au XVIᵉ siècle que la France découvre la fourchette. Et l’homme qui la fait entrer dans les usages de la cour, c’est… Henri III.Roi élégant, raffiné, souvent critiqué pour ses manières jugées trop efféminées par ses contemporains, Henri III est séduit par la mode italienne. Lors d’un séjour à Venise, il découvre cet étrange ustensile à deux dents. Fasciné, il décide de l’adopter et de l’imposer à sa table en France.Un roi moqué, mais en avance sur son tempsLe choix ne passe pas inaperçu. Les chroniqueurs rapportent que certains courtisans se moquent ouvertement de lui. Pour beaucoup, la fourchette est le signe d’un raffinement excessif, presque d’une faiblesse. Pourquoi se compliquer la vie avec un objet de métal alors que les doigts suffisent depuis toujours ?Mais Henri III persiste. Par goût du raffinement, mais aussi par souci d’hygiène : ne pas plonger ses mains dans la nourriture est, après tout, plus propre. Peu à peu, certains nobles imitent le roi, par snobisme autant que par curiosité.Une lente conquêteLa diffusion reste cependant très lente. Il faudra encore plus d’un siècle avant que la fourchette ne s’impose vraiment en France, sous Louis XIV, dans une cour où l’art de la table devient un véritable spectacle.Mais Henri III restera celui qui a osé franchir le pas, introduisant en France un petit objet qui allait changer notre rapport à la nourriture.ConclusionAlors, la prochaine fois que vous tiendrez une fourchette, pensez à ce roi mal-aimé, au style un peu extravagant, qui a su imposer, contre vents et moqueries, l’un des symboles les plus universels de la table moderne. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
C’est une question que beaucoup se posent : quand une pile “s’use”, devient-elle plus légère ? Intuitivement, on pourrait croire que oui, puisque l’énergie qu’elle contenait a été “consommée”. Mais la réponse est surprenante : non, une pile vide ne pèse pas moins lourd qu’une pile neuve.Pour comprendre pourquoi, il faut rappeler comment fonctionne une pile. Une pile n’est pas un petit réservoir d’énergie comme une gourde qu’on vide. C’est en réalité un système chimique. À l’intérieur, deux électrodes — une anode et une cathode — baignent dans un électrolyte. Lorsque vous branchez la pile à un circuit, des réactions chimiques se produisent : des électrons circulent de l’anode vers la cathode à travers le circuit, et c’est ce flux qui alimente vos appareils.Ces réactions ne font pas “disparaître” de la matière. Elles transforment simplement certains composés chimiques en d’autres. Par exemple, dans une pile alcaline classique, le zinc de l’anode se transforme progressivement en oxyde de zinc, tandis que le dioxyde de manganèse de la cathode se réduit. Résultat : la pile perd sa capacité à fournir du courant, mais la masse totale des substances reste la même. Rien ne s’évapore, rien ne s’échappe.Et l’énergie consommée ? Là encore, elle ne “pèse” pas. L’énergie qui alimente votre télécommande ou votre lampe de poche correspond au mouvement d’électrons, à des transformations chimiques, mais pas à une perte de masse mesurable.En théorie, la fameuse équation d’Einstein, E = mc², nous dit que l’énergie et la masse sont équivalentes. Donc, si une pile délivre de l’énergie, elle perd effectivement une infime fraction de sa masse. Mais cette perte est tellement minuscule qu’elle est impossible à mesurer avec une balance. Pour vous donner un ordre d’idée : vider complètement une pile AA libère environ 10 000 joules d’énergie. Selon E = mc², cela correspond à une perte de masse de l’ordre de 10⁻¹³ kilogramme, soit un milliardième de milliardième de gramme. Autrement dit : rien du tout à notre échelle.En résumé : une pile “vide” ne pèse pas moins lourd qu’une pile neuve. Elle a simplement changé sa chimie interne, rendant la réaction électrique impossible. Sa masse reste la même, sauf pour une perte infinitésimale, théorique, liée à l’équivalence masse-énergie, mais qui n’a aucune importance pratique. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
L’idée amuse souvent les enfants : si l’on creusait un trou très profond dans son jardin, pourrait-on déboucher de l’autre côté de la planète ? En théorie, cela semble simple. En pratique, c’est absolument impossible. Et les raisons sont à la fois physiques, géologiques et techniques.D’abord, il faut rappeler que la Terre n’est pas faite d’un seul bloc homogène. Elle est composée de couches successives. Sous la croûte terrestre, relativement fine – entre 5 et 70 kilomètres d’épaisseur – s’étend le manteau, qui descend jusqu’à 2 900 kilomètres. En dessous se trouve le noyau externe, liquide et métallique, puis le noyau interne, solide, essentiellement constitué de fer et de nickel. Pour atteindre l’autre côté de la Terre, il faudrait donc traverser environ 6 371 kilomètres, soit le rayon moyen de notre planète.Le premier obstacle est la chaleur. Plus on descend, plus la température augmente : en moyenne de 25 °C par kilomètre dans la croûte. À seulement 100 kilomètres de profondeur, on dépasse déjà 2 000 °C. Dans le noyau terrestre, les estimations atteignent près de 5 500 °C, soit l’équivalent de la surface du Soleil. Impossible d’imaginer des matériaux capables de résister à de telles températures.Ensuite vient la pression. À chaque kilomètre supplémentaire, la masse des couches supérieures écrase davantage ce qui est en dessous. À 3 000 kilomètres de profondeur, la pression équivaut à plusieurs millions de fois celle de l’air que nous respirons. Même les foreuses les plus résistantes seraient instantanément broyées.Troisième difficulté : les limites technologiques. L’être humain n’a jamais creusé bien profond. Le record est détenu par le forage de Kola, en Russie, commencé dans les années 1970. Il a atteint un peu plus de 12 kilomètres, soit… à peine 0,2 % du rayon terrestre ! À cette profondeur, la chaleur et la fragilité des roches rendaient déjà les travaux insoutenables.Enfin, il y a un problème pratique : même si, par miracle, on parvenait à creuser un tel tunnel, la gravité poserait une énigme. En tombant dedans, on serait d’abord accéléré, mais arrivé au centre de la Terre, la gravité s’exercerait de manière égale dans toutes les directions. Résultat : on resterait coincé au milieu, incapable de continuer.En résumé, la chaleur extrême, la pression colossale, la structure interne de la Terre et nos limites technologiques rendent cette idée totalement irréalisable. Creuser un trou jusqu’à l’autre bout du monde restera donc, à jamais, un rêve d’enfant… ou un scénario de science-fiction. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Si vous regardez de près certaines représentations de la Révolution française, vous verrez souvent un bonnet rouge, tombant vers l’avant, porté par Marianne ou par les sans-culottes. Ce couvre-chef n’est pas un simple accessoire vestimentaire : c’est le célèbre bonnet phrygien, devenu un symbole universel de liberté. Mais d’où vient-il exactement ?L’histoire du bonnet phrygien commence bien avant 1789. Son nom provient de la Phrygie, une région d’Asie Mineure, dans l’actuelle Turquie. Dans l’Antiquité, les habitants de cette région portaient un bonnet de feutre à la pointe rabattue, reconnaissable sur de nombreuses fresques et sculptures. Très vite, ce couvre-chef a été associé, dans l’imaginaire gréco-romain, aux peuples orientaux. Les dieux et héros venus de l’Est, comme Attis, étaient souvent représentés coiffés de ce bonnet.Mais le vrai basculement symbolique se fait à Rome. Dans la République romaine, un bonnet de forme proche, appelé pileus, était remis aux esclaves affranchis. Recevoir ce bonnet signifiait accéder à la liberté. Le pileus, puis le bonnet phrygien par extension, s’ancrent donc très tôt dans l’idée d’émancipation.Ce souvenir antique ressurgit au XVIIIe siècle. Les penseurs des Lumières et les révolutionnaires français, très friands de références classiques, se réapproprient ce symbole. Lors de la Révolution française, le bonnet phrygien devient l’emblème de la liberté conquise contre la tyrannie. Les sans-culottes l’arborent fièrement, et Marianne, allégorie de la République, est presque toujours représentée coiffée de ce bonnet rouge.Pourquoi rouge ? La couleur est héritée de la Révolution : elle renvoie au sang versé, au courage, mais aussi à la fraternité entre citoyens. Ce bonnet rouge devient rapidement un signe de ralliement politique, au point d’être porté dans les cortèges, peint sur les murs et brandi sur les piques.Au XIXe siècle, le symbole s’universalise. On retrouve le bonnet phrygien sur les armoiries de nombreux pays d’Amérique latine nouvellement indépendants, de l’Argentine à Cuba. Partout, il représente la liberté, la rupture avec l’oppression et la naissance d’une nation.Aujourd’hui encore, il reste omniprésent : sur le sceau de la République française, dans les mairies, ou sur certaines pièces de monnaie. Le bonnet phrygien rappelle qu’un simple objet peut traverser les siècles et les civilisations pour incarner une idée intemporelle : celle de la liberté conquise. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
On aime croire que nos yeux fonctionnent comme des caméras et que notre cerveau nous transmet le monde tel qu’il est, instantanément. Mais ce n’est qu’une illusion. Selon une étude récente menée par des chercheurs de l’Université d’Aberdeen en Écosse et de l’Université de Californie à Berkeley, publiée dans Science Advances, notre cerveau accuse un léger retard… et vit en réalité dans le passé.Une illusion visuelle constanteLes chercheurs ont mis en lumière un phénomène fascinant : notre perception repose sur une illusion visuelle naturelle, permanente. Concrètement, plutôt que de traiter chaque image nouvelle dès qu’elle apparaît, notre cerveau s’appuie sur les 15 dernières secondes d’informations visuelles pour créer une représentation fluide et stable de notre environnement. Cela signifie que ce que vous voyez au moment précis où vous m’écoutez n’est pas l’instant présent, mais une reconstruction moyenne du passé récent.Pourquoi ce décalage ?Ce mécanisme a une fonction essentielle. Le monde visuel est chaotique : des objets bougent, la lumière change, des ombres apparaissent. Si le cerveau réagissait en temps réel à chaque micro-changement, notre perception serait instable, hachée, et nous serions incapables d’agir avec fluidité. En intégrant les signaux sur une quinzaine de secondes, notre cerveau fait du “lissage temporel”. Il sacrifie la précision de l’instant au profit d’une continuité confortable et exploitable.Les preuves expérimentalesPour démontrer ce phénomène, les chercheurs ont utilisé des images dont certains détails changeaient progressivement. Résultat : les participants ne remarquaient souvent pas ces changements subtils, car leur cerveau fusionnait l’image présente avec celles des secondes précédentes. C’est ce qu’on appelle l’« effet de continuité ». En d’autres termes, notre cerveau choisit la cohérence plutôt que la fidélité immédiate.Un paradoxe utileCette découverte peut sembler dérangeante : nous ne vivons jamais exactement dans le présent, mais avec un léger retard. Pourtant, ce délai est un avantage. Imaginez conduire une voiture. Si votre cerveau réagissait en temps réel aux moindres variations de la route ou de la luminosité, votre vision serait saccadée et vos réactions désordonnées. Grâce à cette fenêtre de 15 secondes, vous bénéficiez d’une vision stable, qui vous permet de prendre des décisions efficaces.ConclusionL’étude d’Aberdeen et de Berkeley change notre façon de penser la perception. Ce que nous voyons n’est pas une retransmission en direct, mais une construction mentale basée sur le passé proche. En somme, nous vivons toujours avec un quart de minute de retard… et c’est précisément ce décalage qui rend notre expérience du monde cohérente et supportable. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Oui, les arbres peuvent littéralement exploser, et ce phénomène, aussi impressionnant que rare, se produit dans des conditions extrêmes de froid ou de chaleur. Derrière cette idée presque poétique d’un arbre qui éclate, se cache une explication physique très concrète, liée à l’eau contenue dans sa sève.1. Explosion par grand froid : la glace qui fait craquer le boisLes arbres sont remplis de sève, un liquide essentiellement composé d’eau, qui circule dans un réseau de petits canaux à l’intérieur du tronc et des branches. Or, l’eau a une particularité : en gelant, elle augmente de volume d’environ 9 %. Si les températures chutent brutalement, la sève peut geler avant que l’arbre n’ait eu le temps de se protéger (par exemple en concentrant ses sucres pour abaisser son point de congélation).Résultat : la glace prend plus de place, met le bois sous pression, et peut provoquer des fissures soudaines, voire des explosions audibles du tronc ou des branches. Ce phénomène est parfois entendu dans les forêts nordiques lors de vagues de froid extrême : on parle alors de craquements ou de détonations glaciales, comme des coups de feu.2. Explosion par chaleur extrême : la vapeur piège sous pressionÀ l’autre extrême du thermomètre, les arbres peuvent exploser lors d’incendies de forêt ou lorsqu’ils sont frappés par la foudre. Là encore, l’eau est en cause. Sous l’effet de la chaleur intense, l’eau contenue dans la sève peut chauffer très rapidement. Et si elle atteint le point d’ébullition, elle se transforme en vapeur, qui occupe beaucoup plus de volume.Mais à l’intérieur d’un tronc, cette vapeur ne peut pas s’échapper librement. Elle est emprisonnée par le bois, qui agit comme une coque. La pression augmente, augmente… jusqu’à ce que le tronc explose littéralement, projetant des éclats de bois brûlants. Ce phénomène, spectaculaire, est bien documenté dans les zones à haut risque d’incendies comme l’ouest des États-Unis ou l’Australie.3. La foudre : un déclencheur brutalLorsqu’un arbre est frappé par la foudre, l’électricité traverse la sève, un excellent conducteur, à une vitesse fulgurante. Cela fait chauffer l’eau en une fraction de seconde, produisant instantanément de la vapeur à très haute pression. Là encore, l’explosion est possible, d’autant plus violente que le courant suit les veines internes de l’arbre.En résuméQu’il fasse -40°C ou +800°C, l’arbre peut exploser à cause de l’eau qu’il contient : gelée, elle gonfle et fait éclater le bois ; portée à ébullition, elle devient une bombe à vapeur. Ces phénomènes, bien réels, rappellent que la nature, même immobile en apparence, peut parfois réagir de manière spectaculaire aux extrêmes climatiques. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
L’effet Veblen est un phénomène économique et sociologique qui décrit un comportement paradoxal : plus un produit est cher, plus certaines personnes ont envie de l’acheter. Contrairement à la logique classique selon laquelle une hausse des prix diminue la demande, l’effet Veblen montre qu’un prix élevé peut, au contraire, attirer les consommateurs… précisément parce qu’il est élevé.Ce concept porte le nom de Thorstein Veblen, un économiste et sociologue américain du XIXe siècle, qui a introduit la notion de consommation ostentatoire. Dans son ouvrage La Théorie de la classe de loisir (1899), Veblen observe que certaines personnes achètent des biens non pour leur utilité, mais pour montrer leur statut social. Dépenser beaucoup devient alors une stratégie de distinction.Prenons un exemple : une montre vendue 20 euros donne l’heure aussi bien qu’une montre à 10 000 euros. Pourtant, la seconde séduit certains consommateurs justement parce qu’elle coûte 10 000 euros. Elle signale au monde extérieur : « Je peux me le permettre », « J’appartiens à un certain milieu ». Le produit devient un symbole, pas seulement un objet.Mais l’effet Veblen ne touche pas uniquement les très riches. Il peut aussi influencer des personnes prêtes à se mettre en difficulté financière pour acquérir des produits de luxe ou des marques prestigieuses. Pourquoi ? Parce que dans un monde de plus en plus saturé de signes, le prix devient un raccourci pour juger de la valeur. On croit, parfois inconsciemment, que « cher = mieux », ou « cher = rare = désirable ».Le marketing joue à fond sur ce ressort psychologique. Les marques de luxe ne cherchent pas à être accessibles, au contraire : elles cultivent la rareté, l’exclusivité, et l’élitisme. Certaines montent artificiellement les prix, limitent la production, voire refusent de vendre à certains clients pour entretenir l’illusion d’un club fermé. Résultat : plus c’est difficile d’accès, plus c’est convoité.Ce mécanisme n’est pas toujours irrationnel. Dans certains contextes, dépenser beaucoup peut rapporter : une voiture haut de gamme peut ouvrir des opportunités professionnelles, des vêtements de luxe peuvent favoriser l’influence ou l’image. Mais l’effet Veblen devient problématique quand il pousse à acheter pour acheter, sans besoin réel, ni satisfaction durable — juste pour impressionner ou appartenir.En résumé, l’effet Veblen explique pourquoi des gens achètent des choses très chères non pour leur qualité, mais pour ce qu’elles représentent socialement. Et dans une société où l’image compte parfois plus que le fond, cet effet peut nous faire acheter… n’importe quoi. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
👌👌
en Iran, cette année il y a 27 jours fériés !!!😁
Mettre des pubs McDonald's pour influencer des enfants ? Sérieusement ?
Du contenu qui peut parfois être intéressant même pour les adultes. Cependant, 45s de pubs sur 2 minutes d'épisodes c'est dingue... c'est-à-dire que si je veux laisser le podcast une demi-heure, je vais avoir plus de 11 minutes de pubs ?!? En plus, des pubs Mc Donald's pour un contenu destiné aux enfants, c'est ethniquement inapproprié. Jamais je laisse ça à mes enfants.
il a 10 chiffres il ne faut pas oublier le 0 ;)
Les "manags"?
franchement je ne savais pas