Discover
Pourquoi donc ?
Pourquoi donc ?
Author: Choses à Savoir
Subscribed: 4,667Played: 348,903Subscribe
Share
© Choses à Savoir
Description
Je réponds de façon claire et directe à toutes les questions essentielles, en une minute chrono !
Si vous cherchez le podcast Petits Curieux, c'est par ici: https://chosesasavoir.com/podcast/petits-curieux-2/
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
928 Episodes
Reverse
Si certaines personnes adorent les films d’horreur tandis que d’autres les fuient, la raison se trouve en grande partie dans notre cerveau. Les neurosciences montrent que tout dépend de la manière dont chacun traite la peur, cette émotion universelle mais extrêmement variable d’un individu à l’autre.Lorsqu’on regarde une scène effrayante, l’amygdale, une petite structure située au cœur du cerveau, s’active. C’est elle qui déclenche la réponse de peur : accélération du rythme cardiaque, sécrétion d’adrénaline, contraction musculaire. En temps normal, cette réaction prépare à fuir ou à se défendre. Mais dans un cinéma ou sur un canapé, le cerveau sait qu’il n’y a aucun danger réel. Résultat : la peur devient une expérience contrôlée, une montée d’adrénaline sans risque, un peu comme les montagnes russes.Chez les amateurs de films d’horreur, cette activation de l’amygdale s’accompagne souvent d’une libération de dopamine, le neurotransmetteur du plaisir et de la récompense. Ils ressentent donc un mélange paradoxal de peur et d’excitation. C’est cette combinaison – la montée du stress suivie du soulagement – qui crée le frisson agréable. Des chercheurs de l’Université de Copenhague ont montré en 2020 que le cerveau des amateurs de films d’horreur alterne très vite entre état d’alerte et retour à la sécurité, un peu comme un entraînement émotionnel : ils apprennent à “jouer” avec leur peur.À l’inverse, certaines personnes ont une hyperactivité de l’amygdale ou une moindre régulation de cette zone par le cortex préfrontal, la région du raisonnement. Leur cerveau a plus de mal à distinguer la fiction du réel. Pour elles, les images d’horreur déclenchent un véritable état de stress, avec libération excessive de cortisol (l’hormone du stress), sueurs et anxiété prolongée. D’où le rejet total du genre.Enfin, le goût de la peur dépend aussi de la personnalité et du câblage neuronal. Les personnes curieuses, en quête de sensations fortes, ou dotées d’un système dopaminergique plus sensible (comme les amateurs de sports extrêmes) trouvent dans l’horreur une stimulation gratifiante. D’autres, plus anxieuses ou empathiques, activent plus intensément les circuits de la douleur et du dégoût.En résumé, aimer les films d’horreur, c’est une question de chimie cérébrale : pour certains cerveaux, la peur est un jeu excitant ; pour d’autres, c’est une alarme qu’il vaut mieux ne jamais déclencher. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
La mer Caspienne est un cas unique au monde : immense étendue d’eau fermée, elle est qualifiée de mer par son nom, mais de lac par sa géographie. Pourtant, d’un point de vue juridique international, elle n’est ni tout à fait l’un ni l’autre.Située entre la Russie, le Kazakhstan, le Turkménistan, l’Azerbaïdjan et l’Iran, la mer Caspienne est un bassin endoréique : elle n’a aucune communication naturelle avec les océans. Selon la géographie physique, c’est donc un lac salé, le plus grand du monde, avec une superficie de 370 000 km². Mais sa salinité (autour de 12 g/l) et son immense taille ont longtemps nourri l’ambiguïté : historiquement, les peuples riverains l’ont appelée “mer”, et les cartes l’ont toujours représentée ainsi.La vraie question, toutefois, est politico-juridique. Car si la Caspienne est une mer, elle relève du droit maritime international, notamment de la Convention des Nations unies sur le droit de la mer (dite de Montego Bay, 1982). Dans ce cas, chaque pays riverain aurait une zone économique exclusive et un plateau continental, avec des droits d’exploitation sur le pétrole et le gaz situés dans sa partie. Si, en revanche, on la considère comme un lac, il faut la partager selon des règles spécifiques de droit interne entre États, par des accords bilatéraux ou multilatéraux.Pendant des décennies, cette ambiguïté a provoqué des tensions diplomatiques. L’effondrement de l’URSS en 1991 a tout compliqué : de deux États riverains (URSS et Iran), on est passé à cinq. Chacun voulait défendre sa part des immenses gisements d’hydrocarbures sous le fond caspien. L’enjeu était colossal.Après des années de négociations, un compromis a été trouvé en 2018 avec la Convention d’Aktau, signée par les cinq pays. Elle a établi un statut hybride :La mer Caspienne n’est ni un océan ni un lac au sens strict.Son eau de surface est partagée comme celle d’une mer, ouverte à la navigation commune.Mais son fond marin (où se trouvent les ressources) est divisé entre les États, comme pour un lac.Ainsi, la Caspienne bénéficie d’un régime juridique sui generis, c’est-à-dire unique en son genre. Ce statut permet à chacun des pays riverains d’exploiter ses ressources tout en maintenant une souveraineté partagée sur l’ensemble. En somme, la mer Caspienne est juridiquement… un peu des deux : une mer par son nom et ses usages, un lac par sa nature, et un compromis diplomatique par nécessité. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Le charbon, qu’il soit de bois ou de houille, a la particularité d’absorber l’oxygène de l’air et de s’oxyder lentement à sa surface. Cette réaction chimique, appelée oxydation exothermique, dégage de la chaleur. Si le tas de charbon est volumineux et mal ventilé, la chaleur ne peut pas se dissiper. Peu à peu, la température interne monte, jusqu’à atteindre le point où la matière s’enflamme d’elle-même — souvent autour de 150 à 200 °C. C’est ce qu’on appelle l’auto-inflammation.Ce risque augmente avec plusieurs facteurs :La granulométrie : les petits morceaux, voire la poussière de charbon, s’oxydent beaucoup plus vite que les blocs massifs.L’humidité : paradoxalement, un léger taux d’humidité favorise l’oxydation, car l’eau agit comme un catalyseur ; en revanche, un excès d’eau peut ralentir le processus.La compacité du tas : un amas dense limite la circulation d’air, ce qui empêche le refroidissement naturel.La chaleur ambiante : en été ou dans un local mal ventilé, le risque est multiplié.L’auto-échauffement se déroule souvent en plusieurs jours ou semaines, de manière insidieuse. Le charbon semble stable en surface, mais à l’intérieur, la température grimpe progressivement. Lorsque l’air atteint ces zones chaudes par des fissures ou des interstices, il alimente brusquement la combustion : le tas peut alors s’enflammer spontanément, sans aucune étincelle.Les conséquences peuvent être graves : incendies de dépôts, émissions de gaz toxiques (notamment du monoxyde de carbone), voire explosions dans les espaces clos. C’est pourquoi les charbonnages et centrales thermiques ont mis en place des protocoles stricts : stockage en couches minces, contrôle de la température interne, aération permanente, voire inertage à l’azote dans certains cas.Pour les particuliers, la prudence s’impose : il ne faut jamais entasser le charbon en gros tas dans un local fermé. Il est conseillé de le stocker en petites quantités, à l’abri de l’humidité mais dans un espace bien ventilé, et de remuer régulièrement le tas pour éviter l’accumulation de chaleur.En résumé, le charbon, même éteint, n’est pas une matière inerte : son contact prolongé avec l’air suffit, dans certaines conditions, à allumer un feu sans flamme ni étincelle. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Le « test de la chaise bancale » est une épreuve informelle mais redoutée utilisée dans certains entretiens d’embauche pour évaluer la réaction d’un candidat dans une situation d’inconfort. Comme son nom l’indique, il s’agit littéralement d’une chaise instable, dont un pied est légèrement plus court que les autres, ou d’un siège volontairement inconfortable. Le but n’est pas de juger la posture du candidat, mais sa manière de réagir à un désagrément inattendu.Ce test appartient à la catégorie des épreuves de résistance psychologique. Il ne repose pas sur des critères objectifs, mais sur l’observation du comportement. L’employeur ou le recruteur cherche à voir si le candidat garde son calme, s’il tente de réparer la situation, s’il manifeste de la gêne, de l’agacement, ou au contraire de l’humour. En somme, ce n’est pas le confort qui est testé, mais la résilience émotionnelle et la gestion du stress.L’idée est de recréer une mini-crise, un moment de perte de contrôle, dans un contexte où le candidat ne s’y attend pas. Face à cette situation, plusieurs attitudes peuvent apparaître : certains s’enfoncent dans la chaise en serrant les dents, d’autres la réajustent naturellement, d’autres encore signalent poliment le problème. Le recruteur observe alors la spontanéité, la capacité à s’adapter, et surtout la manière dont la personne exprime une gêne. Dans les métiers de relation client, de management ou de vente, cette réaction en dit parfois plus qu’un CV.Ce type de test s’inscrit dans une mouvance plus large d’entretiens “non conventionnels”, popularisés dans les années 2000 par certaines entreprises américaines, comme Google ou Zappos, qui posaient des questions déstabilisantes du type : « Combien de balles de golf peut-on mettre dans un avion ? ». L’objectif est le même : sonder la personnalité, la créativité, et la réaction à l’imprévu.Toutefois, le test de la chaise bancale est controversé. Certains psychologues du travail estiment qu’il ne mesure rien de fiable et peut être perçu comme une forme de manipulation, voire d’humiliation. D’autres rappellent qu’un bon entretien doit mettre le candidat en confiance, non en déséquilibre. Dans les faits, ce genre de test tend à disparaître dans les grands groupes, mais il subsiste parfois dans les petites structures ou les secteurs où la personnalité compte autant que les compétences.En définitive, la « chaise bancale » est moins un test qu’un symbole : celui d’un monde du travail qui, au-delà des diplômes, cherche à jauger l’attitude, la souplesse et la capacité à rester digne, même quand tout vacille — littéralement. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Au XVIᵉ siècle, la langue française connaît une véritable explosion de créativité. Et l’un de ses plus grands architectes s’appelle François Rabelais. Médecin, humaniste, moine défroqué et écrivain, Rabelais est l’auteur des célèbres Gargantua et Pantagruel, œuvres truculentes où se mêlent satire, érudition et fantaisie. Mais il est aussi un inventeur de mots hors pair : on estime qu’il aurait créé ou popularisé plus de 800 mots français, dont certains sont encore en usage aujourd’hui.Rabelais faisait partie de cette génération d’humanistes qui, à la Renaissance, voulaient enrichir la langue française pour la hisser au niveau du latin et du grec. Son imagination linguistique servait autant la science que la comédie. Il puisait dans le latin (frugalité, hilarité), le grec (utopie, antiques), mais aussi dans des jeux de mots et inventions pures. Ainsi, il est à l’origine ou à l’origine probable de termes comme “pantagruélique” (démesuré, joyeusement excessif), “gargantuesque” (gigantesque, généreux), “dyspepsie”, “épithète”, ou encore “progression”.Ses créations ne relevaient pas du simple caprice : elles accompagnaient une vision du monde où la langue devait refléter l’abondance du savoir et de la vie. Son style foisonnant, parfois scatologique, associait un vocabulaire érudit à un humour populaire. En mélangeant les registres, Rabelais a donné au français une souplesse et une inventivité nouvelles, ouvrant la voie à des auteurs comme Molière ou Voltaire.Mais la richesse du français ne vient pas seulement de ses mots : elle réside aussi dans ses formes littéraires. Le mot “roman”, par exemple, est lui-même un héritage médiéval fascinant. À l’origine, vers le XIᵉ siècle, romanz désignait simplement la langue romane, c’est-à-dire le vieux français parlé par le peuple, par opposition au latin, réservé à l’Église et aux érudits.Les premiers “romanz” étaient donc des textes écrits en français pour être compris de tous : récits de chevaliers, contes et chansons de geste. Peu à peu, le terme a glissé du langage au genre : un “roman” n’était plus seulement une œuvre en langue vulgaire, mais une fiction narrative en prose.Ainsi, du romanz médiéval au roman moderne, et de Rabelais à nos écrivains contemporains, la langue française s’est construite par invention, audace et plaisir du mot. Entre néologismes savants et détournements populaires, elle reste, comme chez Rabelais, une fête de l’esprit et de la liberté. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Cela peut sembler absurde, mais c’est vrai : Apple a un jour recommandé de laisser tomber son ordinateur pour résoudre un problème technique. L’histoire remonte au début des années 1980, à l’époque de l’Apple III, l’un des plus grands échecs commerciaux de la marque — et un épisode fascinant de l’histoire de l’informatique.En 1980, Apple vient de connaître un immense succès avec l’Apple II. L’entreprise veut donc frapper encore plus fort avec une machine professionnelle, plus puissante et plus élégante. Le résultat : l’Apple III, présenté comme un ordinateur haut de gamme, conçu sans ventilateur (jugé trop bruyant) et sans ouvertures visibles, pour un design sobre et silencieux. Sauf que ce choix esthétique allait causer la perte de la machine.Rapidement après son lancement, les utilisateurs se plaignent de pannes étranges : l’ordinateur se fige, le texte à l’écran devient illisible, ou la machine refuse tout simplement de démarrer. Après enquête, les ingénieurs découvrent la cause : sans ventilation, la chaleur interne fait se dilater les composants. Or, les puces électroniques de la carte mère n’étaient pas soudées, mais simplement enfichées dans leurs supports. En chauffant, elles se soulevaient légèrement et perdaient le contact électrique.La solution officielle, consignée dans certains documents techniques d’Apple, a de quoi surprendre : pour rétablir la connexion, il suffisait de soulever l’ordinateur d’une dizaine de centimètres et de le laisser retomber sur une surface plane. Ce choc léger permettait de replacer les puces dans leur logement… jusqu’à la prochaine surchauffe.Cette “réparation par gravité” est devenue légendaire dans l’histoire de la marque. Elle symbolise à la fois l’audace et les excès d’Apple à ses débuts : vouloir un produit parfait sur le plan esthétique, quitte à en négliger la fiabilité technique.Malgré plusieurs révisions matérielles, l’Apple III resta un fiasco. Apple le retira discrètement du marché en 1984, après avoir vendu à peine 120 000 unités — bien loin du succès de son prédécesseur.Aujourd’hui encore, l’épisode de l’Apple III est cité dans les écoles d’ingénierie comme un cas d’école du compromis entre design et fonctionnalité. Et il rappelle qu’avant de devenir le géant du design technologique, Apple a aussi connu des débuts où la solution la plus “innovante” pouvait littéralement… tomber du ciel. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Les noms de famille n’ont pas toujours existé. Pendant des siècles, dans la plupart des sociétés, on se contentait d’un seul prénom. Mais quand les populations ont commencé à croître, il est devenu difficile de distinguer tous les “Jean” ou “Pierre” d’un même village. C’est alors qu’ont commencé à apparaître, dès le Moyen Âge, les noms de famille, d’abord en Europe, pour préciser l’identité d’une personne. Et la plupart de ces noms viennent de quatre grandes origines : le métier, le lieu, la filiation et une caractéristique physique ou morale.1. Les noms issus du métierC’est l’une des sources les plus courantes. On désignait les gens par ce qu’ils faisaient : Jean le Boulanger, Pierre le Charpentier, Jacques le Berger. Avec le temps, ces surnoms sont devenus des noms de famille transmis à leurs enfants. En France, on retrouve par exemple Boulanger, Marchand, Charpentier, ou Berger. En anglais, cela a donné Smith (forgeron), Baker (boulanger) ou Taylor (tailleur).2. Les noms liés à un lieuD’autres personnes étaient identifiées par leur origine géographique. On disait Marie de Lyon ou Guillaume du Bois. Ces mentions sont devenues des noms de famille : Delacroix, Dupont, Dubois, Deschamps. En Italie, on trouve Da Vinci (“de Vinci”, le village natal de Léonard). Ces noms reflètent souvent l’endroit où vivait l’ancêtre — un pont, un champ, une rivière — et servent encore aujourd’hui de témoins de l’histoire locale.3. Les noms patronymiquesCertains noms viennent directement du prénom du père. En France, cela a donné Martin, Henry, ou Laurent. Mais dans d’autres langues, on l’exprime plus clairement : en anglais, Johnson signifie “fils de John”, Anderson “fils d’Andrew”. En Russie, Ivanov veut dire “fils d’Ivan”, et en Islande, ce système est encore vivant : le fils d’un homme nommé Olaf s’appellera Olafsson, et sa fille Olafsdóttir.4. Les noms descriptifs ou surnomsEnfin, beaucoup de noms de famille venaient d’un trait physique ou de caractère. Petit, Legrand, Lenoir, Leblanc, Fort, ou Lemoine décrivaient une particularité, parfois flatteuse, parfois moqueuse. En Allemagne, Klein signifie “petit”, et en Espagne, Delgado veut dire “mince”.Peu à peu, ces surnoms se sont transmis d’une génération à l’autre, devenant héréditaires à partir du XIVᵉ siècle environ. Ainsi, les noms de famille sont de véritables fossiles linguistiques : ils racontent l’origine, le métier ou le caractère de nos ancêtres, et forment une mémoire vivante de notre histoire collective. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
L’idée que les gauchers seraient plus créatifs que les droitiers est ancienne, séduisante… mais scientifiquement controversée. Elle repose sur une intuition simpliste : si le cerveau gauche contrôle la main droite et le cerveau droit contrôle la main gauche — et que le cerveau droit serait “le siège de la créativité” — alors les gauchers, plus “droit cérébral”, devraient être plus imaginatifs. Mais la réalité, révélée par plusieurs études, est bien plus nuancée.Une étude publiée en 2009 par Shobe et al. dans la revue Brain and Cognition a testé cette hypothèse sur des étudiants américains. Les chercheurs ont mesuré leur “pensée divergente” — la capacité à produire des idées originales — et ont comparé droitiers, gauchers et “inconsistants” (ceux qui utilisent les deux mains selon la tâche). Résultat : les gauchers n’étaient pas systématiquement plus créatifs. En revanche, les personnes au faible degré de latéralisation (ni totalement droitières, ni totalement gauchères) obtenaient de meilleurs scores de créativité. Leur cerveau semblait mieux équilibré entre les deux hémisphères, favorisant des connexions inhabituelles entre des idées éloignées.Cette découverte a inspiré une hypothèse neurolinguistique : la communication interhémisphérique — facilitée par un corps calleux plus actif — pourrait être un atout pour la pensée créative. Autrement dit, ce n’est pas la main utilisée qui compte, mais la souplesse du cerveau à mobiliser ses deux côtés.Des recherches plus récentes, notamment une méta-analyse publiée en 2019, confirment ces nuances : il n’existe aucune corrélation stable entre la main dominante et les performances créatives. Les différences observées sont faibles, variables selon les tests, et largement influencées par d’autres facteurs : culture, environnement familial, éducation artistique, exposition à la nouveauté.Enfin, le cliché du “génie gaucher” vient aussi de l’histoire : Léonard de Vinci, Picasso, Mozart, ou Jimi Hendrix étaient gauchers, ce qui a renforcé l’idée d’un lien mystérieux entre gaucherie et talent. Mais statistiquement, la majorité des créateurs reconnus sont droitiers — simplement parce qu’ils sont plus nombreux.En somme, les gauchers ne sont pas plus créatifs par nature, mais leur cerveau légèrement différent peut favoriser une pensée moins conventionnelle chez certains individus. La créativité, elle, reste surtout une compétence entraînée, nourrie par la curiosité, l’ouverture et la diversité des expériences — bien plus que par la main que l’on utilise pour écrire. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Le « Projet Pigeon ». C'est l'une des idées les plus insolites de la Seconde Guerre mondiale — une à mi-chemin entre le génie et la folie. Il s’agit d’un programme américain secret lancé en 1940 par le célèbre psychologue comportementaliste B. F. Skinner, qui visait à utiliser des pigeons pour guider des bombes. Oui, littéralement.À l’époque, les systèmes de guidage électronique étaient encore rudimentaires. Skinner, spécialiste du conditionnement opérant, pensait qu’un animal entraîné pouvait accomplir des tâches de précision mieux que les machines disponibles. Son idée : dresser des pigeons à reconnaître visuellement une cible (comme un navire ennemi) et à corriger la trajectoire d’une bombe en vol.Le fonctionnement était ingénieux. Dans le nez de la bombe, Skinner installa un petit compartiment équipé d’un système optique projetant l’image de la cible sur un écran. Le pigeon, placé à l’intérieur, était entraîné à picorer l’image du bateau au centre de l’écran. Si la bombe déviait, l’image se déplaçait ; le pigeon, en corrigeant sa position de piquage, envoyait des signaux électriques qui ajustaient les ailerons de direction. En théorie, l’oiseau guidait la bombe jusqu’à la cible.Skinner dressa plusieurs pigeons avec succès, à l’aide de récompenses alimentaires. Les tests en laboratoire furent étonnamment concluants : les oiseaux parvenaient à maintenir la cible dans le viseur avec une grande précision, même face à des images changeantes. Le projet fut financé par le National Defense Research Committee, et baptisé officiellement Project Pigeon.Mais le Pentagone n’y crut jamais vraiment. Malgré les bons résultats expérimentaux, les militaires jugèrent le concept trop farfelu et imprévisible pour une guerre moderne. En 1944, le projet fut abandonné, remplacé par des programmes électroniques plus prometteurs. Skinner, frustré, déclara plus tard : « Les militaires ne prenaient pas les pigeons au sérieux. Ils avaient tort. »Ironie du sort, l’idée ne mourut pas complètement. En 1948, la Navy relança brièvement le concept sous le nom de Project ORCON (Organic Control), avant de l’abandonner définitivement en 1953.Aujourd’hui, le Project Pigeon reste un épisode fascinant de l’histoire des sciences : une tentative sincère d’appliquer la psychologie animale à la technologie militaire. Et une preuve que, dans la guerre comme dans la recherche, l’imagination humaine n’a parfois aucune limite. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Il vous est peut-être déjà arrivé de croire qu’un sigle avait été choisi pour sa signification précise — avant d’apprendre que, paradoxalement, c’est l’inverse. C’est le principe de la rétroacronymie, un phénomène linguistique à la fois amusant et révélateur : on crée un acronyme à partir d’un mot déjà existant, en inventant après coup des mots censés le justifier.Par exemple, le mot « avion », inventé par Clément Ader à partir du latin avis (oiseau), a été interprété de manière erronée comme « Appareil Volant Imitant l'Oiseau Naturel ». De même, les spas proviennent de la ville de Spa, et ne signifient pas Sana Per Aquam (la santé par l'eau).Autre cas fameux : le nom du moteur de recherche Yahoo!, présenté comme l’acronyme de Yet Another Hierarchical Officious Oracle. En réalité, ses créateurs, deux étudiants de Stanford, avaient d’abord choisi le mot « Yahoo » parce qu’il sonnait bien et évoquait le personnage rustre et énergique des Voyages de Gulliver de Jonathan Swift. Le sens technique a été plaqué ensuite.La rétroacronymie peut aussi servir à renforcer l’image d’une marque ou d’une institution. Par exemple, le sigle SOS n’a jamais voulu dire Save Our Souls ou Save Our Ship. Il a été choisi à l’origine uniquement pour sa simplicité en morse (· · · — — — · · ·). Ce n’est que plus tard qu’on lui a attribué cette signification héroïque, plus facile à mémoriser.Ce mécanisme illustre un trait fascinant du langage : notre tendance à chercher du sens, même là où il n’y en avait pas à l’origine. Les mots deviennent plus forts, plus mémorables, quand ils paraissent logiques. La rétroacronymie répond donc à un besoin psychologique : elle donne une apparence de cohérence à ce qui n’en avait pas.Une notion proche est celle de l’étymologie populaire : quand une expression change de forme ou de sens parce que les locuteurs la réinterprètent selon ce qu’ils croient entendre. Par exemple, « chou-fleur » vient du latin caulis floris (tige fleurie), mais d’autres mots comme « beaupré » ou « chausson » ont été transformés au fil du temps par des associations d’idées fausses mais séduisantes.Rétroacronymie ou étymologie populaire, ces deux phénomènes rappellent une chose essentielle : le langage n’est pas figé. Il vit, se raconte, et surtout, il s’invente des histoires pour mieux se souvenir de lui-même. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Vous est-il déjà arrivé de ne plus supporter un aliment après une mauvaise expérience ? Un jour, un plat vous rend malade, et dès lors, rien que son odeur vous soulève le cœur. Ce phénomène, à la fois étrange et universel, s’appelle l’effet Garcia, du nom du psychologue américain John Garcia qui le découvrit presque par hasard dans les années 1950.À l’époque, Garcia étudiait les effets des radiations sur les rats. Il leur donnait à boire de l’eau aromatisée avant de les exposer à une dose de rayonnement qui leur causait des nausées. Très vite, il observa un comportement inattendu : les rats refusaient ensuite obstinément de boire cette même eau, même si elle ne contenait rien de dangereux. Leur cerveau avait associé la saveur à la sensation de malaise, comme s’il avait identifié une menace. L’animal, pour se protéger, apprenait à éviter tout ce qui ressemblait à la cause supposée de son mal.Ce réflexe, que l’on appelle aversion gustative conditionnée, existe aussi chez l’être humain. Il s’agit d’un mécanisme de survie profondément inscrit dans notre biologie. Dans la nature, manger une baie toxique pouvait être mortel ; mieux valait donc retenir à jamais l’odeur, la couleur ou le goût de ce poison. C’est pourquoi une seule expérience désagréable suffit à créer un rejet durable. Contrairement à d’autres apprentissages, cet effet ne nécessite qu’une seule exposition : le cerveau retient le lien entre un goût et une nausée, même si celle-ci survient plusieurs heures plus tard.Sur le plan neurologique, l’effet Garcia mobilise des zones du cerveau liées à la mémoire émotionnelle : l’amygdale, qui gère les réactions de peur et de dégoût, et l’hippocampe, qui enregistre le contexte sensoriel. Ensemble, elles codent ce goût comme un signal de danger. Ainsi, des années plus tard, il suffit parfois d’un parfum ou d’une image pour raviver cette répulsion.Mais ce réflexe protecteur peut devenir envahissant : certaines personnes développent de véritables phobies alimentaires après une intoxication, ou ne supportent plus des plats pourtant inoffensifs. Ce mécanisme archaïque, utile chez nos ancêtres chasseurs-cueilleurs, agit aujourd’hui de manière parfois excessive dans un monde où les risques d’empoisonnement sont rares.L’effet Garcia rappelle donc une vérité fascinante : notre cerveau n’oublie jamais ce qui l’a fait souffrir. Et si la raison nous dit qu’un aliment est sans danger, notre instinct, lui, préfère ne pas tenter le diable. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Par une chaude journée d’été, le 4 juillet 1924, un petit restaurant de Tijuana, au Mexique, est pris d’assaut par des touristes venus des États-Unis. Nous sommes en pleine Prohibition : l’alcool est interdit de l’autre côté de la frontière, et les Américains affluent dans cette ville mexicaine pour boire et faire la fête. Le patron du restaurant, Caesar Cardini, un chef italien au tempérament passionné, regarde sa cuisine dévalisée avec angoisse : les réserves sont presque vides, les clients s’impatientent. Il lui faut improviser.Cardini ouvre son garde-manger : il ne reste que quelques feuilles de laitue romaine, un peu de pain rassis, du parmesan, des œufs, de l’huile d’olive, de la sauce Worcestershire, du citron, et une gousse d’ail. Pas de quoi faire un grand plat… à moins d’un peu de génie. Alors, devant la salle comble, il saisit un grand saladier, pile l’ail, casse un œuf légèrement poché, ajoute le citron, la sauce, l’huile, puis jette la romaine et les croûtons. Il mélange avec énergie, sous les yeux amusés de ses clients. Le parfum d’ail et de citron se répand. Un silence curieux s’installe, puis les premières bouchées sont goûtées : c’est un succès immédiat.La salade César est née — non pas à Rome, ni même en Italie, mais dans un coin poussiéreux du Mexique, un soir d’improvisation. Le bouche-à-oreille fait le reste. Des stars hollywoodiennes en villégiature à Tijuana — Clark Gable, Jean Harlow, et d’autres — s’émerveillent de ce plat simple et élégant. En quelques mois, la recette traverse la frontière, conquiert Los Angeles, puis tout le continent.Ce qu’on ignore souvent, c’est que la recette originale ne comportait ni poulet, ni anchois, ni bacon. Juste la fraîcheur de la romaine, le croquant du pain grillé, et la douceur citronnée de la sauce. Les versions modernes, plus riches, sont venues plus tard, adaptées aux goûts américains.Ainsi, derrière ce nom à consonance antique, la “César” n’a rien d’un hommage à Jules César. C’est l’histoire d’un Italien ingénieux, installé au Mexique, qui inventa par hasard un plat devenu universel.Une salade née d’un manque, transformée en légende : voilà, peut-être, le plus bel exemple de ce que la cuisine sait faire de mieux — transformer la contrainte en création. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
La question peut sembler provocante, mais elle en dit long sur nos fantasmes modernes : l’absence de relations sexuelles est-elle dangereuse pour la santé, voire mortelle ? La réponse est non… mais avec des nuances intéressantes.Sur le plan strictement biologique, on ne meurt pas d’abstinence sexuelle. Contrairement à la nourriture ou au sommeil, le sexe n’est pas une fonction vitale. Le corps humain s’adapte très bien à l’absence de rapports. D’un point de vue médical, il n’existe aucune pathologie mortelle liée au manque de relations sexuelles. Les spermatozoïdes non libérés sont naturellement réabsorbés, et l’organisme continue à fonctionner parfaitement.Mais si l’abstinence ne tue pas le corps, elle peut affecter le moral, le stress et le système immunitaire. Des études menées à l’université de Göttingen, en Allemagne, ou à l’université d’Oxford ont montré que les personnes ayant une vie sexuelle régulière libèrent davantage d’endorphines et d’ocytocine, deux hormones qui favorisent la détente, le bien-être et le lien social. Le sexe joue donc un rôle indirect sur la santé, en réduisant la pression artérielle et en améliorant la qualité du sommeil.À l’inverse, une longue abstinence peut parfois provoquer des troubles psychologiques : frustration, anxiété, baisse de l’estime de soi. Mais ces effets dépendent fortement du contexte : certaines personnes vivent très bien sans sexualité, notamment les personnes asexuelles ou celles qui trouvent d’autres formes d’épanouissement émotionnel. Ce n’est donc pas le manque d’activité sexuelle en soi qui pose problème, mais le ressenti de manque.En revanche, les études montrent un lien entre une vie sexuelle épanouie et la longévité. Une recherche publiée dans The British Medical Journal dès 1997 indiquait que les hommes ayant des orgasmes fréquents avaient un taux de mortalité réduit de moitié par rapport à ceux qui en avaient rarement. Non pas parce que le sexe protège directement, mais parce qu’il reflète une bonne santé physique, psychologique et relationnelle.Autrement dit, on ne meurt pas de ne pas faire l’amour, mais on vit souvent mieux quand on le fait. Le sexe n’est pas vital, il est vitalisant. Et s’il n’est pas indispensable à la survie, il contribue indéniablement à une vie plus sereine, plus équilibrée… et parfois, plus longue. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Si vous avez déjà observé les plaques d’immatriculation françaises, vous avez sans doute remarqué qu’on n’y trouve jamais les lettres O, I ou U. Pas un hasard, ni une fantaisie administrative : ces trois lettres ont été volontairement bannies par le système d’immatriculation pour une raison très précise : éviter toute confusion.Depuis 2009, les plaques suivent le format AA-123-AA. Ce code n’indique plus la région d’origine du véhicule, mais un simple numéro d’ordre national. Or, dans ce système, chaque lettre et chaque chiffre doivent être lus sans ambiguïté. C’est là que les problèmes commencent : le O ressemble trop au 0, le I au 1, et le U peut être confondu avec le V, surtout sur certaines polices de caractères ou dans de mauvaises conditions de lecture. Pour les radars automatiques, les caméras de surveillance ou les gendarmes qui notent un numéro sur le bord de la route, ces confusions pourraient provoquer de véritables casse-têtes.L’administration française, soucieuse d’uniformité, a donc décidé d’exclure définitivement ces lettres du système, tout comme certains groupes de lettres jugés ambigus ou offensants : par exemple, les combinaisons qui pourraient former des mots vulgaires, politiques ou religieux sont également proscrites. Vous ne verrez donc jamais de plaque affichant “KKK”, “GOD” ou “SEX”.Ce souci de lisibilité n’est pas propre à la France. D’autres pays, comme l’Allemagne, la Belgique ou le Royaume-Uni, ont aussi supprimé certaines lettres ou combinaisons pour les mêmes raisons. En France, le système SIV (Système d’Immatriculation des Véhicules) prévoit environ 277 millions de combinaisons possibles, ce qui laisse largement de quoi faire malgré ces exclusions.Il existe enfin une touche de pragmatisme : les lettres restantes permettent de simplifier la reconnaissance automatique, un élément clé à l’ère des radars et des péages électroniques. Dans un pays où la contravention arrive parfois avant le retour à la maison, mieux vaut que le numéro soit parfaitement lisible.En résumé : si les O, I et U ont disparu de nos plaques, ce n’est pas une lubie bureaucratique, mais une mesure de bon sens. Une petite subtilité du quotidien, héritée du souci d’efficacité… et d’un soupçon d’amour français pour la logique administrative. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Commençons par la pin-up. Le mot apparaît aux États-Unis dans les années 1940, pendant la Seconde Guerre mondiale. Il vient du verbe anglais to pin up, littéralement « épingler au mur ». Les soldats américains collaient dans leurs casiers ou leurs chambrées des photos de femmes séduisantes, souvent des actrices ou des mannequins, pour se donner du courage loin de chez eux. Ces images, issues de magazines ou de calendriers, étaient appelées pin-up girls. Leur beauté n’était pas provocante au sens moderne, mais incarnait un idéal féminin à la fois sensuel et joyeux — sourires éclatants, poses suggestives, maillots de bain rétro et courbes assumées.Des icônes comme Betty Grable, Rita Hayworth ou plus tard Marilyn Monroe deviennent de véritables symboles culturels : la pin-up, c’est la femme libre, confiante, qui affirme sa féminité avec humour et glamour. Le terme traversera ensuite l’Atlantique et entrera dans la langue française dès les années 1950. Aujourd’hui, il évoque tout un style vintage mêlant élégance, humour et sensualité, loin des représentations plus explicites de la culture contemporaine.À l’inverse, l’expression « béni-oui-oui » vient du registre populaire français et a une connotation moqueuse. Apparue au XIXᵉ siècle, elle désigne une personne docile, servile ou incapable de dire non. Le mot « béni » fait ici référence à quelqu’un d’un peu simple ou trop pieux — « béni » au sens ironique de « benêt ». Quant au redoublement de « oui », il renforce cette idée d’adhésion automatique : le « béni-oui-oui » est celui qui approuve tout sans réfléchir, par conformisme ou par peur du conflit.L’expression s’est popularisée dans les milieux politiques et journalistiques pour dénoncer les courtisans ou les collaborateurs sans esprit critique. Sous la IIIᵉ République, on l’utilisait déjà pour qualifier les partisans dociles d’un régime ou d’un chef. Elle est restée dans le langage courant comme une étiquette mordante pour désigner ceux qui manquent de personnalité.Ainsi, la pin-up célèbre l’affirmation de soi, tandis que le béni-oui-oui incarne la soumission. Deux expressions venues d’univers opposés — l’une de la culture populaire américaine, l’autre de la satire française — mais qui, chacune à leur manière, parlent du rapport entre liberté et conformisme. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
La tontine est sans doute l’un des placements les plus originaux — et les plus intrigants — de l’histoire financière. Imaginée au XVIIᵉ siècle, elle repose sur un principe aussi simple que déroutant : gagner de l’argent en survivant plus longtemps que les autres.Son invention revient à Lorenzo Tonti, un banquier napolitain installé en France, qui propose en 1653 au cardinal Mazarin un système destiné à financer le royaume sans recourir à de nouveaux impôts. Le principe : plusieurs investisseurs versent une somme dans un fonds commun, que l’État fait fructifier. Chaque année, les intérêts sont répartis entre les souscripteurs encore en vie. À mesure que les participants décèdent, leurs parts sont redistribuées aux survivants. Le dernier en vie hérite donc de la totalité des revenus.Ce mécanisme, entre placement collectif et pari sur la longévité, séduit immédiatement. À l’époque, c’est une manière innovante d’assurer sa retraite ou de transmettre un capital — tout en ajoutant une touche de suspense presque macabre. Les tontines royales rencontrent un grand succès, notamment sous Louis XIV, car elles combinent sécurité (le capital est garanti par l’État) et potentiel de gain élevé.Mais cette forme d’épargne a aussi ses zones d’ombre. Elle favorise une spéculation morbide : certains misent sur des groupes de vieillards en espérant des rendements rapides. D’autres trichent sur leur âge ou leur état de santé. Peu à peu, la complexité de la gestion et le risque de fraude font perdre à la tontine son prestige. Au XIXᵉ siècle, elle est supplantée par l’assurance-vie moderne, jugée plus éthique et plus transparente.Pourtant, le mot « tontine » n’a pas disparu. Dans de nombreux pays africains et asiatiques, il désigne aujourd’hui une forme d’épargne communautaire : plusieurs personnes versent régulièrement une somme dans un pot commun, attribué à tour de rôle à chaque membre du groupe. Ici, plus de pari sur la mort, mais une logique de solidarité et de confiance mutuelle.La tontine est donc un placement surprenant parce qu’elle mêle économie, hasard et humanité. Elle illustre à quel point la finance, loin d’être une invention moderne, a toujours cherché à concilier le profit individuel, le temps… et parfois même le destin. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
L’effet Flynn désigne un phénomène fascinant observé tout au long du XXᵉ siècle : la hausse régulière du quotient intellectuel (QI) moyen dans la plupart des pays industrialisés. Décrit pour la première fois par le politologue néo-zélandais James R. Flynn dans les années 1980, cet effet montre que, d’une génération à l’autre, les scores aux tests de QI augmentaient d’environ 3 points par décennie. Autrement dit, un individu moyen des années 1950 obtiendrait aujourd’hui un score inférieur à la moyenne actuelle, sans pour autant être moins intelligent — simplement parce que les tests ont dû être réétalonnés à mesure que le niveau global progressait.Les causes de ce phénomène sont multiples et cumulatives. D’abord, l’amélioration de l’éducation a joué un rôle majeur : l’école moderne apprend davantage à raisonner abstraitement, à manipuler des concepts, à catégoriser — des compétences directement valorisées par les tests de QI. Ensuite, la meilleure nutrition et les progrès de la médecine ont favorisé un développement cérébral plus complet, notamment durant la petite enfance. À cela s’ajoutent la réduction de la taille des familles (donc plus de stimulation individuelle pour chaque enfant) et la complexification du monde moderne : technologies, médias, urbanisation et exposition constante à de nouveaux symboles ont stimulé nos capacités cognitives.Mais depuis le début du XXIᵉ siècle, plusieurs études remettent en question la permanence de cet effet. En Norvège, au Danemark, en Finlande ou au Royaume-Uni, les chercheurs constatent une baisse du QI moyen depuis les années 1990 — un phénomène inverse, parfois appelé « effet Flynn inversé ». En France, une étude publiée en 2018 dans Intelligence a montré une diminution moyenne d’environ 4 points en vingt ans chez les jeunes adultes.Les raisons de ce recul sont débattues. Certains évoquent un effet plafond : l’humanité aurait atteint un niveau d’éducation et de santé où les gains cognitifs se stabilisent naturellement. D’autres soulignent l’impact de changements sociétaux : usage excessif des écrans, déclin de la lecture, baisse de la concentration, ou encore inégalités scolaires grandissantes. Flynn lui-même, avant sa mort en 2020, estimait que l’effet n’avait pas disparu, mais qu’il se fragmentait selon les contextes : certains pays continuent de progresser, d’autres stagnent ou reculent.En résumé, l’effet Flynn a bien existé — il a même transformé notre manière de penser l’intelligence —, mais il n’est plus universel aujourd’hui. Son évolution reflète moins une baisse de nos capacités que les mutations profondes de notre environnement culturel et cognitif. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Bien avant Google, Wikipedia ou Internet, deux visionnaires belges ont imaginé un système pour rassembler tous les savoirs du monde. À la fin du XIXᵉ siècle, Paul Otlet et Henri La Fontaine, juristes et humanistes, conçoivent à Bruxelles un projet d’une ambition vertigineuse : le Répertoire bibliographique universel (RBU). Leur idée ? Créer une base de données mondiale recensant chaque livre, article, découverte et document publié sur Terre. Un rêve de connaissance totale, bien avant l’ère numérique.Le projet voit le jour en 1895, dans le sillage du positivisme et de l’idéalisme scientifique de l’époque. Otlet et La Fontaine croient en un monde où la paix et le progrès viendraient de la mise en commun du savoir. Pour cela, ils inventent un système révolutionnaire de classification : la Classification décimale universelle (CDU), encore utilisée aujourd’hui dans certaines bibliothèques. Chaque information reçoit un code numérique, permettant de la retrouver et de la relier à d’autres, selon un principe qui annonce déjà les liens hypertextes d’Internet.Le Répertoire bibliographique universel devient rapidement gigantesque. Dans leurs bureaux, des dizaines de collaborateurs compilent, à la main, des fiches cartonnées de 12,5 × 7,5 cm. Chacune décrit un livre, un article ou une donnée scientifique. En quelques années, le projet dépasse les 12 millions de fiches, soigneusement rangées dans des tiroirs métalliques. Pour consulter une information, les chercheurs du monde entier peuvent écrire une lettre : le centre de documentation leur envoie alors, par courrier, les références demandées. Autrement dit, une forme primitive de moteur de recherche humain, avec du papier et des timbres à la place des algorithmes et des câbles.Otlet rêve même d’aller plus loin : il imagine une « cité mondiale du savoir », où chacun pourrait consulter à distance des millions de documents via des écrans connectés. Dans ses carnets, il dessine des machines de lecture à distance, combinant électricité, téléphone et microfilm — une vision étonnamment proche des ordinateurs en réseau.Mais la Seconde Guerre mondiale interrompt le projet ; une partie du répertoire est détruite. Le reste est aujourd’hui conservé au Mundaneum, à Mons, surnommé parfois « le Google de papier ».Ainsi, bien avant l’informatique, un Belge a rêvé d’Internet. Paul Otlet n’a pas inventé le Web, mais il en a conçu l’esprit : celui d’un monde où le savoir circule librement, pour relier les esprits plutôt que les écrans. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
L’expression « Ave Caesar, morituri te salutant » — « Salut à toi, César, ceux qui vont mourir te saluent » — évoque aujourd’hui l’image de gladiateurs saluant l’empereur avant un combat à mort. Pourtant, cette représentation populaire est historiquement fausse. Les gladiateurs n’ont, semble-t-il, jamais prononcé cette phrase avant leurs affrontements. Son origine est bien plus ponctuelle, presque anecdotique, et remonte à un unique épisode de l’histoire romaine.Nous sommes en 52 après J.-C., sous le règne de l’empereur Claude. À cette époque, Rome célèbre l’inauguration d’un immense bassin artificiel destiné à accueillir une naumachie, un spectacle grandiose de bataille navale reconstituée. Pour divertir la foule, Claude fait affronter sur l’eau plusieurs milliers d’hommes, souvent des condamnés, des prisonniers de guerre ou des esclaves, contraints de s’entre-tuer dans une reconstitution sanglante.Selon l’historien Suétone, ces combattants, avant de s’élancer, se rangèrent devant l’empereur et lui lancèrent cette phrase : « Ave, imperator, morituri te salutant ». Ce n’était pas un cri d’honneur, mais plutôt une supplication ironique et désespérée. En saluant l’empereur, ils imploraient sa clémence, espérant qu’il les épargnerait. Loin d’être une tradition, cette salutation fut un acte isolé, une tentative d’émouvoir Claude.Et, fait rare dans les chroniques romaines, il semble que l’empereur ait été touché. Pris de compassion, il aurait ordonné d’arrêter le combat et d’épargner les hommes. Mais, selon certaines sources, le spectacle reprit ensuite, peut-être sous la pression de la foule impatiente. Quoi qu’il en soit, cette unique scène, immortalisée par les auteurs antiques, devint le symbole de la soumission absolue au pouvoir impérial.Au fil des siècles, l’expression fut détournée et romantisée. Les artistes et écrivains du XIXᵉ siècle, fascinés par la grandeur tragique de Rome, imaginèrent les gladiateurs la prononçant avant d’entrer dans l’arène. Le cinéma et la littérature en firent une réplique héroïque, transformant une supplique d’hommes condamnés en cri de loyauté virile.En réalité, cette phrase n’était donc ni un rituel, ni un mot d’honneur, mais le témoignage ponctuel d’un désespoir collectif. Derrière la grandeur du latin, il faut y entendre non pas la gloire du combat, mais le tremblement de ceux qui savent qu’ils vont mourir — et qui, jusqu’au bout, tentent encore de vivre. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
L’histoire du sushi est bien plus ancienne — et bien plus surprenante — qu’on ne l’imagine. Avant d’être un mets raffiné servi dans les restaurants du monde entier, le sushi fut d’abord… une méthode de conservation du poisson. Rien à voir, donc, avec les bouchées délicates que l’on déguste aujourd’hui.Tout commence en Asie du Sud-Est, plusieurs siècles avant notre ère. Les pêcheurs du Mékong, puis ceux de Chine, avaient découvert un moyen ingénieux de conserver le poisson sans réfrigération : ils le salaient, puis l’enfermaient dans du riz cuit. Ce riz, en fermentant, produisait de l’acide lactique, qui empêchait la chair du poisson de se décomposer. Après plusieurs mois, on retirait le riz — devenu acide et peu appétissant — pour ne manger que le poisson, désormais parfaitement conservé. Cette pratique s’appelait le narezushi, littéralement « poisson fermenté dans le riz ».Au VIIIe siècle, cette méthode arrive au Japon, où elle est rapidement adoptée. Le Japon, archipel de pêcheurs, y trouve un moyen idéal de préserver ses ressources marines. Mais peu à peu, les Japonais, fins gastronomes, vont transformer cette technique de survie en art culinaire. D’abord, ils raccourcissent la durée de fermentation : quelques semaines au lieu de plusieurs mois. Puis, ils se mettent à consommer aussi le riz, découvrant que son goût légèrement acide s’accorde bien avec le poisson.C’est au XVIIᵉ siècle, à l’époque d’Edo (l’actuel Tokyo), qu’une véritable révolution se produit. Les habitants d’Edo, pressés et amateurs de nouveautés, n’ont plus le temps d’attendre la fermentation. Un chef anonyme a alors l’idée de reproduire le goût acidulé du riz fermenté… en y ajoutant du vinaigre de riz ! C’est la naissance du hayazushi, le « sushi rapide ». Plus besoin d’attendre des mois : on mélange du riz vinaigré à du poisson frais, et on peut le consommer immédiatement.De cette invention naîtront les différentes formes de sushi modernes, dont le nigirizushi — cette petite bouchée de riz surmontée d’une tranche de poisson cru — popularisé au XIXᵉ siècle à Tokyo, vendu dans la rue comme un fast-food local.Ainsi, le sushi, symbole aujourd’hui de raffinement et de fraîcheur, est né d’un besoin très pragmatique : conserver le poisson dans le riz pour éviter qu’il ne pourrisse.Autrement dit, avant d’être un art, le sushi fut une astuce — et c’est peut-être là que réside tout le génie japonais : transformer une contrainte en tradition millénaire. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.






👌👌
en Iran, cette année il y a 27 jours fériés !!!😁
Mettre des pubs McDonald's pour influencer des enfants ? Sérieusement ?
Du contenu qui peut parfois être intéressant même pour les adultes. Cependant, 45s de pubs sur 2 minutes d'épisodes c'est dingue... c'est-à-dire que si je veux laisser le podcast une demi-heure, je vais avoir plus de 11 minutes de pubs ?!? En plus, des pubs Mc Donald's pour un contenu destiné aux enfants, c'est ethniquement inapproprié. Jamais je laisse ça à mes enfants.
il a 10 chiffres il ne faut pas oublier le 0 ;)
Les "manags"?
franchement je ne savais pas