Discover
La Guilde ! - Devenez un expert en Quality Engineering
La Guilde ! - Devenez un expert en Quality Engineering
Author: Jean-Francois Fresi
Subscribed: 5Played: 107Subscribe
Share
© Jean-Francois Fresi
Description
đ Le podcast des leaders de la qualitĂ© logicielle et du Quality Engineering
Chaque semaine, dĂ©couvrez des techniques d'audit, de formation, dâautomatisation des tests et de coaching pour optimiser votre qualitĂ©. La Guilde te guide Ă travers les dĂ©fis de la transformation digitale avec "Shift Left", "Right", et "Up".
Pour responsables QA, ingénieurs qualité, CTO, tech leaders et passionnés.
â MĂ©thodes actionnables
â Formats courts : 1 Ă©pisode/sem. et mini-sĂ©rie 10 min/jour.
Soutiens nous :
- Abonne-toi đ
- Laisse un avis et 5 Ă©toiles (âïžâïžâïžâïžâïž)
- Inscris-toi : https://laguilde.substack.com
Chaque semaine, dĂ©couvrez des techniques d'audit, de formation, dâautomatisation des tests et de coaching pour optimiser votre qualitĂ©. La Guilde te guide Ă travers les dĂ©fis de la transformation digitale avec "Shift Left", "Right", et "Up".
Pour responsables QA, ingénieurs qualité, CTO, tech leaders et passionnés.
â MĂ©thodes actionnables
â Formats courts : 1 Ă©pisode/sem. et mini-sĂ©rie 10 min/jour.
Soutiens nous :
- Abonne-toi đ
- Laisse un avis et 5 Ă©toiles (âïžâïžâïžâïžâïž)
- Inscris-toi : https://laguilde.substack.com
144Â Episodes
Reverse
On a parlĂ© des utilisateurs, des QA, des managers. Il Ă©tait temps de prendre de la hauteur.Parce que la qualitĂ©, au fond, ne dĂ©pend pas d'une seule personne. Elle Ă©merge â ou elle s'effondre â du fonctionnement global de l'Ă©quipe.Dans ce dernier Ă©pisode, Imen Naguez et moi on clĂŽt la sĂ©rie avec la question la plus profonde : et si le QA Ă©tait le rĂ©vĂ©lateur de l'Ă©tat psychologique d'un systĂšme entier ?DĂ©fensivitĂ©, silos, dĂ©responsabilisation, non-dits collectifs⊠Le QA les voit. Les ressent. Les absorbe. Mais surtout, s'il est bien positionnĂ©, il peut les mettre en lumiĂšre et aider le systĂšme Ă se transformer.đ Dans cet Ă©pisode, on explore :L'Ă©quipe comme systĂšme vivant : interactions, rituels, zones d'ombreLes signaux faibles que le QA capte avant tout le mondeComment passer du rĂŽle de dĂ©tecteur Ă celui d'accompagnateur et de coachVers une qualitĂ© collective : responsabilisation, coaching, sens partagĂ©đĄ La qualitĂ© n'est pas un livrable, c'est l'Ă©tat psychologique du systĂšme.Merci d'avoir suivi cette sĂ©rie. On espĂšre qu'elle t'a donnĂ© envie de regarder ton projet⊠avec d'autres yeux.đ§ Bonne Ă©coute.
Entre le management qui pousse, les Ă©quipes qui doutent, et les dĂ©lais qui ne bougent pas â le test manager marche sur un fil.Chaque jour, il absorbe des tensions contradictoires. QualitĂ© vs vitesse. Risque vs engagement. Exigences business vs rĂ©alitĂ©s terrain. Et il doit trancher. Assumer. Expliquer. Sans perdre ni sa crĂ©dibilitĂ© ni sa sĂ©rĂ©nitĂ©.Dans cet Ă©pisode, Imen Naguez et moi on dĂ©cortique ce rĂŽle de "tampon Ă©motionnel" que personne ne revendique, mais que tout le monde attend du test manager.đ Dans cet Ă©pisode, on explore :Les arbitrages invisibles que le test manager fait seul, chaque semainePourquoi calme, clartĂ© et dĂ©cision assumĂ©e sont ses vraies compĂ©tences clĂ©sComment rassurer une Ă©quipe, recadrer un sponsor et tenir une posture sous pressionLe test manager comme psychologue collectif, celui qui donne du sens quand tout part dans tous les sensđĄ Manager la qualitĂ©, c'est manager aussi des tensions humaines.Si tu es test manager ou lead QA, cet Ă©pisode est un miroir. Et peut-ĂȘtre un peu de rĂ©confort.đ§ Bonne Ă©coute.
Ătre celui qui dit non. Annoncer les mauvaises nouvelles. Soulever les problĂšmes que personne ne veut entendre. Et recommencer. Sans toujours ĂȘtre Ă©coutĂ©. Sans toujours ĂȘtre reconnu.Dans cet Ă©pisode, Imen Naguez et moi on aborde un sujet encore tabou dans nos mĂ©tiers : le vĂ©cu Ă©motionnel du QA.Le syndrome de l'imposteur. La fatigue de devoir se justifier. Le besoin de perfection qui Ă©puise. Et ce burn-out silencieux qui s'installe quand personne ne remarque que le QA, lui aussi, a besoin de soutien.đ Dans cet Ă©pisode, on explore :Les Ă©motions du quotidien du QA â celles qu'on ne verbalise jamaisLes biais internes qui fragilisent la posture : sur-contrĂŽle, perfectionnisme, peur de ne pas ĂȘtre lĂ©gitimeLa fatigue Ă©motionnelle du QA psychologue⊠sans psychologue pour luiLes leviers concrets pour retrouver Ă©quilibre, recul et crĂ©dibilitĂ©đĄ Un QA qui ne va pas bien ne peut pas effectuer son travail.Avant de parler de qualitĂ© logicielle, parlons de qualitĂ© de vie au travail.đ§ Bonne Ă©coute.
Les utilisateurs ne font jamais ce qu'on attend d'eux.Et ce n'est pas un problĂšme â c'est la rĂ©alitĂ© humaine.Dans cet Ă©pisode, Imen Naguez et moi on creuse une conviction que beaucoup d'Ă©quipes refusent d'accepter : tester, ce n'est pas valider un scĂ©nario. C'est explorer un comportement.On parle de raccourcis mentaux, d'Ă©motions, de contexte d'usage. On parle de ces biais d'Ă©quipe qui font qu'on conçoit des logiciels pour un utilisateur imaginaire â rationnel, attentif, patient â qui n'existe pas.đ Dans cet Ă©pisode, on explore :Pourquoi les utilisateurs "font n'importe quoi"⊠et ont pourtant raisonLe QA comme observateur des usages rĂ©els, pas des cas prĂ©vusEmpathie, personas, parcours utilisateurs : les outils du QA psychologueLes croyances limitantes qui sabotent les tests avant mĂȘme qu'ils commencentđĄ Tester, ce n'est pas vĂ©rifier un scĂ©nario, c'est explorer un comportement.Si tu veux des tests qui reflĂštent le monde rĂ©el, commence par comprendre les humains qui l'habitent.đ§ Bonne Ă©coute.
Et si les bugs n'Ă©taient que des symptĂŽmes ?Dans ce premier Ă©pisode, j'accueille Imen Naguez pour ouvrir une sĂ©rie qui sort des sentiers battus : la psychologie au cĆur de la qualitĂ© logicielle.On parle souvent de mĂ©thodes, de coverage, de KPIs. Mais rarement de ce qui se passe vraiment entre les humains d'un projet.Pourtant, le QA observe. Ăcoute. Reformule. Questionne sans juger. Il capte ce qui est dit⊠et surtout ce qui ne l'est pas.đ Ăa te rappelle quelqu'un ?Dans cet Ă©pisode, on explore :Le parcours d'Imen et pourquoi ce parallĂšle QA / psychologue lui parle profondĂ©mentLe rĂŽle invisible du QA : celui qui met en lumiĂšre les non-ditsLes points communs entre curiositĂ©, neutralitĂ© et questionnement, des deux cĂŽtĂ©s du canapĂ©Pourquoi la qualitĂ© Ă©choue si souvent⊠et que ce n'est presque jamais un problĂšme techniqueđĄUn bug est souvent le symptĂŽme d'un malaise plus profond.Si tu penses que la qualitĂ©, c'est avant tout une affaire d'humains, cet Ă©pisode est fait pour toi.đ§ Bonne Ă©coute.La sĂ©rie complĂšte : 5 Ă©pisodes, 5 angles psychologiques, une seule conviction â la qualitĂ© naĂźt des interactions, pas des outils.
Couverture de code, nombre de tests, bugs ouverts, taux de rĂ©ussite des pipelines⊠Et si tout ça ne servait Ă rien ?La plupart des dashboards qualitĂ© sont des posters. Ils sont pleins de courbes. Ils rassurent. Et ils ne changent rien.Dans cet Ă©pisode, j'introduit le concept de Quality Intelligence : transformer des signaux qualitĂ© en dĂ©cisions actionnables ; pas en vanity metrics.Au programme :đ Vanity metrics vs indicateurs dĂ©cisionnelsPourquoi le pourcentage de couverture, le nombre total de tests ou le pass rate global sont des chiffres qui occupent l'espace sans guider aucune dĂ©cision et comment les reconnaĂźtre.đŻ La rĂšgle d'or : "quelle dĂ©cision ?"Avant de choisir un KPI, trois questions Ă poser systĂ©matiquement. Et une formule simple Ă garder : Un KPI utile = DĂ©cision + Risque + Action + Seuil.đïž Le framework en 3 couchesImpact utilisateur et business, qualitĂ© du delivery, diagnostic engineering â comment structurer un dashboard lisible, sans 30 graphiques inutiles, avec un maximum de 8 Ă 12 indicateurs.đ ïž La mĂ©thode en 5 Ă©tapesChoisir 3 dĂ©cisions rĂ©currentes, cartographier 5 risques majeurs, associer un indicateur et un levier par risque, fixer des seuils, et installer la boucle de dĂ©cision dans les rituels d'Ă©quipe.đĄ Des exemples concrets prĂȘts Ă l'emploiFlaky rate, change failure rate, MTTR, bugs critiques ouverts â avec pour chacun la dĂ©cision qui suit et le levier Ă actionner.Que vous soyez engineering manager, tech lead, QA ou product owner, cet Ă©pisode vous donne un cadre pour que votre tableau de bord qualitĂ© rĂ©ponde enfin Ă une seule question : qu'est-ce qu'on fait lundi matin ?
10 tests. Puis 30. Puis 300. Un pipeline qui dure 45 minutes, des flakes une fois sur cinq, et plus personne n'ose toucher Ă la suite de tests.Si tu reconnais ce scĂ©nario, cet Ă©pisode est fait pour toi.Je dĂ©cortique l'un des problĂšmes les plus coĂ»teux et les plus silencieux des Ă©quipes tech : la dette E2E. Pas pour te dire d'arrĂȘter les tests end-to-end mais pour t'aider Ă les garder sous contrĂŽle.Au programme :đ Pourquoi les E2E explosentLes 3 causes principales : les E2E utilisĂ©s comme bĂ©quille, des tests trop dĂ©taillĂ©s, et une dĂ©pendance Ă tout l'environnement. RĂ©sultat : une suite lente, fragile et bruyante.đŻ Le bon rĂŽle des tests E2EUn E2E n'est pas une preuve. C'est une alarme. Apprenez Ă dĂ©finir votre "zone de confiance" : login, parcours principal, flux critiques et rien de plus.đ RĂ©duire la surface E2EPourquoi une suite efficace tient souvent en 10 Ă 30 scĂ©narios, et comment identifier les tests qui n'ont rien Ă faire en E2E grĂące Ă une checklist simple.⥠4 leviers pour des tests plus rapidesShift-left du flux, parallĂ©lisation, smoke vs full suite, bannir les sleeps : des pratiques concrĂštes pour rĂ©cupĂ©rer un pipeline vivable.đ ïž Traiter la fragilitĂ© Ă la racineSĂ©lecteurs instables, stratĂ©gie de donnĂ©es, asynchronisme, observabilitĂ© du test et une rĂšgle terrain : un test qui flake deux fois sort du pipeline bloquant.Que vous soyez dĂ©veloppeur, QA, tech lead ou engineering manager, cet Ă©pisode vous donne les outils pour remettre vos E2E Ă leur juste place dans votre stratĂ©gie de tests.
Une spec ambiguĂ«, c'est un bug en attente et parfois bien pire : trois interprĂ©tations diffĂ©rentes du mĂȘme besoin, des semaines de rework, et des tensions en Ă©quipe.Dans cet Ă©pisode, j'attaque un sujet souvent nĂ©gligĂ© mais qui coĂ»te cher Ă toutes les Ă©quipes tech et produit : la qualitĂ© des spĂ©cifications fonctionnelles. Je te montre une approche pragmatique pour mesurer puis rĂ©duire lâambiguĂŻtĂ© des spĂ©cifications afin dâamĂ©liorer la qualitĂ© logicielle, limiter les allers-retours en refinement, et livrer plus sereinement.Au programme :đ Comprendre l'ambiguĂŻtĂ© des besoinsAmbiguĂŻtĂ© lexicale (mots flous : "rapide", "intuitif", "optimisĂ©"), rĂšgles mĂ©tier non dĂ©finies, contexte manquant â apprenez Ă identifier les 3 formes les plus frĂ©quentes qui plombent vos projets.đ Mesurer l'ambiguĂŻtĂ© sans usine Ă gazAvec des exemples de mĂ©triques : pilotez enfin la qualitĂ© de vos specs avec des donnĂ©es.đ ïž RĂ©duire l'ambiguĂŻtĂ© avec 4 leviers pratiques- Example Mapping, critĂšres d'acceptation, ou encore tavbbles de dĂ©cision : des outils immĂ©diatement applicables rapidement.Que vous soyez product owner, business analyst, tech lead ou dĂ©veloppeur, cet Ă©pisode vous donne les outils pour livrer des user stories claires, testables et comprises de tous.
Dernier Ă©pisode de la sĂ©rie : comment concilier exigences normatives, agilitĂ© et efficacitĂ© terrain⊠sans retomber dans une QA bureaucratique.Avec CĂ©dric Lefebvre, on aborde :lâindĂ©pendance du testeur en embarquĂ© : pourquoi elle est cruciale, et comment Ă©viter de crĂ©er des siloslâagilitĂ© en embarquĂ© : mythe ou rĂ©alitĂ© ? ce qui est possible, ce qui doit ĂȘtre adaptĂ©, et comment aligner des rythmes diffĂ©rentsla traçabilitĂ© et les normes (ex : ISO 26262) : comment viser le âjuste suffisantâ au lieu de produire des documents mortsOn termine avec des pratiques concrĂštes :checklists intelligentestraçabilitĂ© pragmatiquegouvernance lĂ©gĂšre mais claiređ§ Objectif : repartir avec une approche Ă©quilibrĂ©e, rĂ©aliste et applicable â qui respecte les contraintes du domaine sans sacrifier la vitesse ni la qualitĂ©.
Dans cet Ă©pisode, on change de focale : on sort du âbug Ă corrigerâ pour parler coĂ»t, responsabilitĂ© et sĂ©curitĂ©.Avec CĂ©dric Lefebvre, on explique pourquoi un bug embarquĂ© peut ĂȘtre bien plus cher quâun bug logiciel classique :rappels produitsinterventions terrainimmobilisation de matĂ©rielmises Ă jour coĂ»teuses (et parfois impossibles)On illustre avec des contextes concrets :automobiledispositifs mĂ©dicauxindustrie critique / IoTEt on met en Ă©vidence les impacts non techniques :sĂ©curitĂ© des personnesimage de marqueresponsabilitĂ© lĂ©galeđ§ Objectif : reconnecter la stratĂ©gie de test Ă la rĂ©alitĂ© business et aux risques, et comprendre pourquoi le risk-based testing nâest pas un luxe en embarquĂ©, mais une nĂ©cessitĂ©.
TroisiĂšme Ă©pisode, et un sujet trĂšs concret (et souvent tabou) : le bruit dans les tests embarquĂ©s.Avec CĂ©dric Lefebvre, on parle de ce qui dĂ©truit la confiance le plus vite :un test qui Ă©choue âpour rienâ (faux positif)un test qui passe alors que le produit est cassĂ© (faux nĂ©gatif)Pourquoi câest si frĂ©quent en embarquĂ© ?instabilitĂ© matĂ©riellesynchronisation, timing, interruptionscapteurs, conditions rĂ©elles difficiles Ă maĂźtriserOn explore lâimpact rĂ©el :fatigue des Ă©quipesperte de crĂ©dibilitĂ© de la QAdĂ©cisions prises sur de mauvais signauxEt on termine avec des leviers pragmatiques pour rĂ©duire les mensonges :rendre les tests plus robustes (seuils, tolĂ©rances, conditions)faire de la root cause analysissĂ©parer clairement anomalies produit vs anomalies dâenvironnementđ§ Objectif : retrouver des signaux fiables, et Ă©viter que âlâautomatisationâ devienne un gĂ©nĂ©rateur dâalertes inutiles.
Dans ce deuxiĂšme Ă©pisode, avec CĂ©dric Lefebvre, on attaque le sujet qui fait (souvent) gagner ou perdre la bataille : les environnements de test.Parce quâen embarquĂ©, la qualitĂ© des tests dĂ©pend directement de la qualitĂ© de ce que tu as pour exĂ©cuter, observer, rejouer⊠et comparer.On fait le tour des approches et de leurs compromis :Simulation, Ă©mulation, bancs de test (MIL / SIL / HIL) et tests sur cible rĂ©ellece que chaque environnement te donne (ou te cache) en termes de coĂ»t, fidĂ©litĂ©, rapiditĂ©, scalabilitĂ©les erreurs classiques : surconfiance dans la simu, environnements instables/non versionnĂ©s, tests impossibles Ă rejouerEt surtout : les bonnes pratiques qui Ă©vitent de construire un chĂąteau de cartes :stratĂ©gie dâenvironnements alignĂ©e sur les risquesprogression intelligente (du virtuel au rĂ©el)documentation minimale⊠mais utileđ§ Objectif : tâaider Ă choisir les bons environnements au bon moment â sans exploser les coĂ»ts ni perdre la crĂ©dibilitĂ© de la QA.
Dans ce premier Ă©pisode, jâouvre une mini-sĂ©rie dĂ©diĂ©e au test des systĂšmes embarquĂ©s avec CĂ©dric Lefebvre.Si tu viens du web, du mobile ou du SaaS, tu vas vite comprendre pourquoi les rĂ©flexes âclassiquesâ (test automatisĂ© facile, observabilitĂ©, environnements reproductiblesâŠ) ne suffisent plus dĂšs quâon parle dâembarquĂ©.On pose les bases :ce qui rend lâembarquĂ© fondamentalement diffĂ©rent (contraintes CPU/mĂ©moire/Ă©nergie, temps rĂ©el, interruptions, couplage hardware/software, cycles de vie longs)pourquoi on ne peut pas âtester comme une web appâ (peu dâobservabilitĂ©, dĂ©pendance aux Ă©quipements, tests tardifs et coĂ»teux)les risques typiques quand on sous-estime ces contraintes (bugs dĂ©couverts trop tard, effets de bord imprĂ©visibles, frictions entre Ă©quipes soft/hard/systĂšme)đ§ Objectif de lâĂ©pisode : casser les idĂ©es reçues, donner un cadre clair, et te prĂ©parer pour la suite de la sĂ©rie (environnements, bruit dans les tests, impact business/sĂ©curitĂ©, normes et agilitĂ©).Ă Ă©couter si tu veux comprendre ce qui fait la complexitĂ© â et la rĂ©alitĂ© terrain â du test embarquĂ©.
Quand on parle de tests en DevOps, on pense souvent automatisation, pipelines CI/CD et voyants verts.Mais est-ce vraiment ça, le test en DevOps ?Dans cet Ă©pisode, je te propose de prendre du recul et de regarder le test dans sa globalitĂ©, au cĆur du modĂšle DevOps â bien au-delĂ des seuls tests automatisĂ©s.đ Au programme :Pourquoi DevOps â pipeline de testsLes limites de lâautomatisation quand elle nâest pas portĂ©e par une vraie stratĂ©gieLa qualitĂ© comme responsabilitĂ© collective (dev, produit, ops, QA)Tester le systĂšme : code, infra, donnĂ©es, configurations, hypothĂšsesLe rĂŽle clĂ© du feedback rapide et exploitablePourquoi le vrai enjeu nâest pas de tout tester, mais de piloter le risqueđŻ Un Ă©pisode pour celles et ceux qui veulent :arrĂȘter de confondre DevOps et outillageremettre la qualitĂ© au centre des dĂ©cisionsfaire Ă©voluer le rĂŽle du test et des QA dans un contexte moderneđ DevOps sans qualitĂ© intĂ©grĂ©e, câest juste livrer plus vite⊠les problĂšmes.
Pas de donnĂ©es de test fiables.Des environnements instables.Des jeux de donnĂ©es Ă©crasĂ©s ou inexistants.Et pourtant⊠il faut tester.Dans cet Ă©pisode, je parle dâun sujet que vivent la majoritĂ© des Ă©quipes produit et tech : comment tester efficacement quand on nâa pas de vraie stratĂ©gie de donnĂ©es de test.đ Pourquoi lâabsence de data ne doit pas devenir une excuse pour ne pas testerđ Pourquoi le problĂšme est souvent organisationnel avant dâĂȘtre techniqueđ Comment changer de mindset : tester des comportements plutĂŽt que des bases de donnĂ©esđ 5 leviers concrets pour tester malgrĂ© des donnĂ©es instables ou incomplĂštesđ Comment transformer cette contrainte en opportunitĂ© pour amĂ©liorer la qualitĂ© globaleUn Ă©pisode pragmatique, basĂ© sur le terrain, pour les QA, Quality Engineers, dĂ©veloppeurs et Ă©quipes produit confrontĂ©s au legacy, aux ERP, aux environnements fragiles et Ă la rĂ©alitĂ© du quotidien.đŻ Objectif : rĂ©duire le risque, mĂȘme sans data parfaite.Bonne Ă©coute đïž
GĂ©nĂ©rer des tests avec lâIA, câest facile.Les maintenir, les faire Ă©voluer et garder un patrimoine sain⊠beaucoup moins.Dans cet Ă©pisode, je te propose de dĂ©passer le discours classique sur le prompting et la gĂ©nĂ©ration automatique de cas de test.Car dans la vraie vie des Ă©quipes QA, le problĂšme nâest pas le manque de tests.Câest lâinverse.đ Des patrimoines de 100, 500, parfois 1000+ tests,đ des suites difficiles Ă maintenir,đ du bruit, des faux positifs,đ et une dette de test qui sâaccumule.đŻ Dans cet Ă©pisode, on parle de ce que signifie vraiment industrialiser lâIA dans les tests :pourquoi crĂ©er plus de tests avec lâIA est souvent une mauvaise idĂ©ecomment utiliser lâIA pour nettoyer, maintenir et faire Ă©voluer lâexistanten quoi les agents IA peuvent devenir des gardiens du patrimoine de testet pourquoi lâindustrialisation passe par la gouvernance, pas par la gĂ©nĂ©ration de volumeUn Ă©pisode pour celles et ceux qui veulent faire de lâIA un levier de Quality Engineering, pas un gadget de plus.đïž Bonne Ă©coute.
Comment recruter de bons QA dans un contexte de transformation culturelle ?Pour clĂŽturer cette mini-sĂ©rie, nous revenons Ă lâessentiel : lâhumain.Avec Nicolas Canseco, nous explorons ce qui fait un bon QA aujourdâhui, au-delĂ des compĂ©tences techniques affichĂ©es sur un CV.Dans cet Ă©pisode :Le profil du QA moderne :curiositĂ©,communication,collaboration,sens produitLes erreurs classiques de recrutement en QA :chercher des exĂ©cutants,ignorer les soft skills,sous-estimer la culture qualitĂ©Les qualitĂ©s clĂ©s dâun QA dans un modĂšle de Quality Assistance :capacitĂ© Ă coacher et vulgariser,ouverture au Dev et au Produit,approche systĂ©miqueLâimportance de lâonboarding, de la formation continue et du rĂŽle du management dans la rĂ©tention des talentsđŻ Nicolas partage sa vision du recrutement QA comme un levier stratĂ©gique de transformation durable.
Les indicateurs QA doivent-ils servir Ă contrĂŽler⊠ou Ă progresser ?Dans cet Ă©pisode, nous abordons un sujet sensible : la mesure de la qualitĂ© et son rĂŽle dans la conduite du changement.Avec Nicolas Canseco, nous dĂ©construisons les mĂ©triques QA classiques pour mieux comprendre :Pourquoi la mesure pour la mesure est contre-productiveQuels indicateurs sont rĂ©ellement utiles pour piloter la qualitĂ© ?La diffĂ©rence entre qualitĂ© mesurĂ©e et qualitĂ© perçueLâimportance de la transparence et du partage des mĂ©triques avec les Ă©quipesđŻ Lâobjectif : rendre visibles les progrĂšs sans blĂąmer, et transformer les indicateurs en leviers dâamĂ©lioration collective.
Tester plus ne garantit pas plus de qualitĂ©.Tester mieux, en revanche, change tout.Dans cet Ă©pisode, nous plongeons dans le Lean Testing et son apport dans une dĂ©marche de transformation QA orientĂ©e valeur.Avec Nicolas Canseco, nous discutons :Des principes du Lean appliquĂ©s au test logicielDes gaspillages les plus frĂ©quents en QA :tests redondants,maintenance excessive,feedbacks trop tardifs,anomalies peu exploitablesDes pratiques clĂ©s du Lean Testing :priorisation par le risque,Ă©limination du superflu,feedbacks continus,automatisation ciblĂ©eDu lien direct entre Lean Testing et conduite du changement :sortir du mythe âplus de tests = plus de qualitĂ©â
Et si le pair testing Ă©tait bien plus quâune simple pratique de test collaboratif ?Dans cet Ă©pisode, nous explorons comment le pair testing peut devenir un vĂ©ritable levier de conduite du changement, en rapprochant QA, dĂ©veloppeurs et product managers autour dâun objectif commun : mieux comprendre le produit.Avec Nicolas Canseco, L'expert numĂ©ro 1 sur le sujet en France, nous abordons :Ce quâest rĂ©ellement le pair testing (et ce que ce nâest pas)Pourquoi cette pratique change profondĂ©ment les dynamiques dâĂ©quipe :meilleure comprĂ©hension fonctionnelle,rĂ©duction des malentendus,feedbacks plus rapides et plus utilesComment lâinstaurer concrĂštement :prĂ©parer des sessions courtes et ciblĂ©es,faire tourner les rĂŽles (QA/Dev, Dev/PO, QA/Designer),capitaliser sur les apprentissagesLes enjeux culturels : casser les silos, crĂ©er de la confiance, dĂ©velopper la curiositĂ©























