DiscoverLa Guilde ! - Devenez un expert en Quality Engineering
La Guilde ! - Devenez un expert en Quality Engineering
Claim Ownership

La Guilde ! - Devenez un expert en Quality Engineering

Author: Jean-Francois Fresi

Subscribed: 5Played: 107
Share

Description

🎙 Le podcast des leaders de la qualitĂ© logicielle et du Quality Engineering
Chaque semaine, dĂ©couvrez des techniques d'audit, de formation, d’automatisation des tests et de coaching pour optimiser votre qualitĂ©. La Guilde te guide Ă  travers les dĂ©fis de la transformation digitale avec "Shift Left", "Right", et "Up".
Pour responsables QA, ingénieurs qualité, CTO, tech leaders et passionnés.
✅ MĂ©thodes actionnables
✅ Formats courts : 1 Ă©pisode/sem. et mini-sĂ©rie 10 min/jour.
Soutiens nous :
- Abonne-toi 🔔
- Laisse un avis et 5 Ă©toiles (⭐⭐⭐⭐⭐)
- Inscris-toi : https://laguilde.substack.com
144 Episodes
Reverse
On a parlĂ© des utilisateurs, des QA, des managers. Il Ă©tait temps de prendre de la hauteur.Parce que la qualitĂ©, au fond, ne dĂ©pend pas d'une seule personne. Elle Ă©merge — ou elle s'effondre — du fonctionnement global de l'Ă©quipe.Dans ce dernier Ă©pisode, Imen Naguez et moi on clĂŽt la sĂ©rie avec la question la plus profonde : et si le QA Ă©tait le rĂ©vĂ©lateur de l'Ă©tat psychologique d'un systĂšme entier ?DĂ©fensivitĂ©, silos, dĂ©responsabilisation, non-dits collectifs
 Le QA les voit. Les ressent. Les absorbe. Mais surtout, s'il est bien positionnĂ©, il peut les mettre en lumiĂšre et aider le systĂšme Ă  se transformer.👉 Dans cet Ă©pisode, on explore :L'Ă©quipe comme systĂšme vivant : interactions, rituels, zones d'ombreLes signaux faibles que le QA capte avant tout le mondeComment passer du rĂŽle de dĂ©tecteur Ă  celui d'accompagnateur et de coachVers une qualitĂ© collective : responsabilisation, coaching, sens partagĂ©đŸ’Ą La qualitĂ© n'est pas un livrable, c'est l'Ă©tat psychologique du systĂšme.Merci d'avoir suivi cette sĂ©rie. On espĂšre qu'elle t'a donnĂ© envie de regarder ton projet
 avec d'autres yeux.🎧 Bonne Ă©coute.
Entre le management qui pousse, les Ă©quipes qui doutent, et les dĂ©lais qui ne bougent pas — le test manager marche sur un fil.Chaque jour, il absorbe des tensions contradictoires. QualitĂ© vs vitesse. Risque vs engagement. Exigences business vs rĂ©alitĂ©s terrain. Et il doit trancher. Assumer. Expliquer. Sans perdre ni sa crĂ©dibilitĂ© ni sa sĂ©rĂ©nitĂ©.Dans cet Ă©pisode, Imen Naguez et moi on dĂ©cortique ce rĂŽle de "tampon Ă©motionnel" que personne ne revendique, mais que tout le monde attend du test manager.👉 Dans cet Ă©pisode, on explore :Les arbitrages invisibles que le test manager fait seul, chaque semainePourquoi calme, clartĂ© et dĂ©cision assumĂ©e sont ses vraies compĂ©tences clĂ©sComment rassurer une Ă©quipe, recadrer un sponsor et tenir une posture sous pressionLe test manager comme psychologue collectif, celui qui donne du sens quand tout part dans tous les sens💡 Manager la qualitĂ©, c'est manager aussi des tensions humaines.Si tu es test manager ou lead QA, cet Ă©pisode est un miroir. Et peut-ĂȘtre un peu de rĂ©confort.🎧 Bonne Ă©coute.
Être celui qui dit non. Annoncer les mauvaises nouvelles. Soulever les problĂšmes que personne ne veut entendre. Et recommencer. Sans toujours ĂȘtre Ă©coutĂ©. Sans toujours ĂȘtre reconnu.Dans cet Ă©pisode, Imen Naguez et moi on aborde un sujet encore tabou dans nos mĂ©tiers : le vĂ©cu Ă©motionnel du QA.Le syndrome de l'imposteur. La fatigue de devoir se justifier. Le besoin de perfection qui Ă©puise. Et ce burn-out silencieux qui s'installe quand personne ne remarque que le QA, lui aussi, a besoin de soutien.👉 Dans cet Ă©pisode, on explore :Les Ă©motions du quotidien du QA — celles qu'on ne verbalise jamaisLes biais internes qui fragilisent la posture : sur-contrĂŽle, perfectionnisme, peur de ne pas ĂȘtre lĂ©gitimeLa fatigue Ă©motionnelle du QA psychologue
 sans psychologue pour luiLes leviers concrets pour retrouver Ă©quilibre, recul et crĂ©dibilitĂ©đŸ’Ą Un QA qui ne va pas bien ne peut pas effectuer son travail.Avant de parler de qualitĂ© logicielle, parlons de qualitĂ© de vie au travail.🎧 Bonne Ă©coute.
Les utilisateurs ne font jamais ce qu'on attend d'eux.Et ce n'est pas un problĂšme — c'est la rĂ©alitĂ© humaine.Dans cet Ă©pisode, Imen Naguez et moi on creuse une conviction que beaucoup d'Ă©quipes refusent d'accepter : tester, ce n'est pas valider un scĂ©nario. C'est explorer un comportement.On parle de raccourcis mentaux, d'Ă©motions, de contexte d'usage. On parle de ces biais d'Ă©quipe qui font qu'on conçoit des logiciels pour un utilisateur imaginaire — rationnel, attentif, patient — qui n'existe pas.👉 Dans cet Ă©pisode, on explore :Pourquoi les utilisateurs "font n'importe quoi"
 et ont pourtant raisonLe QA comme observateur des usages rĂ©els, pas des cas prĂ©vusEmpathie, personas, parcours utilisateurs : les outils du QA psychologueLes croyances limitantes qui sabotent les tests avant mĂȘme qu'ils commencent💡 Tester, ce n'est pas vĂ©rifier un scĂ©nario, c'est explorer un comportement.Si tu veux des tests qui reflĂštent le monde rĂ©el, commence par comprendre les humains qui l'habitent.🎧 Bonne Ă©coute.
Et si les bugs n'Ă©taient que des symptĂŽmes ?Dans ce premier Ă©pisode, j'accueille Imen Naguez pour ouvrir une sĂ©rie qui sort des sentiers battus : la psychologie au cƓur de la qualitĂ© logicielle.On parle souvent de mĂ©thodes, de coverage, de KPIs. Mais rarement de ce qui se passe vraiment entre les humains d'un projet.Pourtant, le QA observe. Écoute. Reformule. Questionne sans juger. Il capte ce qui est dit
 et surtout ce qui ne l'est pas.👉 Ça te rappelle quelqu'un ?Dans cet Ă©pisode, on explore :Le parcours d'Imen et pourquoi ce parallĂšle QA / psychologue lui parle profondĂ©mentLe rĂŽle invisible du QA : celui qui met en lumiĂšre les non-ditsLes points communs entre curiositĂ©, neutralitĂ© et questionnement, des deux cĂŽtĂ©s du canapĂ©Pourquoi la qualitĂ© Ă©choue si souvent
 et que ce n'est presque jamais un problĂšme technique💡Un bug est souvent le symptĂŽme d'un malaise plus profond.Si tu penses que la qualitĂ©, c'est avant tout une affaire d'humains, cet Ă©pisode est fait pour toi.🎧 Bonne Ă©coute.La sĂ©rie complĂšte : 5 Ă©pisodes, 5 angles psychologiques, une seule conviction — la qualitĂ© naĂźt des interactions, pas des outils.
Couverture de code, nombre de tests, bugs ouverts, taux de rĂ©ussite des pipelines
 Et si tout ça ne servait Ă  rien ?La plupart des dashboards qualitĂ© sont des posters. Ils sont pleins de courbes. Ils rassurent. Et ils ne changent rien.Dans cet Ă©pisode, j'introduit le concept de Quality Intelligence : transformer des signaux qualitĂ© en dĂ©cisions actionnables ; pas en vanity metrics.Au programme :📊 Vanity metrics vs indicateurs dĂ©cisionnelsPourquoi le pourcentage de couverture, le nombre total de tests ou le pass rate global sont des chiffres qui occupent l'espace sans guider aucune dĂ©cision et comment les reconnaĂźtre.🎯 La rĂšgle d'or : "quelle dĂ©cision ?"Avant de choisir un KPI, trois questions Ă  poser systĂ©matiquement. Et une formule simple Ă  garder : Un KPI utile = DĂ©cision + Risque + Action + Seuil.đŸ—ïž Le framework en 3 couchesImpact utilisateur et business, qualitĂ© du delivery, diagnostic engineering — comment structurer un dashboard lisible, sans 30 graphiques inutiles, avec un maximum de 8 Ă  12 indicateurs.đŸ› ïž La mĂ©thode en 5 Ă©tapesChoisir 3 dĂ©cisions rĂ©currentes, cartographier 5 risques majeurs, associer un indicateur et un levier par risque, fixer des seuils, et installer la boucle de dĂ©cision dans les rituels d'Ă©quipe.💡 Des exemples concrets prĂȘts Ă  l'emploiFlaky rate, change failure rate, MTTR, bugs critiques ouverts — avec pour chacun la dĂ©cision qui suit et le levier Ă  actionner.Que vous soyez engineering manager, tech lead, QA ou product owner, cet Ă©pisode vous donne un cadre pour que votre tableau de bord qualitĂ© rĂ©ponde enfin Ă  une seule question : qu'est-ce qu'on fait lundi matin ?
10 tests. Puis 30. Puis 300. Un pipeline qui dure 45 minutes, des flakes une fois sur cinq, et plus personne n'ose toucher Ă  la suite de tests.Si tu reconnais ce scĂ©nario, cet Ă©pisode est fait pour toi.Je dĂ©cortique l'un des problĂšmes les plus coĂ»teux et les plus silencieux des Ă©quipes tech : la dette E2E. Pas pour te dire d'arrĂȘter les tests end-to-end mais pour t'aider Ă  les garder sous contrĂŽle.Au programme :🔍 Pourquoi les E2E explosentLes 3 causes principales : les E2E utilisĂ©s comme bĂ©quille, des tests trop dĂ©taillĂ©s, et une dĂ©pendance Ă  tout l'environnement. RĂ©sultat : une suite lente, fragile et bruyante.🎯 Le bon rĂŽle des tests E2EUn E2E n'est pas une preuve. C'est une alarme. Apprenez Ă  dĂ©finir votre "zone de confiance" : login, parcours principal, flux critiques et rien de plus.📉 RĂ©duire la surface E2EPourquoi une suite efficace tient souvent en 10 Ă  30 scĂ©narios, et comment identifier les tests qui n'ont rien Ă  faire en E2E grĂące Ă  une checklist simple.⚡ 4 leviers pour des tests plus rapidesShift-left du flux, parallĂ©lisation, smoke vs full suite, bannir les sleeps : des pratiques concrĂštes pour rĂ©cupĂ©rer un pipeline vivable.đŸ› ïž Traiter la fragilitĂ© Ă  la racineSĂ©lecteurs instables, stratĂ©gie de donnĂ©es, asynchronisme, observabilitĂ© du test et une rĂšgle terrain : un test qui flake deux fois sort du pipeline bloquant.Que vous soyez dĂ©veloppeur, QA, tech lead ou engineering manager, cet Ă©pisode vous donne les outils pour remettre vos E2E Ă  leur juste place dans votre stratĂ©gie de tests.
Une spec ambiguĂ«, c'est un bug en attente et parfois bien pire : trois interprĂ©tations diffĂ©rentes du mĂȘme besoin, des semaines de rework, et des tensions en Ă©quipe.Dans cet Ă©pisode, j'attaque un sujet souvent nĂ©gligĂ© mais qui coĂ»te cher Ă  toutes les Ă©quipes tech et produit : la qualitĂ© des spĂ©cifications fonctionnelles. Je te montre une approche pragmatique pour mesurer puis rĂ©duire l’ambiguĂŻtĂ© des spĂ©cifications afin d’amĂ©liorer la qualitĂ© logicielle, limiter les allers-retours en refinement, et livrer plus sereinement.Au programme :🔍 Comprendre l'ambiguĂŻtĂ© des besoinsAmbiguĂŻtĂ© lexicale (mots flous : "rapide", "intuitif", "optimisĂ©"), rĂšgles mĂ©tier non dĂ©finies, contexte manquant — apprenez Ă  identifier les 3 formes les plus frĂ©quentes qui plombent vos projets.📊 Mesurer l'ambiguĂŻtĂ© sans usine Ă  gazAvec des exemples de mĂ©triques : pilotez enfin la qualitĂ© de vos specs avec des donnĂ©es.đŸ› ïž RĂ©duire l'ambiguĂŻtĂ© avec 4 leviers pratiques- Example Mapping, critĂšres d'acceptation, ou encore tavbbles de dĂ©cision : des outils immĂ©diatement applicables rapidement.Que vous soyez product owner, business analyst, tech lead ou dĂ©veloppeur, cet Ă©pisode vous donne les outils pour livrer des user stories claires, testables et comprises de tous.
Dernier Ă©pisode de la sĂ©rie : comment concilier exigences normatives, agilitĂ© et efficacitĂ© terrain
 sans retomber dans une QA bureaucratique.Avec CĂ©dric Lefebvre, on aborde :l’indĂ©pendance du testeur en embarquĂ© : pourquoi elle est cruciale, et comment Ă©viter de crĂ©er des silosl’agilitĂ© en embarquĂ© : mythe ou rĂ©alitĂ© ? ce qui est possible, ce qui doit ĂȘtre adaptĂ©, et comment aligner des rythmes diffĂ©rentsla traçabilitĂ© et les normes (ex : ISO 26262) : comment viser le “juste suffisant” au lieu de produire des documents mortsOn termine avec des pratiques concrĂštes :checklists intelligentestraçabilitĂ© pragmatiquegouvernance lĂ©gĂšre mais claire🎧 Objectif : repartir avec une approche Ă©quilibrĂ©e, rĂ©aliste et applicable — qui respecte les contraintes du domaine sans sacrifier la vitesse ni la qualitĂ©.
Dans cet Ă©pisode, on change de focale : on sort du “bug Ă  corriger” pour parler coĂ»t, responsabilitĂ© et sĂ©curitĂ©.Avec CĂ©dric Lefebvre, on explique pourquoi un bug embarquĂ© peut ĂȘtre bien plus cher qu’un bug logiciel classique :rappels produitsinterventions terrainimmobilisation de matĂ©rielmises Ă  jour coĂ»teuses (et parfois impossibles)On illustre avec des contextes concrets :automobiledispositifs mĂ©dicauxindustrie critique / IoTEt on met en Ă©vidence les impacts non techniques :sĂ©curitĂ© des personnesimage de marqueresponsabilitĂ© lĂ©gale🎧 Objectif : reconnecter la stratĂ©gie de test Ă  la rĂ©alitĂ© business et aux risques, et comprendre pourquoi le risk-based testing n’est pas un luxe en embarquĂ©, mais une nĂ©cessitĂ©.
TroisiĂšme Ă©pisode, et un sujet trĂšs concret (et souvent tabou) : le bruit dans les tests embarquĂ©s.Avec CĂ©dric Lefebvre, on parle de ce qui dĂ©truit la confiance le plus vite :un test qui Ă©choue “pour rien” (faux positif)un test qui passe alors que le produit est cassĂ© (faux nĂ©gatif)Pourquoi c’est si frĂ©quent en embarquĂ© ?instabilitĂ© matĂ©riellesynchronisation, timing, interruptionscapteurs, conditions rĂ©elles difficiles Ă  maĂźtriserOn explore l’impact rĂ©el :fatigue des Ă©quipesperte de crĂ©dibilitĂ© de la QAdĂ©cisions prises sur de mauvais signauxEt on termine avec des leviers pragmatiques pour rĂ©duire les mensonges :rendre les tests plus robustes (seuils, tolĂ©rances, conditions)faire de la root cause analysissĂ©parer clairement anomalies produit vs anomalies d’environnement🎧 Objectif : retrouver des signaux fiables, et Ă©viter que “l’automatisation” devienne un gĂ©nĂ©rateur d’alertes inutiles.
Dans ce deuxiĂšme Ă©pisode, avec CĂ©dric Lefebvre, on attaque le sujet qui fait (souvent) gagner ou perdre la bataille : les environnements de test.Parce qu’en embarquĂ©, la qualitĂ© des tests dĂ©pend directement de la qualitĂ© de ce que tu as pour exĂ©cuter, observer, rejouer
 et comparer.On fait le tour des approches et de leurs compromis :Simulation, Ă©mulation, bancs de test (MIL / SIL / HIL) et tests sur cible rĂ©ellece que chaque environnement te donne (ou te cache) en termes de coĂ»t, fidĂ©litĂ©, rapiditĂ©, scalabilitĂ©les erreurs classiques : surconfiance dans la simu, environnements instables/non versionnĂ©s, tests impossibles Ă  rejouerEt surtout : les bonnes pratiques qui Ă©vitent de construire un chĂąteau de cartes :stratĂ©gie d’environnements alignĂ©e sur les risquesprogression intelligente (du virtuel au rĂ©el)documentation minimale
 mais utile🎧 Objectif : t’aider Ă  choisir les bons environnements au bon moment — sans exploser les coĂ»ts ni perdre la crĂ©dibilitĂ© de la QA.
Dans ce premier Ă©pisode, j’ouvre une mini-sĂ©rie dĂ©diĂ©e au test des systĂšmes embarquĂ©s avec CĂ©dric Lefebvre.Si tu viens du web, du mobile ou du SaaS, tu vas vite comprendre pourquoi les rĂ©flexes “classiques” (test automatisĂ© facile, observabilitĂ©, environnements reproductibles
) ne suffisent plus dĂšs qu’on parle d’embarquĂ©.On pose les bases :ce qui rend l’embarquĂ© fondamentalement diffĂ©rent (contraintes CPU/mĂ©moire/Ă©nergie, temps rĂ©el, interruptions, couplage hardware/software, cycles de vie longs)pourquoi on ne peut pas “tester comme une web app” (peu d’observabilitĂ©, dĂ©pendance aux Ă©quipements, tests tardifs et coĂ»teux)les risques typiques quand on sous-estime ces contraintes (bugs dĂ©couverts trop tard, effets de bord imprĂ©visibles, frictions entre Ă©quipes soft/hard/systĂšme)🎧 Objectif de l’épisode : casser les idĂ©es reçues, donner un cadre clair, et te prĂ©parer pour la suite de la sĂ©rie (environnements, bruit dans les tests, impact business/sĂ©curitĂ©, normes et agilitĂ©).À Ă©couter si tu veux comprendre ce qui fait la complexitĂ© — et la rĂ©alitĂ© terrain — du test embarquĂ©.
Quand on parle de tests en DevOps, on pense souvent automatisation, pipelines CI/CD et voyants verts.Mais est-ce vraiment ça, le test en DevOps ?Dans cet Ă©pisode, je te propose de prendre du recul et de regarder le test dans sa globalitĂ©, au cƓur du modĂšle DevOps — bien au-delĂ  des seuls tests automatisĂ©s.🔍 Au programme :Pourquoi DevOps ≠ pipeline de testsLes limites de l’automatisation quand elle n’est pas portĂ©e par une vraie stratĂ©gieLa qualitĂ© comme responsabilitĂ© collective (dev, produit, ops, QA)Tester le systĂšme : code, infra, donnĂ©es, configurations, hypothĂšsesLe rĂŽle clĂ© du feedback rapide et exploitablePourquoi le vrai enjeu n’est pas de tout tester, mais de piloter le risque🎯 Un Ă©pisode pour celles et ceux qui veulent :arrĂȘter de confondre DevOps et outillageremettre la qualitĂ© au centre des dĂ©cisionsfaire Ă©voluer le rĂŽle du test et des QA dans un contexte moderne👉 DevOps sans qualitĂ© intĂ©grĂ©e, c’est juste livrer plus vite
 les problĂšmes.
Pas de donnĂ©es de test fiables.Des environnements instables.Des jeux de donnĂ©es Ă©crasĂ©s ou inexistants.Et pourtant
 il faut tester.Dans cet Ă©pisode, je parle d’un sujet que vivent la majoritĂ© des Ă©quipes produit et tech : comment tester efficacement quand on n’a pas de vraie stratĂ©gie de donnĂ©es de test.👉 Pourquoi l’absence de data ne doit pas devenir une excuse pour ne pas tester👉 Pourquoi le problĂšme est souvent organisationnel avant d’ĂȘtre technique👉 Comment changer de mindset : tester des comportements plutĂŽt que des bases de donnĂ©es👉 5 leviers concrets pour tester malgrĂ© des donnĂ©es instables ou incomplĂštes👉 Comment transformer cette contrainte en opportunitĂ© pour amĂ©liorer la qualitĂ© globaleUn Ă©pisode pragmatique, basĂ© sur le terrain, pour les QA, Quality Engineers, dĂ©veloppeurs et Ă©quipes produit confrontĂ©s au legacy, aux ERP, aux environnements fragiles et Ă  la rĂ©alitĂ© du quotidien.🎯 Objectif : rĂ©duire le risque, mĂȘme sans data parfaite.Bonne Ă©coute đŸŽ™ïž
GĂ©nĂ©rer des tests avec l’IA, c’est facile.Les maintenir, les faire Ă©voluer et garder un patrimoine sain
 beaucoup moins.Dans cet Ă©pisode, je te propose de dĂ©passer le discours classique sur le prompting et la gĂ©nĂ©ration automatique de cas de test.Car dans la vraie vie des Ă©quipes QA, le problĂšme n’est pas le manque de tests.C’est l’inverse.👉 Des patrimoines de 100, 500, parfois 1000+ tests,👉 des suites difficiles Ă  maintenir,👉 du bruit, des faux positifs,👉 et une dette de test qui s’accumule.🎯 Dans cet Ă©pisode, on parle de ce que signifie vraiment industrialiser l’IA dans les tests :pourquoi crĂ©er plus de tests avec l’IA est souvent une mauvaise idĂ©ecomment utiliser l’IA pour nettoyer, maintenir et faire Ă©voluer l’existanten quoi les agents IA peuvent devenir des gardiens du patrimoine de testet pourquoi l’industrialisation passe par la gouvernance, pas par la gĂ©nĂ©ration de volumeUn Ă©pisode pour celles et ceux qui veulent faire de l’IA un levier de Quality Engineering, pas un gadget de plus.đŸŽ™ïž Bonne Ă©coute.
Comment recruter de bons QA dans un contexte de transformation culturelle ?Pour clĂŽturer cette mini-sĂ©rie, nous revenons Ă  l’essentiel : l’humain.Avec Nicolas Canseco, nous explorons ce qui fait un bon QA aujourd’hui, au-delĂ  des compĂ©tences techniques affichĂ©es sur un CV.Dans cet Ă©pisode :Le profil du QA moderne :curiositĂ©,communication,collaboration,sens produitLes erreurs classiques de recrutement en QA :chercher des exĂ©cutants,ignorer les soft skills,sous-estimer la culture qualitĂ©Les qualitĂ©s clĂ©s d’un QA dans un modĂšle de Quality Assistance :capacitĂ© Ă  coacher et vulgariser,ouverture au Dev et au Produit,approche systĂ©miqueL’importance de l’onboarding, de la formation continue et du rĂŽle du management dans la rĂ©tention des talents🎯 Nicolas partage sa vision du recrutement QA comme un levier stratĂ©gique de transformation durable.
Les indicateurs QA doivent-ils servir Ă  contrĂŽler
 ou Ă  progresser ?Dans cet Ă©pisode, nous abordons un sujet sensible : la mesure de la qualitĂ© et son rĂŽle dans la conduite du changement.Avec Nicolas Canseco, nous dĂ©construisons les mĂ©triques QA classiques pour mieux comprendre :Pourquoi la mesure pour la mesure est contre-productiveQuels indicateurs sont rĂ©ellement utiles pour piloter la qualitĂ© ?La diffĂ©rence entre qualitĂ© mesurĂ©e et qualitĂ© perçueL’importance de la transparence et du partage des mĂ©triques avec les Ă©quipes🎯 L’objectif : rendre visibles les progrĂšs sans blĂąmer, et transformer les indicateurs en leviers d’amĂ©lioration collective.
Tester plus ne garantit pas plus de qualitĂ©.Tester mieux, en revanche, change tout.Dans cet Ă©pisode, nous plongeons dans le Lean Testing et son apport dans une dĂ©marche de transformation QA orientĂ©e valeur.Avec Nicolas Canseco, nous discutons :Des principes du Lean appliquĂ©s au test logicielDes gaspillages les plus frĂ©quents en QA :tests redondants,maintenance excessive,feedbacks trop tardifs,anomalies peu exploitablesDes pratiques clĂ©s du Lean Testing :priorisation par le risque,Ă©limination du superflu,feedbacks continus,automatisation ciblĂ©eDu lien direct entre Lean Testing et conduite du changement :sortir du mythe “plus de tests = plus de qualitĂ©â€
Et si le pair testing Ă©tait bien plus qu’une simple pratique de test collaboratif ?Dans cet Ă©pisode, nous explorons comment le pair testing peut devenir un vĂ©ritable levier de conduite du changement, en rapprochant QA, dĂ©veloppeurs et product managers autour d’un objectif commun : mieux comprendre le produit.Avec Nicolas Canseco, L'expert numĂ©ro 1 sur le sujet en France, nous abordons :Ce qu’est rĂ©ellement le pair testing (et ce que ce n’est pas)Pourquoi cette pratique change profondĂ©ment les dynamiques d’équipe :meilleure comprĂ©hension fonctionnelle,rĂ©duction des malentendus,feedbacks plus rapides et plus utilesComment l’instaurer concrĂštement :prĂ©parer des sessions courtes et ciblĂ©es,faire tourner les rĂŽles (QA/Dev, Dev/PO, QA/Designer),capitaliser sur les apprentissagesLes enjeux culturels : casser les silos, crĂ©er de la confiance, dĂ©velopper la curiositĂ©
loading
CommentsÂ