Discover
Software Testing & Qualität - Testautomatisierung, KI & Agilität
Software Testing & Qualität - Testautomatisierung, KI & Agilität
Author: Richard Seidl - Experte für Software-Entwicklung und Testautomatisierung
Subscribed: 52Played: 2,381Subscribe
Share
© Richard Seidl
Description
Software-Projekte werden komplexer - wie behältst du die Kontrolle?
Ob Testautomatisierung, CI/CD oder die Rolle von KI im Testing: Richard Seidl teilt in diesem Experten-Podcast Strategien für Software-Qualität, die wirklich funktionieren.
Was dich erwartet:
- Konkrete Tipps für Testautomatisierung & agile Methoden.
- Insights zu Usability, Performance und modernen Test-Tools.
- Interviews mit Experten aus der Praxis.
Für Entwickler, Tester und Projektleiter, die keine Lust mehr auf Bug-Feuerlöschen haben, sondern Qualität von Anfang an bauen wollen.
🎙️ Jetzt abonnieren und die Software-Qualität aufs nächste Level heben!
Ob Testautomatisierung, CI/CD oder die Rolle von KI im Testing: Richard Seidl teilt in diesem Experten-Podcast Strategien für Software-Qualität, die wirklich funktionieren.
Was dich erwartet:
- Konkrete Tipps für Testautomatisierung & agile Methoden.
- Insights zu Usability, Performance und modernen Test-Tools.
- Interviews mit Experten aus der Praxis.
Für Entwickler, Tester und Projektleiter, die keine Lust mehr auf Bug-Feuerlöschen haben, sondern Qualität von Anfang an bauen wollen.
🎙️ Jetzt abonnieren und die Software-Qualität aufs nächste Level heben!
182 Episodes
Reverse
In dieser Episode spreche ich mit Mark Menzel von der Landeshauptstadt München über MUCGPT und Sherlock, den Software-Test-KI-Assistenten. München zeigt: Verwaltung kann innovativ. Sherlock hilft Fachbereichen, normgerechte Testfälle nach ISO 29119 zu erstellen, ohne Schulungsmarathon. Aus MUCGPT kommen Testfälle, die sich per Export in TestLink und X-Ray bringen lassen. Der Mensch bleibt Entscheider.
In dieser Episode spreche ich mit Tobias Geyer über exploratives Ensemble Testing. Er nutzt die Methode seit zwei Jahren und zeigt, warum sie wirkt. Wir besprechen wie die Rollen Driver und Navigator funktionieren, das rotieren der Rollen und die kompakten 90-Minuten-Sessions. Das Ergebnis: früheres Feedback, viele Usability-Funde und vor allem Lernen im Team. Entwickler entdecken den Blick über den Happy Path hinaus. Streit? Kaum, weil wir Notizen sammeln und die Bewertung später machen. Wichtig sind klare Charters, gute Moderation und diszipliniertes Mitschreiben.
In dieser Episode spreche ich mit Katja Radom über Fehlerkultur und warum sie der Motor für Softwarequalität und zufriedene Nutzer ist. Wir räumen mit Vision-Board-Parolen auf. Was zählt: früh klären, was ein Fehler bedeutet, wie wir ihn melden und wie wir als Team reagieren. Dazu gehören Retrospektiven oder regelmäßige Stopps, Zeit zum Lernen und ein Qualitätsmanagement, das Bugs und Quality Gates ernst nimmt. Wir sprechen über Rollenbilder, Manager als Teil der Lösung, internationale Stereotype und die Kunst, Feedback zu geben und zu nehmen. Mein Fazit: fang klein an, bleib neugierig, entschuldige dich, wenn du drüber warst. So wächst Kultur. Auch unter Druck.
In dieser Episode spreche ich mit Patrick Meuth über Thermomanagement-Software in Elektroautos. Früher fanden viele Tests im Auto statt, heute verlagern sie sich Shift-Left: erst Hardware-in-the-Loop, dann ein virtuelles Steuergerät, das nur die Thermofunktionen ausführt. So sparen sie Fahrten und finden Fehler früher. Die Szenarien sind anspruchsvoll: Batterie schützen, Innenraum kühlen, Leistung priorisieren, Reichweite im Blick.
In dieser Episode spreche ich über mein Jahr mit dem Podcast, eure Fragen und den Blick nach vorn. 176 Folgen, 122000 Downloads, 3000 Abos. Die Testpyramiden-Folge mit Ronald Brill bleibt Evergreen, YouTube wächst, und mit Software Testing Unleashed geht es international weiter. In der Fragerunde ordne ich ein: KI verwandelt die Tester-Rolle. Programmieren lernen kann, muss aber nicht. Toolwechsel wie zu Playwright kritisch bewerten. 100 Prozent Automatisierung sind selten sinnvoll. Flaky Tests sofort isolieren. Shift Left beginnt im Refinement.
In dieser Episode spreche ich mit Christian Mercier, Matthias Gross und Wolfgang Sperling über unser Testerjahr, KI und was 2026 bringt. Wir sehen: KI löst keine schiefen Prozesse; ohne klare Teststrategie, saubere Grundlagen und Fast Feedback bringt sie wenig. Nicht-funktionale Qualität rückt nach vorn: Sicherheit, Performance, Usability, Compliance. Tester brauchen breiteres Skillset, mehr Technik, dazu Intuition, Mut und Resilienz. Wir reden über souveräne Cloud, Druck auf Agile, und warum Validierung in Produktion wächst. Ich wünsche mir mehr Austausch in Communities und vor allem: konkrete Lösungen teilen, voneinander lernen.
In dieser Episode spreche ich mit Robert über Autismus im Softwaretesten. Er bleibt anonym. Robert ist Softwaretester. Sein Weg zur Diagnose dauerte zwei Jahre und folgte mehreren Burnouts. Im Job sind Multitasking, spontane Meetings und ständige Wechsel kräftezehrend. Pausen, klare Agenden und Eins-zu-eins helfen. Seine Stärken sind Fokus, Mustererkennung, Erinnerungsvermögen, analytische Tiefe und ehrliches Feedback. Fehler springen ihn an, Ursachen denkt er systemisch mit.
In dieser Episode spreche ich mit Andrej Thiele über API Testing. Andrej zeigt zwei praxistaugliche Wege. Erstens: OpenAPI versionieren und mit Renovate Abhängigkeiten und Änderungen sichtbar machen. Zweitens: Consumer-driven Contract Tests mit Pact. Der Consumer definiert Erwartungen, Pactbroker stellt Mocks bereit und JUnit bindet es in die Pipeline ein. Brechen Contracts, stoppt der Release. Reden müssen Teams trotzdem.
In dieser Episode spreche ich mit Jonas Menesklou und Umar Usman Khan über KI-gestützte Tests für Legacy-Anwendungen. Ausgangspunkt: die mobile Kasse der Deutschen Bahn. Die manuelle Abnahme dauerte zwei Wochen, Standard-Tools scheiterten an fehlenden Element-IDs. Mit AskUI geht es visuell: Screenshot, OCR, Bilderkennung und LLM statt klassischer Selektoren. Tests werden in TypeScript beschrieben oder per No-Code aus Testfällen erzeugt. Erste Bilanz: 60 von 270 Fällen laufen in etwa drei Stunden.
In dieser Episode spreche ich mit Georg Haupt über Quality Storming, ein Workshop-Format für echte Qualität. Georg verknüpft hier seine Erfahrung als Koch mit Themen aus der NASA und Event Storming. Da kann ja nur was Spannends rauskommen. Quality Storming macht Fehler mit Kreppband sicht- und spürbar. Entscheidend sind Moderation und Offenheit.
In dieser Episode spreche ich mit Florian Wartenberg über das Testen von Windturbinen. Software trifft Stahl, Sensorik und Wetter. Wir sprechen über modulare Steuerungen, Safety-Logik und Schnittstellen, die im Labor simuliert und im Feld verifiziert werden. Es gibt Tests in einem Hardware-in-the-Loop-Aufbau im Keller und das dänische Testcenter in Oesterild. Die größten Tester im Raum bleiben Wind und Wetter. Darum fließen Flottendaten, Analytics und Predictive Maintenance in jede Entscheidung. Wir diskutieren Regulierung von Blitzschutz bis Cyber Resilience Act, Onshore vs. Offshore und Updates over the air.
In dieser Episode spreche ich mit Sam Goetjes über Vertrauen, Vorurteile und Fairness in KI-gestützten Entscheidungen. Ausgangspunkt ist ihre Masterarbeit: Ein Bewerbungssetting mit menschlichen und algorithmischen Empfehlungen, dazu ein manipulierter Gender Bias. Erkenntnis: Teilnehmende passten ihre Bewertungen über die Zeit an. Beim Algorithmus sogar schneller und stärker. Vertrauen entsteht nach denselben Mustern wie bei Menschen. Heftig, oder? Für uns im Testen heißt das: nicht nur Modelle und Performance prüfen, sondern Bias-Risiken monitoren, Pilotphasen sauber aufsetzen, Parallelvergleiche fahren und Datenquellen offenlegen. Wir sind beeinflussbar. Systeme auch. Wie halten wir beides in Schach? Genau darum geht es.
In dieser Episode spreche ich mit Sebastian Dietrich über rechtliche Fallstricke in Softwareprojekten. Er ist Gerichtssachverständiger und zeigt, warum Freelancer nicht nur Einsatz, sondern Erfolg schulden. Bugs, Gewährleistung, Haftung, Warnpflicht. Alles hat Gewicht. Für Unternehmen wird es heikel, wenn agile Verträge als Werkverträge gelten und plötzlich das ganze Backlog geschuldet ist. Wir diskutieren, wie man Dienstleistung sauber beschreibt, technische Qualität definiert und den Stand der Technik als gemeinsamen Prozess festhält. Statt Coverage-Fetisch schauen wir auf Restfehlerrate.
In dieser Episode spreche ich mit Alexander Weiss und Martin Heininger über Embedded Testing. Wir plaudern über Echtzeit-Probleme, knappe Ressourcen und die Abhängigkeit von Elektronik. Simulation hilft, stößt aber im Safety-Bereich schnell an Grenzen. Ein Problem ist die Beobachtbarkeit: Klassische Instrumentierung bläht Code auf und verändert Laufzeiten. Ihr Gegenentwurf: Embedded Trace. Die CPU funkt Ereignisse hardwareseitig nach außen, ein FPGA wertet live aus. So kann man Code-Coverage im Integrationstest auf echter Hardware messen.
In dieser Episode spreche ich mit Pascal Moll über sein Buch "Software Testing Kompakt". Es geht um die Grundlagen von Testing und Testautomatisierung mit praktischen Beispielen aus der Java-Welt. Ob Testpyramide, JUnit oder Selenium. Viele Methoden und Tools sind abgebildet. Er geht in seinem Buch aber auch Themen wie z.b. Nachhaltigkeit an: Wie sehr beeinflussen unsere Tests eigentlich Ressourcen?
In dieser Episode spreche ich mit Kai Renz über Softwaretesten in der Hochschule. Er zeigt, warum Tests am Anfang schwer zu vermitteln sind und wie komplexe Praxisprojekte - ein Pizza-Shop im Kubernetes-Cluster - den Sinn greifbar machen. Wir reden über TDD, Pair- und Mob-Programming, BDD und warum konzeptionelles Verständnis wichtiger ist als Toolwissen. Architektur als Hebel für Testbarkeit und der Umgang mit Altcode, Metriken und Coverage-Fallen. KI im Studium? Erlaubt, aber verantwortungspflichtig - wer Code committet, muss ihn verstehen.
In dieser Folge spreche ich mit Andreas Günther und Breno Pinheiro über KI für bessere Anforderungen und eine solide Testbasis. Wir ordnen ein: Branchen ticken unterschiedlich, doch ohne klare Requirements wird Testen Lotterie. Text reicht nicht. Modelle, Use Cases, Aktivitätsdiagramme und gern auch PlantUML bringen Struktur. KI hilft, wenn wir Qualität erzwingen: Kontext klären, Scope schärfen, Rollen definieren, iterativ feedbacken, Begriffe glasklar machen und Vertraulichkeit beachten. Lange, wiederverwendbare Prompts statt Bauchgefühl.
In dieser Episode spreche ich mit Christine Pinto über Karrierewege im Testing und wie wir unseren Wert sichtbar machen. Wir räumen mit Stellenanzeigen-Mythen auf und schärfen das Selbstverständnis als Qualitätscoach statt Bug-Finder. Christine zeigt, wie du Interviews drehst: mit guten Fragen, Emotionen, konkreten Beispielen und Risikodenken, vom Technik- bis zum CEO-Gespräch. Wir reden über Netzwerke und Empfehlungen, über Gehaltsverhandlungen und Haltung. Und wir streifen Themen wie Accessibility und die Verantwortung des ganzen Teams.
.In dieser Episode spreche ich mit Felix Winter über den ASQF. Seit fast 30 Jahren vernetzt der Verein Menschen rund um Softwarequalität. Geboren in Erlangen, mit Wurzeln bis zur Entstehung von GTB und ISTQB. Was bringt die Mitgliedschaft? Ein starkes Netzwerk, Wissen und viele Events: Fachgruppen, Quality Nights, Testing Days, online. Du kannst mitreden, vortragen, schreiben. Ich kenne Felix seit Jahren, das Netzwerk trägt. Wir schauen auch nach vorn: KI im Testen, eine neue Fachgruppe, dazu Ausbildungen wie Secure Software Engineering,
In dieser Episode spreche ich mit Oliver Schuhmacher und Marvin Jakob über modellbasiertes Testen und wie es Teams zusammenbringt. Am Beispiel Lufthansa CityLine: neues Crew-Management, hoher Zeitdruck, klare Abnahme nötig. Modelle dienen als gemeinsame Sprache. Sie starten auf hoher Flughöhe, interviewen Fachbereich, Tester und Entwickler, verfeinern Schritt für Schritt und reviewen regelmäßig. Aus den Modellen generieren sie per Tool Testfälle, machen Abdeckung und Impact in Jira sichtbar und halten Tests bei Änderungen schneller aktuell. Wichtig: Gute Anforderungen und der Fokus auf Business Value.























