datenSPRECHstunde

Die datenSPRECHstunde ist ein Podcast für alle, die Statistik und Statistiken besser verstehen und sich nicht vom Datenwirrwarr hinters Licht führen lassen wollen. Im Zwiegespräch hierzu: die Ärztin, Anne Röhle, und der Mathematiker und Professor für medizinische Biometrie und Statistik, Ingo Röder. Beide arbeiten an der Medizinischen Fakultät der TU Dresden. Das Anliegen dieses Podcasts ist es, Studierenden (der Medizin, aber auch anderer Fächer) zu helfen, ihr Wissen zu festigen und zu ergänzen. Zudem möchten wir Ärztinnen und Ärzte, aber auch andere Wissenschaftler und Wissenschaftlerinnen dabei unterstützen, möglicherweise verlorengegangenes Wissen zu reaktivieren bzw. Neues zu erfahren. Darüber hinaus bietet der Podcast auch allen anderen, die vielleicht einfach Lust darauf haben, die Möglichkeit, einmal in das Thema Daten-Analytik hineinzuschnuppern. Auch wenn die einzelnen Folgen prinzipiell für sich verständlich sich, so ist es dennoch empfehlenswert, sie der Reihenfolge nach zu hören. Idee/Konzeption: Ingo Röder Redaktion/Umsetzung: Anne Röhle & Ingo Röder Produktion: Stephan Wiegand & Johannes Gerstengarbe Musik: Johannes Gerstengarbe Fotos: Stephan Wiegand / André Wirsig produziert in den BALLROOMSTUDIOS Dresden (www.ballroomstudios.de) Wenn Sie / ihr den Podcast insgesamt (oder auch nur einzelne Folgen) angehört haben / habt, würden uns über ein Feedback sehr freuen! Rückmeldungen und Anregungen können gern unter folgendem Link gegeben werden: https://esurvey.uniklinikum-dresden.de/pub/index.php/543873?lang=de

#11: Auch ein blindes Huhn findet mal ein Korn. Falsch signifikante Resultate im Kontext des multiplen Testens.

Die Untersuchung vieler verschiedener Zielgrößen mithilfe statistischer Tests erscheint manchmal als eine geeignete Strategie, Studiendaten effektiv auszunutzen. In dieser Folge erläutern wir, warum eine solche multiple Testanwendung die Gefahr falsch signifikanter Ergebnisse erheblich erhöht. Zudem diskutieren wir Möglichkeiten, das Risiko von Fehlinterpretationen dennoch zu begrenzen.

06-06
16:22

#12: Der mittlere Patient. Wie kommuniziere ich statistische Resultate?

In Folge 12 diskutieren wir darüber, ob und wie man Studienresultate, die oftmals das mittlere Verhalten einer Population beschreiben, auf einzelne Individuen beziehen kann. Wir erläutern dabei, dass „die mittlere Person“ im Allgemeinen nicht existiert, da das Populationsmittel nur ein theoretisches Modell ist, welches aber für den Evidenz- und Erkenntnisgewinn dennoch sehr wichtig sein kann.

06-06
19:46

#07: Alles ist relativ! Wirklich? Über den Einsatz absoluter und relativer Größen.

Warum sollte man - wenn möglich - immer sowohl absolute als auch relative Angaben machen? Und warum ist der Kontext der jeweiligen Situation so wichtig, um Häufigkeits- oder Risikoangaben korrekt beurteilen zu können? Diese und ähnliche Fragen stehen im Mittelpunkt von Folge 7.

06-06
13:44

#08: Unsicherheiten vermessen. Die Bedeutung von Wahrscheinlichkeitsaussagen.

In dieser Folge reden wir über verschiedene Möglichkeiten, Wahrscheinlichkeiten zu interpretieren. Weiterhin sehen wir auf sogenannte bedingte Wahrscheinlichkeiten und diskutieren ihre Bedeutung, wenn Aussagen auf Teilpopulation zu beziehen sind.

06-06
20:02

#09: Signifikant oder nicht signifikant? Alles eine Frage der Perspektive!

Statistische Signifikanz wird regelmäßig - allerdings fälschlicher Weise - mit inhaltlicher Relevanz verwechselt. Wir erklären in dieser Folge, warum statistische Signifikanz nicht mit inhaltlicher Relevanz gleichgesetzt werden darf. Zudem gehen wir darauf ein, warum statistische Signifikanz zwar ein methodisches Werkzeug zur Bewertung wissenschaftlicher Hypothesen, aber per se kein Maß für die Existenz oder die Größe von Effekten ist.

06-06
20:26

#10: Vorsicht Korrelation! Warum Zusammenhänge nicht zwingend ursächlich sind.

In Folge 10 hinterfragen wir die statistischen Analyse von Zusammenhängen. Wir erklären, warum Korrelation nicht mit Kausalität gleichgesetzt werden darf und warum eine inhaltliche Diskussion statistisch nachgewiesener Zusammenhänge auf jeden Fall geboten ist.

06-06
19:58

#01: Datenwissenschaften und Statistik. Gegner, Partner, Zwillinge, …?

Beim Begriff Statistik denken viele an langweilige Zahlenkolonnen oder unverständliche Grafiken. Hingegen verspricht „Data Science“ (übersetzt: Datenwissenschaften) Innovation und Modernität durch die Anwendung digitaler Methoden im Bereich der Datenanalytik. Aber was bedeuten diese Begriffe wirklich und in welcher Beziehung stehen sie zueinander? Genau dies diskutieren wir in dieser Folge.

06-06
15:14

#02: Maschinelles Lernen. Alter Wein in neuen Flaschen … oder tatsächlich ein Energy-Drink?

In dieser Folge sprechen wir über einen Begriff, denn man heutzutage sehr häufig hört: "Maschinelles Lernen". Oftmals wird dieser auch im Zusammenhang mit künstlicher Intelligenz verwendet. Aber was ist „Maschinelles Lernen" eigentlich und was hat es mit künstlicher Intelligenz und mit Statistik zu tun? Genau das versuchen wir in unserem Gespräch herauszufinden.

06-06
17:46

#03: Mysteriöse Muster … erkennen oder (und) erklären?

Aufbauend auf Folge 2, beschäftigt sich diese Folge noch einmal mit maschinellen Lernverfahren. Wir diskutieren u. a. die Stärken dieser Methodenklasse wir erläutern, warum maschinelles Lernen klassische Verfahren der Datenanalytik nicht vollständig ersetzen kann.

06-06
12:51

#04: Modelle. Spielzeug oder (notwendiges) Werkzeug?

Modelle sind Werkzeuge, die durch Vereinfachung und Abstraktion in unterschiedlicher Weise dazu beitragen, die Realität besser zu verstehen und Vorhersagen zu treffen. In dieser Folge sehen wir uns Stärken und Schwächen von Modellen und Modellierungen an und erläutern, warum und wie man diese im wissenschaftlichen Kontext einsetzen kann bzw. sollte.

06-06
20:10

#05: Viel hilft viel? Wie Heterogenität und Fallzahl die (Un-)Sicherheit von Aussagen beeinflussen.

Die Zuverlässigkeit von datenbasierten Aussagen hängt unter anderem von Anzahl, Auswahl und Variabilität der verwendeten Daten ab. In dieser Folge diskutieren wir, wir man mit Hilfe statistischer Methoden diese Zuverlässigkeit beschreiben und quantifizieren kann.

06-06
20:39

#06: Der P-Wert. oder: Gibt es in der Statistik „alternative Fakten“?

Wir klären in dieser Folge den Begriff des "P-Wertes“ und diskutieren, warum statistische Signifikanz kein absolutes Maß ist. Zudem erläutern wir, weshalb statistische Signifikanz nur gemeinsam mit der zur prüfenden Hypothese und einem vorab als sinnvoll angesehenem Fehlerniveau korrekt interpretiert werden kann.

06-06
18:09

#13: Die Zeit ist reif … für ein paar Gedanken zur Überlebenszeitanalyse

Folge 13 beschäftigt sich mit mit einer speziellen Art von Daten, nämlich: Überlebens-oder Ereigniszeitdaten. Diese haben einige Besonderheiten, die dazu führen, dass man für diese Art von Daten spezielle Analyseverfahren entwickelt hat. Was diese Besonderheiten sind und wie man damit umgeht, genau das ist Thema dieser datenSPRECHstunde.

06-25
15:37

#14: Vorsicht - Hazard! Wovor man sich bei Überlebenszeitvergleichen in Acht nehmen sollte

Überlebenswahrscheinlichkeit und Sterberisiko sind zwei - u.a. im Bereich der Onkologie - oft verwendete Begriffe, die benutzt werden, um Therapien lebensbedrohlicher Erkrankungen zu beschreiben und zu vergleichen. Um an dieser Stelle Missverständnisse zu vermeiden sowie um klar und verständlich kommunizieren zu können, ist es nötig, diese Begriffe zu kennen und ihre unterschiedliche Bedeutung verstanden zu haben. In Podcast-Folge Nr. 14 sehen wir uns diese Thematik etwas näher an und erläutern in diesem Zusammenhang auch den Begriff: Hazard-Ratio.

06-25
20:50

Recommend Channels