DiscoverdatenSPRECHstunde
datenSPRECHstunde
Claim Ownership

datenSPRECHstunde

Author: Ingo Röder, Anne Röhle, Stephan Wiegand

Subscribed: 0Played: 0
Share

Description

Die datenSPRECHstunde ist ein Podcast für alle, die Statistik und Statistiken besser verstehen und sich nicht vom Datenwirrwarr hinters Licht führen lassen wollen. Im Zwiegespräch hierzu: die Ärztin, Anne Röhle, und der Mathematiker und Professor für medizinische Biometrie und Statistik, Ingo Röder. Beide arbeiten an der Medizinischen Fakultät der TU Dresden.

Das Anliegen dieses Podcasts ist es, Studierenden (der Medizin, aber auch anderer Fächer) zu helfen, ihr Wissen zu festigen und zu ergänzen. Zudem möchten wir Ärztinnen und Ärzte, aber auch andere Wissenschaftler und Wissenschaftlerinnen dabei unterstützen, möglicherweise verlorengegangenes Wissen zu reaktivieren bzw. Neues zu erfahren. Darüber hinaus bietet der Podcast auch allen anderen, die vielleicht einfach Lust darauf haben, die Möglichkeit, einmal in das Thema Daten-Analytik hineinzuschnuppern.

Auch wenn die einzelnen Folgen prinzipiell für sich verständlich sich, so ist es dennoch empfehlenswert, sie der Reihenfolge nach zu hören.

Idee/Konzeption: Ingo Röder
Redaktion/Umsetzung: Anne Röhle & Ingo Röder
Produktion: Stephan Wiegand & Johannes Gerstengarbe
Musik: Johannes Gerstengarbe
Fotos: Stephan Wiegand / André Wirsig
produziert in den BALLROOMSTUDIOS Dresden (www.ballroomstudios.de)

Wenn Sie / ihr den Podcast insgesamt (oder auch nur einzelne Folgen) angehört haben / habt, würden uns über ein Feedback sehr freuen!
Rückmeldungen und Anregungen können gern unter folgendem Link gegeben werden:
https://esurvey.uniklinikum-dresden.de/pub/index.php/543873?lang=de
12 Episodes
Reverse
Beim Begriff Statistik denken viele an langweilige Zahlenkolonnen oder unverständliche Grafiken. Hingegen verspricht „Data Science“ (übersetzt: Datenwissenschaften) Innovation und Modernität durch die Anwendung digitaler Methoden im Bereich der Datenanalytik. Aber was bedeuten diese Begriffe wirklich und in welcher Beziehung stehen sie zueinander? Genau dies diskutieren wir in dieser Folge.
In dieser Folge sprechen wir über einen Begriff, denn man heutzutage sehr häufig hört: "Maschinelles Lernen". Oftmals wird dieser auch im Zusammenhang mit künstlicher Intelligenz verwendet. Aber was ist „Maschinelles Lernen" eigentlich und was hat es mit künstlicher Intelligenz und mit Statistik zu tun? Genau das versuchen wir in unserem Gespräch herauszufinden.
Aufbauend auf Folge 2, beschäftigt sich diese Folge noch einmal mit maschinellen Lernverfahren. Wir diskutieren u. a. die Stärken dieser Methodenklasse wir erläutern, warum maschinelles Lernen klassische Verfahren der Datenanalytik nicht vollständig ersetzen kann.
Modelle sind Werkzeuge, die durch Vereinfachung und Abstraktion in unterschiedlicher Weise dazu beitragen, die Realität besser zu verstehen und Vorhersagen zu treffen. In dieser Folge sehen wir uns Stärken und Schwächen von Modellen und Modellierungen an und erläutern, warum und wie man diese im wissenschaftlichen Kontext einsetzen kann bzw. sollte.
Die Zuverlässigkeit von datenbasierten Aussagen hängt unter anderem von Anzahl, Auswahl und Variabilität der verwendeten Daten ab. In dieser Folge diskutieren wir, wir man mit Hilfe statistischer Methoden diese Zuverlässigkeit beschreiben und quantifizieren kann.
Wir klären in dieser Folge den Begriff des "P-Wertes“ und diskutieren, warum statistische Signifikanz kein absolutes Maß ist. Zudem erläutern wir, weshalb statistische Signifikanz nur gemeinsam mit der zur prüfenden Hypothese und einem vorab als sinnvoll angesehenem Fehlerniveau korrekt interpretiert werden kann.
Warum sollte man - wenn möglich - immer sowohl absolute als auch relative Angaben machen? Und warum ist der Kontext der jeweiligen Situation so wichtig, um Häufigkeits- oder Risikoangaben korrekt beurteilen zu können? Diese und ähnliche Fragen stehen im Mittelpunkt von Folge 7.
In dieser Folge reden wir über verschiedene Möglichkeiten, Wahrscheinlichkeiten zu interpretieren. Weiterhin sehen wir auf sogenannte bedingte Wahrscheinlichkeiten und diskutieren ihre Bedeutung, wenn Aussagen auf Teilpopulation zu beziehen sind.
Statistische Signifikanz wird regelmäßig - allerdings fälschlicher Weise - mit inhaltlicher Relevanz verwechselt. Wir erklären in dieser Folge, warum statistische Signifikanz nicht mit inhaltlicher Relevanz gleichgesetzt werden darf. Zudem gehen wir darauf ein, warum statistische Signifikanz zwar ein methodisches Werkzeug zur Bewertung wissenschaftlicher Hypothesen, aber per se kein Maß für die Existenz oder die Größe von Effekten ist.
In Folge 10 hinterfragen wir die statistischen Analyse von Zusammenhängen. Wir erklären, warum Korrelation nicht mit Kausalität gleichgesetzt werden darf und warum eine inhaltliche Diskussion statistisch nachgewiesener Zusammenhänge auf jeden Fall geboten ist.
Die Untersuchung vieler verschiedener Zielgrößen mithilfe statistischer Tests erscheint manchmal als eine geeignete Strategie, Studiendaten effektiv auszunutzen. In dieser Folge erläutern wir, warum eine solche multiple Testanwendung die Gefahr falsch signifikanter Ergebnisse erheblich erhöht. Zudem diskutieren wir Möglichkeiten, das Risiko von Fehlinterpretationen dennoch zu begrenzen.
In Folge 12 diskutieren wir darüber, ob und wie man Studienresultate, die oftmals das mittlere Verhalten einer Population beschreiben, auf einzelne Individuen beziehen kann. Wir erläutern dabei, dass „die mittlere Person“ im Allgemeinen nicht existiert, da das Populationsmittel nur ein theoretisches Modell ist, welches aber für den Evidenz- und Erkenntnisgewinn dennoch sehr wichtig sein kann.
Comments 
Download from Google Play
Download from App Store