Podcast: "datenSPRECHstunde"
Die datenSPRECHstunde ist ein Podcast für alle, die Statistik und Statistiken besser verstehen und sich nicht vom Datenwirrwarr hinters Licht führen lassen wollen.
Im Zwiegespräch hierzu: die Ärztin, Anne Röhle, und der Mathematiker und Professor für medizinische Biometrie und Statistik, Ingo Röder. Beide arbeiten an der Medizinischen Fakultät der TU Dresden. Das Anliegen dieses Podcasts ist es, Studierenden (der Medizin, aber auch anderer Fächer) zu helfen, ihr Wissen zu festigen und zu ergänzen. Zudem möchten wir Ärztinnen und Ärzte, aber auch andere Wissenschaftler und Wissenschaftlerinnen dabei unterstützen, möglicherweise verlorengegangenes Wissen zu reaktivieren bzw. Neues zu erfahren. Darüber hinaus bietet der Podcast auch allen anderen, die vielleicht einfach Lust darauf haben, die Möglichkeit, einmal in das Thema Daten-Analytik hineinzuschnuppern.
Auch wenn die einzelnen Folgen prinzipiell für sich verständlich sich, so ist es dennoch empfehlenswert, sie der Reihenfolge nach zu hören.
Idee/Konzeption: Ingo Röder
Redaktion/Umsetzung: Anne Röhle & Ingo Röder
Produktion: Stephan Wiegand & Johannes Gerstengarbe
Musik: Johannes Gerstengarbe
Fotos: Stephan Wiegand / André Wirsig
produziert in den BALLROOMSTUDIOS Dresden (www.ballroomstudios.de)
Der Podcast ist auch auf gängigen Podcast-Plattformen, wie z.B. Spotify, Audible oder Apple-Podcasts verfügbar.
(c) Copyright: 2024, Ingo Röder, bereitgestellt unter Lizenz: CC BY-SA 4.0
Inhaltsverzeichnis
- Folge 1: Datenwissenschaften und Statistik.
- Folge 2: Maschinelles Lernen.
- Folge 3: Mysteriöse Muster.
- Folge 4: Modelle.
- Folge 5: Viel hilft viel(?)
- Folge 6: Der P-Wert.
- Folge 7: Alles ist relativ! Wirklich?
- Folge 8: Unsicherheiten vermessen.
- Folge 9: Signifikant oder nicht signifikant?
- Folge 10: Vorsicht Korrelation!
- Folge 11: Auch ein blindes Huhn findet mal ein Korn.
- Folge 12: Der mittlere Patient.
Folge 1: Datenwissenschaften und Statistik.
Gegner, Partner, Zwillinge, …?
Beim Begriff Statistik denken viele an langweilige Zahlenkolonnen oder unverständliche Grafiken. Hingegen verspricht „Data Science“ (übersetzt: Datenwissenschaften) Innovation und Modernität durch die Anwendung digitaler Methoden im Bereich der Datenanalytik. Aber was bedeuten diese Begriffe wirklich und in welcher Beziehung stehen sie zueinander? Genau dies diskutieren wir in dieser Folge.
Folgt
Folge 2: Maschinelles Lernen.
Alter Wein in neuen Flaschen … oder doch ein Energy-Drink?
In dieser Folge sprechen wir über einen Begriff, denn man heutzutage sehr häufig hört: "Maschinelles Lernen". Oftmals wird dieser auch im Zusammenhang mit künstlicher Intelligenz verwendet. Aber was ist „Maschinelles Lernen" eigentlich und was hat es mit künstlicher Intelligenz und mit Statistik zu tun? Genau das versuchen wir in unserem Gespräch herauszufinden.
Folgt
Folge 3: Mysteriöse Muster.
… erkennen oder (und) erklären?
Aufbauend auf Folge 2, beschäftigt sich diese Folge noch einmal mit maschinellen Lernverfahren. Wir diskutieren u. a. die Stärken dieser Methodenklasse wir erläutern, warum maschinelles Lernen klassische Verfahren der Datenanalytik nicht vollständig ersetzen kann.
Folgt
Folge 4: Modelle.
Spielzeug oder (notwendiges) Werkzeug?
Modelle sind Werkzeuge, die durch Vereinfachung und Abstraktion in unterschiedlicher Weise dazu beitragen, die Realität besser zu verstehen und Vorhersagen zu treffen. In dieser Folge sehen wir uns Stärken und Schwächen von Modellen und Modellierungen an und erläutern, warum und wie man diese im wissenschaftlichen Kontext einsetzen kann bzw. sollte.
Folgt
Folge 5: Viel hilft viel(?)
Wie Heterogenität und Fallzahl die (Un-)Sicherheit von Aussagen beeinflussen.
Die Zuverlässigkeit von datenbasierten Aussagen hängt unter anderem von Anzahl, Auswahl und Variabilität der verwendeten Daten ab. In dieser Folge diskutieren wir, wir man mit Hilfe statistischer Methoden diese Zuverlässigkeit beschreiben und quantifizieren kann.
Folgt
Folge 6: Der P-Wert.
oder: Gibt es in der Statistik „alternative Fakten“?
Wir klären in dieser Folge den Begriff des "P-Wertes“ und diskutieren, warum statistische Signifikanz kein absolutes Maß ist. Zudem erläutern wir, weshalb statistische Signifikanz nur gemeinsam mit der zur prüfenden Hypothese und einem vorab als sinnvoll angesehenem Fehlerniveau korrekt interpretiert werden kann.
Folgt
Folge 7: Alles ist relativ! Wirklich?
Über den Einsatz absoluter und relativer Größen.
Warum sollte man - wenn möglich - immer sowohl absolute als auch relative Angaben machen? Und warum ist der Kontext der jeweiligen Situation so wichtig, um Häufigkeits- oder Risikoangaben korrekt beurteilen zu können? Diese und ähnliche Fragen stehen im Mittelpunkt von Folge 7.
Folgt
Folge 8: Unsicherheiten vermessen.
Die Bedeutung von Wahrscheinlichkeitsaussagen.
In dieser Folge reden wir über verschiedene Möglichkeiten, Wahrscheinlichkeiten zu interpretieren. Weiterhin sehen wir auf sogenannte bedingte Wahrscheinlichkeiten und diskutieren ihre Bedeutung, wenn Aussagen auf Teilpopulation zu beziehen sind.
Folgt
Folge 9: Signifikant oder nicht signifikant?
Alles eine Frage der Perspektive!
Statistische Signifikanz wird regelmäßig - allerdings fälschlicher Weise - mit inhaltlicher Relevanz verwechselt. Wir erklären in dieser Folge, warum statistische Signifikanz nicht mit inhaltlicher Relevanz gleichgesetzt werden darf. Zudem gehen wir darauf ein, warum statistische Signifikanz zwar ein methodisches Werkzeug zur Bewertung wissenschaftlicher Hypothesen, aber per se kein Maß für die Existenz oder die Größe von Effekten ist.
Folgt
Folge 10: Vorsicht Korrelation!
Warum Zusammenhänge nicht zwingend ursächlich sind.
In Folge 10 hinterfragen wir die statistischen Analyse von Zusammenhängen. Wir erklären, warum Korrelation nicht mit Kausalität gleichgesetzt werden darf und warum eine inhaltliche Diskussion statistisch nachgewiesener Zusammenhänge auf jeden Fall geboten ist.
Folgt
Folge 11: Auch ein blindes Huhn findet mal ein Korn.
Falsch signifikante Resultate im Kontext des multiplen Testens.
Die Untersuchung vieler verschiedener Zielgrößen mithilfe statistischer Tests erscheint manchmal als eine geeignete Strategie, Studiendaten effektiv auszunutzen. In dieser Folge erläutern wir, warum eine solche multiple Testanwendung die Gefahr falsch signifikanter Ergebnisse erheblich erhöht. Zudem diskutieren wir Möglichkeiten, das Risiko von Fehlinterpretationen dennoch zu begrenzen.
Folgt
Folge 12: Der mittlere Patient.
Wie kommuniziere ich statistische Resultate?
In Folge 12 diskutieren wir darüber, ob und wie man Studienresultate, die oftmals das mittlere Verhalten einer Population beschreiben, auf einzelne Individuen beziehen kann. Wir erläutern dabei, dass „die mittlere Person“ im Allgemeinen nicht existiert, da das Populationsmittel nur ein theoretisches Modell ist, welches aber für den Evidenz- und Erkenntnisgewinn dennoch sehr wichtig sein kann.
Folgt
~~~~~~~~
Feedback
Wenn Sie / ihr den Podcast insgesamt (oder auch nur einzelne Folgen) angehört haben / habt, würden wir uns über ein Feedback sehr freuen! Rückmeldungen und Anregungen können gern unter folgendem Link bzw. mittels des QR-Codes gegeben werden: