Episodit
-
In Folge 12 diskutieren wir darüber, ob und wie man Studienresultate, die oftmals das mittlere Verhalten einer Population beschreiben, auf einzelne Individuen beziehen kann. Wir erläutern dabei, dass „die mittlere Person“ im Allgemeinen nicht existiert, da das Populationsmittel nur ein theoretisches Modell ist, welches aber für den Evidenz- und Erkenntnisgewinn dennoch sehr wichtig sein kann.
-
Die Untersuchung vieler verschiedener Zielgrößen mithilfe statistischer Tests erscheint manchmal als eine geeignete Strategie, Studiendaten effektiv auszunutzen. In dieser Folge erläutern wir, warum eine solche multiple Testanwendung die Gefahr falsch signifikanter Ergebnisse erheblich erhöht. Zudem diskutieren wir Möglichkeiten, das Risiko von Fehlinterpretationen dennoch zu begrenzen.
-
Puuttuva jakso?
-
In Folge 10 hinterfragen wir die statistischen Analyse von Zusammenhängen. Wir erklären, warum Korrelation nicht mit Kausalität gleichgesetzt werden darf und warum eine inhaltliche Diskussion statistisch nachgewiesener Zusammenhänge auf jeden Fall geboten ist.
-
Statistische Signifikanz wird regelmäßig - allerdings fälschlicher Weise - mit inhaltlicher Relevanz verwechselt. Wir erklären in dieser Folge, warum statistische Signifikanz nicht mit inhaltlicher Relevanz gleichgesetzt werden darf. Zudem gehen wir darauf ein, warum statistische Signifikanz zwar ein methodisches Werkzeug zur Bewertung wissenschaftlicher Hypothesen, aber per se kein Maß für die Existenz oder die Größe von Effekten ist.
-
In dieser Folge reden wir über verschiedene Möglichkeiten, Wahrscheinlichkeiten zu interpretieren. Weiterhin sehen wir auf sogenannte
bedingte Wahrscheinlichkeiten und diskutieren ihre Bedeutung, wenn Aussagen auf Teilpopulation zu beziehen sind. -
Wir klären in dieser Folge den Begriff des "P-Wertes“ und diskutieren, warum statistische Signifikanz kein absolutes Maß ist. Zudem erläutern wir, weshalb statistische Signifikanz nur gemeinsam mit der zur prüfenden Hypothese und einem vorab als sinnvoll angesehenem Fehlerniveau korrekt interpretiert werden kann.
-
Modelle sind Werkzeuge, die durch Vereinfachung und Abstraktion in unterschiedlicher Weise dazu beitragen, die Realität besser zu verstehen und Vorhersagen zu treffen. In dieser Folge sehen wir uns Stärken und Schwächen von Modellen und Modellierungen an und erläutern, warum und wie man diese im wissenschaftlichen Kontext einsetzen kann bzw. sollte.
-
Aufbauend auf Folge 2, beschäftigt sich diese Folge noch einmal mit maschinellen Lernverfahren. Wir diskutieren u. a. die Stärken dieser Methodenklasse wir erläutern, warum maschinelles Lernen klassische Verfahren der Datenanalytik nicht vollständig ersetzen kann.
-
In dieser Folge sprechen wir über einen Begriff, denn man heutzutage sehr häufig hört: "Maschinelles Lernen". Oftmals wird dieser auch im Zusammenhang mit künstlicher Intelligenz verwendet. Aber was ist „Maschinelles Lernen" eigentlich und was hat es mit künstlicher Intelligenz und mit Statistik zu tun? Genau das versuchen wir in unserem Gespräch herauszufinden.
-
Beim Begriff Statistik denken viele an langweilige Zahlenkolonnen oder unverständliche Grafiken. Hingegen verspricht „Data Science“ (übersetzt: Datenwissenschaften) Innovation und Modernität durch die Anwendung digitaler Methoden im Bereich der Datenanalytik. Aber was bedeuten diese Begriffe wirklich und in welcher Beziehung stehen sie zueinander? Genau dies diskutieren wir in dieser Folge.