ich hab mir die Studie mal komplett angeschaut. Insgesamt eine sehr schöne Studie, die eine Menge Pluspunkte hat (großes, random sample, anspruchsvolles Verfahren (cox hazard regression), kein sample dropout und vor allem: Kontrolle der zentralen "confounder" - also Merkmale, die zu einem Scheinzusammenhang führen könenn).
Insgesamt bringt sie sehr schöne Beleg, dass *joggen gesund ist und die Sterblichkeit verringert*!
Wenn da nicht diese seltsame, zusätzliche Interpretation wäre, dass intensives Joggen tödlich ist (Achtung, ich hoffe, das kommt nicht zu sehr als Klug-Gesch* rüber!)
Wie einige von Euch bemerkt haben, ist das N in der "intensiven Gruppe" sehr gering. Nun ist es ja so, dass sample-Daten (=Tode *in der Stichprobe*) sog. "Populationsparameter" schätzen (= Sterberisiken/hazard ratios). Immer dann, wenn die Daten dünn sind, wird nun die Unsicherheit des Schätzers erhöht: In der Tabelle wird dies durch das "Konfidenzintervall" (95% CI) ausgedrückt- bzw. durch den horizontalen Strich in der Abb.). Wie man sieht sind die CI für die leichten und moderaten jogger sehr schmal - so können sie präzise vom Referenzpunkt "non-jogger" abgegrenzt werden.
Im Fall der schnellen jogger ist das CI abartig hoch. Man kann also keinen Unterschied feststellen, weil die Unsicherheit der Positionsbestimmung so hoch ist. Im statischen Jargon bedeutet das, dass die Nullhypothese ("H0 = es gibt keinen Unterschied) nicht verworfen werden kann. Es ist ein häufiger Fehler, dass aus der "Nicht-Zurückweisung der H0" geschlossen wird, dass es in der Population auch keinen Unterschied gibt. Fakt ist, man kann ihn einfach nur nicht finden.
Der Schluss, dass die H0 gilt (kein Unterschied da ist) ist immer heikel. Der wird immer plausibler je besser die Daten sind. Hier wäre der Schluss plausibler, wenn das CI schmal wäre (viele intensive jogger und tote intensive jogger), d.h. die schwarze Linie wäre genauso lang wie die der anderen Gruppen und würde auf der vertikalen gestrichelten Linie zentriert liegen.
Die Linie bedeutet damit mitnichten, dass das Risiko explodiert, sondern dass man einfach nix genaues sagen kann.
Wie die Autoren mit dieser Interpretation durch kommen können (als immerhin zentraler Interpretation) ist schon seltsam.
Es ist nämlich nicht so, dass man jeden Müll schreiben kann. Begutachtungsverfahren für Veröffentlichungen m.E. der gnadenloseste Prozess, den man sich vorstellen kann. Und auch wenn ich selbst kritisch bin, würde ich - v.a. in diesem Forum etwas mehr Zurückhaltung und Bescheidenheit wünschen. Ich würd gern mal wissen, wie Ihr reagieren würdet, wenn blutige Laien Euch in eurem Beruf erzählen wollten, wie doof Ihr seid und dass man das ja alles ganz anders machen müsste.
ich hab mir die Studie mal komplett angeschaut. Insgesamt eine sehr schöne Studie, die eine Menge Pluspunkte hat (großes, random sample, anspruchsvolles Verfahren (cox hazard regression), kein sample dropout und vor allem: Kontrolle der zentralen "confounder" - also Merkmale, die zu einem Scheinzusammenhang führen könenn).
Holly, ist das random sample hier wirklich von Vorteil? Die Daten werden ja schließlich nach Alter und Geschlecht angepasst. Wäre es nicht besser zum Beispiel ausschließlich Männer oder Frauen zwischen 30 und 40 Jahren zu untersuchen, um diese Anpassungen nicht durchführen zu müssen?
Aus Lidls Link erfährt man: "for example, the sedentary control group had an average age of 61.3, whereas the various running groups had an average age in their late 30s and 40s."
Das Problem als Laie ist für mich folgendes...einer kriegt so ein Ergebnis...der nächste dann beim selben Thema ein gegenteiliges
Das ist DAS zentrale Problem in der Forschung. Dafür gibt es zwei Gründe:
a) Statistische/stochastische: Selbst wenn du die jeweilige Studie EXAKT wiederholen würdest (nur halt mit einer ähnlichen Studie, aber aus der selben Population), käme ein unterschiedliches Ergebnis raus. Der Grund ist der sogn. Stichprobenfehler (das ist wie wenn du 10x würfelst). Das ist also per se nichts Schlimmes und erwartbar. Deshalb ja die Berechnung von Konfidenzintervallen. Mit denen kann man das erwartbare Ausmaß an Schwankungen abschätzen
b) Inhaltliche: Studien unterscheiden sich ja in zig Design-Merkmalen (jeweilige Population wird gar variiert), Messung, treatment, einbezogene Kontrollvariablen etc.). Das geht natürlich hin bis zu unterschiedlichen Qualitätsunterschieden bis hin zu völligem Quatsch (und da hab ich bei Ernährungsstudien halt oft auch ein negatives Bild). Bei diesen fällt halt auch oft auf, dass teilweise überhaupt keine Kontrollvariablen, die zu Scheineffekten führen können, einbezogen werden. Im krassesten Fall sind das eben einfach Korrelationen, für die es allmöglichen Erklärungen geben kann.
Diese Heterogenitäts- Probleme versuchen sog. "Meta-Analysen" zu adressieren. Sie ziehen alle Studien zu einem Thema ein, berechnen einen Durchschnittswert sowie das Ausmaß an Schwankungen und versuchen letztere durch Einbeziehungen von Studienmerkmalen aufzuklären.
Letztlich muss man sich die jeweiligen Studien aber anschauen und ihre Begrenzungen feststellen. Aus der bloßen Heterogenität auf die Beliebigkeit von Forschung zu schließen, ist Käse.
Zitat:
Die Daten werden ja schließlich nach Alter und Geschlecht angepasst. Wäre es nicht besser zum Beispiel ausschließlich Männer oder Frauen zwischen 30 und 40 Jahren zu untersuchen
Da muss ich passen, da ich diese hazard-Modelle zu wenig kenne. In normalen (z.B. Regressions)Modellen würde man das Alter einfach statistisch kontrollieren und das Problem ist gelöst. Hier ist Alter ja die zentrale Verlaufsvariable...Der Artikel sagt hierzu lediglich: "The flexible age adjustment ensured by the Cox model made comparisons between joggers and sedentary nonjoggers feasible, although there were large differences in mean age in these groups".
Ich stimm dir aber zu, dass ein matching besser gewesen wäre. Nur sinkt dadurch wieder die Stichprobengröße, womit wieder die Ungenauigkeit steigt. Ein Dilemma...
Was wie gesagt die Studie zeigt, dass die großen Jogger-Gruppen deutlich GERINGERE Sterberisiken hatten und die Effekte intensiven Sportreibens unklar sind. Das ist also ein Pro-Argument gegen alle Couchpotatos, wenn sie uns mal wieder vorhalten, wie gefährlich das ist
Der Hauptautor der Studie gibt zu, dass die Schlussfolgerungen über das exzessive Joggen unfundiert waren:
Zitat:
Zitat von BBC
The lead author of the study, clinical cardiologist Dr Peter Schnohr, now concedes that he didn't have the evidence to say that strenuous jogging is bad for you.
"We should have said we suspect that it is so, but we can't say for sure. Everybody makes some mistakes in papers," he says.
Wobei ich das insgesamt schon bemerkenswert finde. Das betreffende Journal ist nun wirklich kein Käseblatt, vielmehr eines der weltweit führenden kardiologischen Publikationen.
Andererseits ist die Dateninterpretation, wie weiter oben ja bereits von HollyX erläutert wurde, absolut offensichtlicher Murks. Sowas kann eigentlich nicht durchrutschen in der Prüfung.
Ob man da jetzt mal unbedingt in die Mainstreampresse wollte und gehofft hat, dass wenn es schief geht, sich bald keiner in der Fachwelt dran erinnert oder man auf absurden Wegen seinen Impact-Faktor steigern wollte, ich weiß es nicht.
das hat mich auch gewundert. Das der Autor selbst wohl gewisse Voreinstellungen bzgl. Laufen hat, die zu dieser Interpretation geführt haben kann man ja nachvollziehen.
Aber Editor und Reviewer....das versteh ich nicht. Deine Interpretation kann ich mir nicht so recht vorstellen. Es ist für ein Journal sehr wichtig, glaubwürdig zu sein und nicht bekannt um jeden Preis. Ein Dieter Bohlen funktioniert in der Wissenschaft nicht.