Zitat:
Zitat von Hafu
Prof Simon versucht das Kölner und das in Tokio benutzte Testverfahren anhand der jeweiligen"Sensitivität" zu beurteilen und sucht hierfür in der Literatur nach entsprechenden Zahlen.
|
Scheint mir (als Nicht-Experte) nicht so, dass er hier Sensitivität und Spezifität verwechselt. Hier geht es ja darum, dass mittels Massenspektrometrie in Japan nichts gefunden wurde, in Köln aber mittels SAR-PAGE eine sehr kleine Konzentration.
Da scheint mir die Frage durchaus relevant, ob das SAR-Page tatsächlich zuverlässlig eine so kleine Konzentration erkennen kann, wie es die Massenspektroskopie nicht kann.
Hier scheint mir Simons Fehler also nicht unbedingt zu liegen.
Was mir zunächst nicht einleuchtete:
Warum soll zur Beurteilung der Qualität der Analyse einer einzelnen Dopingprobe die Dopingprävalenz (Anteil der mit diesem Mittel Gedopten) relevant sein?
Das Testverfahren soll ermitteln, ob das Dopingmittel in einer konkreten Probe vorhanden ist oder nicht. Wie wird das Ergebnis oder die Zuverlässigkeit des Ergebnisses durch die Häufigkeit beeinflusst, mit der andere mit diesem Stoff dopen?
Das macht einen Großteil seiner Argumentation aus. Ich dachte, da würde er höchstwahrscheinlich irgendwie falsch liegen, aber ich beginne gerade, es zu verstehen:
In der allseits beliebten Wikipedia findet sich ein eindrucksvolles Beispiel aus einem anderen Bereich:
"HIV in der BRD
Das Ziel eines HIV-Tests sollte die möglichst sichere Erkennung eines Infizierten sein. Aber welche Konsequenzen ein falsch positiver Test haben kann, zeigt das Beispiel eines Menschen, der sich auf HIV testen lässt und dann aufgrund eines falsch-positiven Ergebnisses Suizid begeht.
Bei einer
angenommenen Genauigkeit von 99,9 % des nicht-kombinierten HIV-Tests sowohl für positive als auch negative Ergebnisse (Sensitivität und Spezifität = 0,999) und der aktuellen Verbreitung von HIV (Stand 2009) in der deutschen Bevölkerung (82.000.000 Einwohner, davon 67.000 HIV-positiv) wäre ein allgemeiner HIV-Test verheerend: bei nicht-kombiniertem HIV-Test würden nämlich von 67.000 tatsächlich Erkrankten lediglich 67 HIV-Infizierte fälschlicherweise nicht erkannt,
aber ca. 82.000 Personen würden fälschlicherweise als HIV-positiv diagnostiziert. Von 148.866 positiven Ergebnissen wären etwa 55 % falsch positiv, also mehr als die Hälfte der positiv Getesteten. Somit liegt die Wahrscheinlichkeit, dass jemand, der nur mit dem ELISA-Test positiv getestet würde, auch wirklich HIV-positiv wäre, bei nur 45 % (positiver Vorhersagewert). Dieser angesichts der sehr geringen Fehlerrate von 0,1 % niedrige Wert liegt darin begründet, dass HIV nur bei etwa 0,08 % der Bundesbürger auftritt."
Wenn man wie ich wenig Ahnung hat, denkt man, das "Sensitivität und Spezifität = 0,999" bedeutet, dass von 1000 positiven Tests nur einer falsch ist. Tatsächlich kann es unter bestimmten Bedingungen aber so sein, dass mehr als die Hälfte der positiven Tests falsch sind!
Wenn das tatsächlich bei (manchen) Dopingtests der Fall sein sollte, hätten wir ein ziemlich großes Problem ...
Allerdings bewirkt nach meinem Verständnis in diesem Fall (Fehler rein statistisch bedingt und nicht durch systematisch falsche Analytik) ein zweiter Test mit der gleichen Methode (im Fall der Dopinganalytik also die Analyse der B-Probe), dass von den erschreckend vielen ca. 82.000 falsch Positiven nur ein Tausendstel übrig bleibt (also ca. 82).
Puh, hier scheint also doch kein katastrophales Problem vorzuliegen.
Dann bleibt noch die Frage, ob diese Aussage Simons stimmt (aus seiner Stellungnahme vom 6.6.2016):
"In Realität liegt die Testgüte für beides, Sensitivität und Spezifität besonders bei dem vom Anti-Dopinglabor in Köln eingesetzten, antikörperbasierten Dopingnachweisverfahren weitaus schlechter."
Liegt hier evtl. ein systematischer Fehler vor und nicht nur ein statistischer? Das kann ich nicht beurteilen.
Aber in der Folge scheint mir seine Argumentation ins Absurde abzugleiten:
Da führt er diverse Umstände an, die zum Abbau der Dopingsubstanz vor der Analyse führen können, bzw. zur Beseitigung durch Manipulation wie beim Russland-Skandal.
Auch wenn sich dadurch irgendwelche statistische Kennzahlen verschlechtern, kann daraus natürlich nicht folgen, dass tatsächlich negative Proben häufiger falsch positiv getestet werden. Mir scheint, das behauptet er auch nicht direkt, aber er erweckt den Eindruck.
Wie gesagt: Ich bin kein Experte für dieses Zeugs. Man möge mich also korrigieren oder relevantes ergänzen!
Derzeit habe ich den vorläufigen Eindruck, dass Simon einem Klimawandelleugner ähnelt, der durch kurzes Nachdenken oder Googeln meint, die Ergebnisse jahrzehntelanger Arbeit Tausender Klimawissenschaftler widerlegen zu können.
Off-Topic-Beispiel dazu:
Horst Lüning: Widerlegung des menschgemachten Klimawandels an Hand von Planeten und Monden
Der Typ findet auch
Cyfly genial.