p-Wert |
03.06.2019, 00:21 | Dopap | Auf diesen Beitrag antworten » | ||
p-Wert
- hieß es, dass der p-Wert für die Signifikanzbeurteilung bekanntermaßen falsch ist und es bessere Kriterien gäbe. Und Sie zitierte: Statistiker und andere Wissenschaftler haben dazu seit Jahrzehnten geschrieben Jessics Utts, President of the American Statistical Associaten Jeder wusste dass es falsch war, aber man dachte, es sei falsch, so wie es falsch ist, bei rot über die Strasse zu gehen Josef Simmons, Leif Nelson, and Uri Simonsohn, "False Positive Psychologie," (2011) was ist dazu allgemein und mathematisch zu sagen? |
||||
03.06.2019, 08:08 | Huggy | Auf diesen Beitrag antworten » | ||
RE: p-Wert
Der p-Wert ist natürlich nicht falsch. Er wird nur gelegentlich falsch und häufig überinterpretiert. Man sollte also mit solchen polemischen Äußerungen nicht das Kind mit dem Bade ausschütten. Hauptkritikpunkt ist die dogmatische Verwendung des p-Wertes als alleiniges Kriterium darüber, ob man etwas als signifikant betrachtet oder nicht. Ich hatte kürzlich auf einen sehr lesenswerten Artikel zu dieser Thematik hingewiesen: Artikel zum p-Wert @Doap: Polemische Äußerung bezieht sich Jesics Utts, nicht auf deine Frage. |
||||
04.06.2019, 11:54 | Dopap | Auf diesen Beitrag antworten » | ||
sehr guter Artikel. Entspricht meiner Sicht und auch meinem Vorbehalt gegenüber übertriebener Genauigkeit in berechneten oder gemessenen Werten. |
||||
05.06.2019, 16:32 | HAL 9000 | Auf diesen Beitrag antworten » | ||
@Offtopic Weiß zwar nicht genau, wie du von dem Artikel eine Verbindung ziehst zu Fragen wie "übertriebener Genauigkeit in berechneten Werten". Aber ich kenne das gegensätzliche Problem: Voreiliges, unnötiges Runden bei Zwischenergebnissen und damit dann weiter rechnen, und somit Produzieren von vermeidbaren Fehleranteilen im Endergebnis. D.h. mein Standpunkt ist: Jederzeit so genau wie möglich rechnen, solange das mit keinem zeitlichen/ökonomischen Zusatzaufwand verbunden ist. Der letzte Halbsatz soll andeuten, dass man z.B. nicht alles und jedes mit einer hochgenauen Bibliothek auf 1000 und mehr Stellen rechnen sollte, wenn normales "double" (64Bit Floatingpoint) auch ausreicht, denn Zeit und Energiekosten sprechen dagegen. Dass man dann bei der Formulierung des Endergebnisses sinnvoll rundet, steht auf einem ganz anderen Blatt. Aber sobald man mit den Ergebnissen irgendwie weiter rechnet, dann bitte mit den (intern hoffentlich noch verfügbaren) genaueren Werten. |
|