Wann benutzt man die empirische Standardabweichung (korrigiert) und wann die nicht korrigierte?

2 Antworten

also das geht zurück auf die „empirische Varianz“...

die Eigenschaft „korrigiert“ bedeutet, dass man die Summe der Fehlerquadrate nicht durch den Stichprobenumfang (also z. B. n; also die Anzahl der Summanden...) teilt, sondern durch die Anzahl der „Freiheitsgrade“ (das ist dann einer weniger... also n-1)...

das kommt mir etwas schwachsinnig vor, weil man eben normaler Weise durch die Anzahl der Summanden teilt...

Aber durch diese „Korrektur“ erreicht man, dass der Schätzfehler, der durch schwachsinniges Zusammenwürfeln verschiedener Messreihen entsteht, immer kleiner wird...

diese weitere Schwachsinnigkeit besteht darin, dass man nicht den Mittelwert über alle Messungen aller Messreihen bildet, sondern immer nur den Mittelwert pro Messreihe hernimmt...

also ich würde auf diese „Korrektur“ verzichten und stattdessen den Mittelwert über alle Messungen bilden (also egal aus welcher Messreihe die stammen)...

Woher ich das weiß:Studium / Ausbildung – Absolvent/Universität

Die "korrigierte" [also die mit dem (n-1)] ist etwas größer als die nicht korrigierte. Man nimmt sie üblicherweise dann, wenn es sich um eine Stichprobe handelt und man deren Standardabweichung als Schätzung für die Standardabweichung der Grundgesamtheit verwenden möchte.