Unterschied normierte und standardisierte Verbesserung (Geodäsie/Vermessung)

Barny.G, Saturday, 09.07.2016, 18:03 (vor 2820 Tagen)
bearbeitet von Barny.G, Saturday, 09.07.2016, 18:52

Hallo Micha,

da bin ich wieder. :-)

Ich bin in der Literatur auf meiner Meinung nach verschiedene Begriffe für die gleiche Sache gestossen:

Niemeier bezeichnet dies
w_i = \frac{v_i}{\sigma_0 \; \sqrt{q_{{vv}_{ii}}}}
als standardisierte Verbesserung. Wobei die

q_{{vv}_{ii}}} = r_i
sind. Die ri sind die Hauptdiagonalelemente der Redundanzmatrix. In anderen Büchern, beispielsweise Möser, Handbuch der... ist
NV_i = \frac{v_i}{\s_0 \; \sqrt{r_i}
als normierte Verbesserung bezeichnet.

Nun liegt die Vermutung nahe, dass Möser die empirische Varianz (bzw. Standardabweichung) a posteriori verwendet und Niemeier die theoretische Varianz a priori.

Nur ist das zulässig? Kann denn die empirische Varianz überhaupt zur Fehlersuche dienen? Denn in vielen Veröffentlichungen sind die Grenzen 0-2,5 / 2,5-4,0 / 4,0-- für die Fehlersuche nach groben Fehlern gleich angegeben.

Was kann ich davon halten? Und was ist richtig?

Viele Grüße

Thomas.

edit:
Und ich habe noch eine Quelle, die alles zusammenschreibt: Neitzel nennt unter der Voraussetzung, dass \sigma_0 die theoretische (a priori) Standardabweichung ist
NV_i = \frac{v_i}{\sigma_0 \; \sqrt{q_{{vv}_{ii}}}}
die normierte Verbesserung. So. :confused:

Avatar

Unterschied normierte und standardisierte Verbesserung

MichaeL ⌂, Bad Vilbel, Saturday, 09.07.2016, 22:01 (vor 2820 Tagen) @ Barny.G

Guten Abend,

Niemeier bezeichnet dies
w_i = \frac{v_i}{\sigma_0 \; \sqrt{q_{{vv}_{ii}}}}
als standardisierte Verbesserung. Wobei die

q_{{vv}_{ii}}} = r_i
sind.

Nein, mit q_{{vv}_{ii}}} ist das i-te Hauptdiagonalelement der Kofaktormatrix der Verbesserungen Q_{vv} gemeint, nicht aber die Redundanzmatrix, die sich aus R = Q_{vv}P ergibt.

In anderen Büchern, beispielsweise Möser, Handbuch der... ist
NV_i = \frac{v_i}{\s_0 \; \sqrt{r_i}
als normierte Verbesserung bezeichnet.

Diese Gleichung müsste korrekt lauten: NV_i = \frac{v_i}{\sigma_l_i \; \sqrt{r_i}

Nun liegt die Vermutung nahe, dass Möser die empirische Varianz (bzw. Standardabweichung) a posteriori verwendet und Niemeier die theoretische Varianz a priori.

Nein, warum? Es gilt doch mit R = Q_{vv}P und für den Fall unkorrelierter Beobachtungen:

\frac{v_i}{\sigma_v_{i}} = \frac{v_i}{\sigma_0 \sqrt{q_{{vv}_{ii}}}} = \frac{v_i  \sqrt{p_{ii}}}{\sigma_0 \sqrt{r_{ii}}}}

und wenn Q_{ll} = P^{-1} ist, dann gilt weiter

\frac{v_i\sqrt{p_{ii}}}{\sigma_0\sqrt{r_{ii}}}}=\frac{v_i}{\sigma_0\sqrt{q_{ll}_{ii}}\sqrt{r_{ii}}}}=\frac{v_i}{\sigma_l_i\sqrt{r_{ii}}}}

Kurzum, es handelt sich immer um den selben Wert. Ich verweise erneut auf die Herleitung im Jäger et al. (2005), S. 193 und in diesem Zusammenhang auf den Artikel: Zum Einsatz der F-Verteilung bei gerichteten und ungerichteten Hypothesentests. Der Test ist demnach nur ein Sonderfall einer allg. Teststatistik.

Kann denn die empirische Varianz überhaupt zur Fehlersuche dienen?

Klar, warum nicht? Wie Du im o.g. Artikel nachlesen kannst, lassen sich zwei Teststatistiken definieren. Eine nutzt den a-priori Varianzfaktor und die andere dessen Schätzwert. Die Teststatistik mit dem geschätzten Varianzfaktor wird immer dann angewendet, wenn Du keine (oder nur schlechte) Informationen über die a-priori Genauigkeiten hast.

Denn in vielen Veröffentlichungen sind die Grenzen 0-2,5 / 2,5-4,0 / 4,0-- für die Fehlersuche nach groben Fehlern gleich angegeben.

Diese Grenzwerte sind zur Orientierung sicher gut und leiten sich aus der Standardnormalverteilung ab. Ich wüsste jetzt kein Programm, welches diese Einteilung nutzt und nicht aus einer vorgegebenen Irrtumswahrscheinlichkeit das zugehörige Quantil als Grenzwert bestimmt. Wenn man im Feld mal schnell einen Wert prüfen will, wendet man ja auch die 3-Sigma-Regel an - im finalen Report/Bericht wird man das dann vermutlich etwas fundierter ausdrücken.

Was kann ich davon halten? Und was ist richtig?

Beide Gleichungen sind identisch. Sie gelten für den Sonderfall eines Tests für unkorrelierte Einzelbeobachtungen. Die zugehörige Verteilung ist die Standardnormalverteilung. Wenn der geschätzte Varianzfaktor verwendet wird, ist es die Student-t-Verteilung. Beide Teststatistiken lassen sich aus allg. Teststatistiken ableiten, die dann der F-Verteilung unterliegen. In JAG3D wird daher ausschließlich der F-Test zur Prüfung auf Modellstörungen angewendet.

Viele Grüße
Micha

--
applied-geodesy.org - OpenSource Least-Squares Adjustment Software for Geodetic Sciences

Unterschied normierte und standardisierte Verbesserung

Barny.G, Sunday, 10.07.2016, 00:09 (vor 2820 Tagen) @ MichaeL

Guten Abend Micha

Vielen Dank für Deine ausführliche Erklärung. Das mit der Normalverteilung und der theoretischen Varianz bzw. der t-Verteilung und der empirischen Varianz hatte ich kurz bevor ich nochmal ins Forum geguckt habe ebenfalls woanders gesehen. Der Zusammenhang scheint nun klar.

Den überwiegenden Teil Deiner Erläuterungen werde ich leider erst am Montag durchdenken können, da morgen erst einmal die Familie dran ist...

Gute Nacht!

Th.

Unterschied normierte und standardisierte Verbesserung

Barny.G, Monday, 11.07.2016, 12:07 (vor 2818 Tagen) @ MichaeL

Hallo Micha,

vielen Dank, nun bin ich mit der normierten Verbesserung Freund geworden. Auch die Funktionsweise des Globaltests (z.B. Jäger)

\frac{s_0^2}{\sigma^2}
ist mir nun klar.

Allerdings:

Denn in vielen Veröffentlichungen sind die Grenzen 0-2,5 / 2,5-4,0 / 4,0-- für die Fehlersuche nach groben Fehlern gleich angegeben.

Diese Grenzwerte sind zur Orientierung sicher gut und leiten sich aus der Standardnormalverteilung ab. Ich wüsste jetzt kein Programm, welches diese Einteilung nutzt und nicht aus einer vorgegebenen Irrtumswahrscheinlichkeit das zugehörige Quantil als Grenzwert bestimmt.

Ja, OK. Nun habe ich den Jäger nicht hier (ich muss unbedingt mal in die Bibo!!) und kann nicht nachschauen wie ich das testen soll.

Denn probiert hatte ich unter der Annahme der chi^2 verteilten Verbesserungen und der Varianz:

das w_i (siehe oben) als Testkriterium zu nehmen und gegen die Quantile der F-Verteilung zu testen. Sozusagen analog zum Globaltest. Das ging natürlich gründlich schief.

Ich meine ich habe eine Überbestimmung von r=234 bei insgesamt n=240 Messwerten. Da sollte es eigentlich keinen Unterschied mehr machen welche Verteilung (Normal- oder F-Verteilung) ich nehme - oder? Ich glaube ich muss mal nachschauen gehen - oder hast Du einen schönen link wie letztens parat? ;)

Schönste Grüße

Thomas

Avatar

Unterschied normierte und standardisierte Verbesserung

MichaeL ⌂, Bad Vilbel, Monday, 11.07.2016, 17:53 (vor 2818 Tagen) @ Barny.G

Hallo,

das w_i (siehe oben) als Testkriterium zu nehmen und gegen die Quantile der F-Verteilung zu testen. Sozusagen analog zum Globaltest. Das ging natürlich gründlich schief.

Ja, weil Du die Teststatistik für den w-Test (NV) vereinfacht hast. Wenn Du Dir die Abhängigkeiten zwischen den Vertielungen ansiehst, siehst Du auch warum das so einfach nicht geht. N bezeichnet die Standardnormalverteilung, t die Student-t-Verteilung, χ² die Chi2-Verteilung und F die Fisher-Verteilung:

N = \sqrt{\chi^2_{1}} = \sqrt{F_{1,\infty}}
t_r = \sqrt{F_{1,r}}
t_\infty = N
nF_{n,\infty} = \chi^2_{n}

Damit Du Dein w-Test (NV) mittels F-Verteilung prüfen kannst, musst Du demnach den Wert quadrieren.

Ich meine ich habe eine Überbestimmung von r=234 bei insgesamt n=240 Messwerten. Da sollte es eigentlich keinen Unterschied mehr machen welche Verteilung (Normal- oder F-Verteilung) ich nehme - oder?

Ob Normal oder F-Verteilung schon, wie Du oben leicht sehen kannst. Aber mit t_\infty = N strebt die t-Verteilung bei einem hohen Freiheitsgrad r gegen die Normalverteilung. Andere Kombinationen kannst Du aus den genannten Gleichungen leicht ableiten.

Viele Grüße
Micha

--
applied-geodesy.org - OpenSource Least-Squares Adjustment Software for Geodetic Sciences

Unterschied normierte und standardisierte Verbesserung

Barny.G, Monday, 11.07.2016, 20:29 (vor 2818 Tagen) @ MichaeL

Hallo Micha,

also ich bin nun mal in der Bibo gewesen und habe mir den Jäger ausgeliehen. Soweit so gut. Auch (glaube ich) verstanden zu haben, was er ab S.193 so schreibt.

Nun habe ich das Ganze mal versucht nachzuvollziehen und auch die t-Verteilung (schreibt er zumindest) verwendet. Dabei bekomme ich, bezogen auf meine Messwerte, diese schöne(?) Grafik aus dem MatLab heraus:
[image]

Die standardisierte Verbesserung wurde nach
w_i = \frac{v_i}{ \sigma \sqrt{q_{vv_{ii}}} }
berechnet, mit \sigma als der (theoretischen) a priori Varianz (bzw. Standardabweichung).

Eigentlich wollte ich Dich nun fragen, wo man die Grenze für den Test ziehen soll (95%/97.5%/99%/99.9%). Denn mit größer werdendem Vertrauensbereich weicht man ja die Schärfe des Tests auf - oder?

Nun hat mich aber dies

N = \sqrt{\chi^2_{1}} = \sqrt{F_{1,\infty}}
t_r = \sqrt{F_{1,r}}
t_\infty = N
nF_{n,\infty} = \chi^2_{n}

Damit Du Dein w-Test (NV) mittels F-Verteilung prüfen kannst, musst Du demnach den Wert quadrieren.

verwirrt. OK, bis zur Aussage

Damit Du Dein w-Test (NV) mittels F-Verteilung prüfen kannst, musst Du demnach den Wert quadrieren.

schien es mir noch einleuchtend, jedoch als ich das ausprobiert habe:
w_i \:\text{ vs. } \: F_{0.95,240,\infty}^2
passte es nicht mehr zusammen. Meine w_i sind dann einfach ein bisschen zu groß. Um es genau zu sagen, das Quantil t_{0.999,240,\infty}^2 = 1.706. Und wenn Du in die Grafik schaust, liegt diese Grenze (für (T) 99.9%!) ungefähr auf der 95% Linie der t-Verteilung (Quantil).

Was verstehe ich falsch? Habe ich die Sache im Jäger falsch aufgefasst?

Viele Grüße

Thomas.


Ps.: Ich glaube aber trotzdem schon bei diesem Problem ein wenige Licht zu erkennen ;)

Avatar

Hypothesentest (Fehler 1. und 2. Art)

MichaeL ⌂, Bad Vilbel, Monday, 11.07.2016, 23:34 (vor 2818 Tagen) @ Barny.G

Hallo Thomas,

zunächst, Du kannst nicht einfach irgendwas testen und die Verteilung nach belieben wählen. Wenn Du einen t-Test machen willst, gelten zwangsläufig andere Gleichungen für die Teststatistik.

Die standardisierte Verbesserung wurde nach
w_i = \frac{v_i}{ \sigma \sqrt{q_{vv_{ii}}} }
berechnet, mit \sigma als der (theoretischen) a priori Varianz (bzw. Standardabweichung).

Dann unterliegt die Nullhypothese aber der Standardnormalverteilung und nicht der t-Verteilung. Hier kannst Du nicht einfach auf eine andere Verteilung ausweichen, ohne die Berechnung Deiner Teststatistik auch anzupassen.

N = \sqrt{\chi^2_{1}} = \sqrt{F_{1,\infty}}

schien es mir noch einleuchtend, jedoch als ich das ausprobiert habe:
w_i \:\text{ vs. } \: F_{0.95,240,\infty}^2

Nunja, in meiner Gleichung stand die Wurzel beim F-Quantil. Du hast diese nicht nur entfernt, sondern dann auch noch quadriert - also eine Potenz von 4. Ich meinte es aber so:

w_i = \frac{v_i}{ \sigma \sqrt{q_{vv_{ii}}} } \sim N(0,1)

entsprechend wäre die Teststatistik für den F-Test

w_i^2 = \frac{v_i^2}{ \sigma^2 q_{vv_{ii}} } \sim F(1,\infty)

Für diesen Sonderfall also einfach quadriert, wie angedeutet. Am Quantil lässt sich das auch ablesen. Nehmen wir eine Irrtumswahrscheinlichkeit von 5% (zweiseitige Fragestellung), dann ist das Quantil der Standardnormalverteilung 1.96. Das Quantil der F-Verteilung wäre 3.84 und entspricht hierbei dem Quadrat der Standardnormalverteilung --> 1.96² = 3.84. Dies gilt aber nur für den Fall eines Einzeltests, vgl. Jäger et al. S. 177, Gl (5.131 und 5.132). Folglich führen beide Tests zur selben Entscheidung.

Eigentlich wollte ich Dich nun fragen, wo man die Grenze für den Test ziehen soll (95%/97.5%/99%/99.9%). Denn mit größer werdendem Vertrauensbereich weicht man ja die Schärfe des Tests auf - oder?

Die Irrtumswahrscheinlichkeit von 5% (Sicherheitswahrswcheinlichkeit von 95%) besagt ja nur, dass Du (statistisch gesehenen) bei 100 durchgeführten Tests fünfmal die Nullhypothese verwirfst, obwohl diese richtig wäre. Du entfernst also fünf gute Messungen. Die Irrtumswahrscheinlichkeit gilt also für den Fehler 1. Art. Natürlich kannst Du nun die Irrtumswahrscheinlichkeit runter setzen bspw. 1%. Dann würdest Du nur 1 von 100 Beobachtungen fälschlicherweise eliminieren aber dadurch steigt die Wahrscheinlichkeit für den Fehler 2. Art, wenn die selbe Alternativhypothese zugrunde liegt (Nichtzentralitätsparameter fest), Jäger et al. (2005) Seite 92f.


Viele Grüße
Micha

--
applied-geodesy.org - OpenSource Least-Squares Adjustment Software for Geodetic Sciences

Tags:
Hypothesentest, Fehler 1. Art, Fehler 2. Art, Wahrscheinlichkeit, Nullhypothese, Teststärke

Hypothesentest (Fehler 1. und 2. Art)

Barny.G, Wednesday, 13.07.2016, 14:18 (vor 2816 Tagen) @ MichaeL

Hallo Micha,

so, nun habe ich im Jäger noch ein bisschen gelesen und auch nochmal in ein anderes Geodäsiebuch geguckt. Traurigerweise sind in meiner Reichweite hauptsächlich Bücher, die sich eher mit praktischen Anwendungen beschäftigen und die sehen einfach standardmäßig für die Suche nach groben Fehlern die NV UND dann die stupide Anwendung der Tabelle (0<NV<2,5 / 2,5<NV<4,0 / NV>4,0) vor. Nunja.

Ich möchte nicht nur das Testkriterium sondern auch das Quantil, wie Du schon richtgerweise schriebst berechnen.

zunächst, Du kannst nicht einfach irgendwas testen und die Verteilung nach belieben wählen.

OK, das war wohl ein bisschen zu wild von mir - habe aber schon wieder was gelernt ;)

Wenn Du einen t-Test machen willst, gelten zwangsläufig andere Gleichungen für die Teststatistik.

Nee, das mache ich dann doch nicht. Ich bleibe schön bei der Normalverteilung:
w_i = \frac{v_i}{ \sigma \sqrt{q_{vv_{ii}}} } \sim N(0,1) .

Womit ich noch ein bisschen im Unklaren bin ist die Anwendung im Matlab. Wenn ich die Funktion

norminv(P,mu,sigma)

verwende, dann wird ja von mir erwartet bei P die Sicherheitswahrscheinlichkeit 1-\alpha [%], bei mu den Erwartungswert E(v_i) und bei sigma die Standardabweichung vorzugeben.

OK, also P=0.95 und der Erwartungswert E(v_i)=0. Soweit so gut. Wenn ich allerdings die Standardabweichung verwende, dann kommt Unsinn heraus. Es funktioniert nur, wenn ich da eine (standardmäßige) Eins, also sigma=1, eintrage.

Nun meine Frage:
Liegt das daran, dass in der Gleichung für das Testkriterium w_i schon durch die Standardabweichung geteilt wurde? Ich meine, der Eindruck drängt sich ja auf...

Und gleich noch eine Frage:
Wie kann man geschickt zwischen Fehlern 1. und 2. Art abwägen?

Viele Grüße

Thomas

Avatar

Hypothesentest (Fehler 1. und 2. Art)

MichaeL ⌂, Bad Vilbel, Wednesday, 13.07.2016, 21:04 (vor 2816 Tagen) @ Barny.G

Hi Thomas,

standardmäßig für die Suche nach groben Fehlern die NV UND dann die stupide Anwendung der Tabelle (0<NV<2,5 / 2,5<NV<4,0 / NV>4,0) vor. Nunja.

Es ist ja auch nicht falsch und eine praxisnahe Einteilung mit glatten einfachen Werten. Umgedreht würde aber keiner eine Sicherheitswahrscheinlichkeit von 98,7581 % wählen, was der 2.5 entsprechen würde.

w_i = \frac{v_i}{ \sigma \sqrt{q_{vv_{ii}}} } \sim N(0,1) .
OK, also P=0.95 und der Erwartungswert E(v_i)=0. Soweit so gut. Wenn ich allerdings die Standardabweichung verwende, dann kommt Unsinn heraus. Es funktioniert nur, wenn ich da eine (standardmäßige) Eins, also sigma=1, eintrage.

Und Du hast Dich nicht gefragt, warum in der Gleichung oben N(0,1) steht? Die Null gibt den Erwartungswert an und die 1 ist die Standardabweichung der Standardnormalverteilung. Deine Gleichung oben ist also ein einfacher Dreisatz:

\frac{w_i}1 = \frac{v_i}{ \sigma \sqrt{q_{vv_{ii}}} }

Du könntest auch die Verbesserungen direkt testen, da
v_i \sim N(0,\sigma_v_i)

dadurch, dass Du aber die Verbesserung normierst, transformierst Du diese auf die Standardnormalverteilung für die der o.g. Erwartungswert und die o.g. Standardabweichung gilt. Wenn Du die Normierung nicht durchführen würdest, was grundsätzlich möglich wäre, dann müsstest Du für jeden Test den individuellen Grenzwert (Quantil) bestimmen.

Beipsiel: Du hast eine Verbesserung v = 5 und eine zugehörige Standardabweichung von 2, dann wäre Deine normierte Verbesserung NV = 2.5. Für α = 5 % würde sich ein Quantil von 1.96 ergeben. Da 2.5 > 1.96 würdest Du die Nullhypothese ablehnen. Wenn Du nun nicht das Quantil der Standardnormalverteilung nutzt, sondern die zugehörige Normalverteilung der Verbesserung, dann würdest Du als N(0,2)-Quantil 3.92 erhalten. Dein Vergleich würde nun in 5 > 3.92 münden - logischerweise mit der selben Entscheidung.

Liegt das daran, dass in der Gleichung für das Testkriterium w_i schon durch die Standardabweichung geteilt wurde? Ich meine, der Eindruck drängt sich ja auf...

... und ist korrekt, wie oben versucht zu beschreiben.

Wie kann man geschickt zwischen Fehlern 1. und 2. Art abwägen?

So, wie es bspw. Jäger et al. (2005) S. 296ff vorschlagen. Du könntest ein α und ein β vorgeben und damit bestimmen, wie groß ein Fehler sein muss, damit er mit den vorgebenden Wahrscheinlichkeiten gerade noch aufdeckbar ist. Oder andersherum: Du spezifizierst ein Sensitivitätsintervall, innerhalb dessen die normierte Verbesserung noch liegen muss, um für Dein gewähltes α und β als zufällig zu gelten, sodass Du die Nullhypothese nicht abzulehnen ist.

Nehmen wir das Beispiel von oben und wählen β = 20 % für den Fehler 2. Art. Dann erhält man als Grenzwert 2.8 und mit 2.5 < 2.8 würden wir die Nullhypothese nicht mehr ablehnen. Die hier gewählten 20 % sind übrigens eine häufig gewählte Wahrscheinlichkeit (ab und zu auch als Testgüte von 1-β = 80 % angegeben).

so, nun habe ich im Jäger noch ein bisschen gelesen

Bleib dran, es steht viel nützliches drin... ;-)


Schönen Abend
Micha

--
applied-geodesy.org - OpenSource Least-Squares Adjustment Software for Geodetic Sciences

Tags:
Hypothesentest, Sicherheitswahrscheinlichkeit, Quantil, Nullhypothese, Standardnormalverteilung

Hypothesentest (Fehler 1. und 2. Art)

Barny.G, Thursday, 14.07.2016, 07:17 (vor 2815 Tagen) @ MichaeL

Guten Morgen Micha,

gib zu, Du machst das auch beruflich - ich meine das Erklären dieser Zusammenhänge... ;-)

Das mit dem Dreisatz


\frac{w_i}1 = \frac{v_i}{ \sigma \sqrt{q_{vv_{ii}}} }

hat mir einiges an Erklärung (bisher habe ich nur vermutet) gegeben! :-) Und auch dies hier

Du könntest auch die Verbesserungen direkt testen, da
v_i \sim N(0,\sigma_v_i)

ist sehr einleuchtend. Genau dies hatte ich im Matlab ausprobiert und war genau zu diesem Schluss gekommen - konnte es aber eben nicht ordentlich erklären.

Wie kann man geschickt zwischen Fehlern 1. und 2. Art abwägen?

So, wie es bspw. Jäger et al. (2005) S. 296ff vorschlagen. Du könntest ein α und ein β vorgeben und damit bestimmen, wie groß ein Fehler sein muss, damit er mit den vorgebenden Wahrscheinlichkeiten gerade noch aufdeckbar ist. Oder andersherum: Du spezifizierst ein Sensitivitätsintervall, innerhalb dessen die normierte Verbesserung noch liegen muss, um für Dein gewähltes α und β als zufällig zu gelten, sodass Du die Nullhypothese nicht abzulehnen ist.

OK, das muss ich nachher mal lesen. Gesehen hatte ich das, aber noch nicht gelesen. Mal sehen, ob ich es heute noch schaffe, ansonsten werde ich erst morgen antworten können - muss auch noch ein bisschen arbeiten ;-)

Viele Grüße

Thomas

Hypothesentest (Fehler 1. und 2. Art)

Barny.G, Thursday, 14.07.2016, 10:24 (vor 2815 Tagen) @ MichaeL

Hallo Micha,

OK, nun zu den Fehlern 1./2. Art. Ich habe nun mal im Jäger (S.296ff) geschnüffelt. Was mit nicht klar ist, woher schlussendelich das \nabla o_i kommt. Aber der Reihe nach. Meine Herangehensweise sei:

  • ich habe die normierte Verbesserung w_i \sim N(0,1) berechnet
  • es wurde wegen \alpha = 0.05 \: \rightarrow \: w_i \; > \; z_{0.95,0,1} ein grober Fehler festgestellt ("z" soll das Quantil der Normalverteilung sein)
  • ich nehme \beta = 0.2 (=20%) bzw 1-\beta = 80% an


Nun meine Frage(n):

  • Wie berechne ich den Nichtzentralitätsparameter \mu = \delta(\alpha,\beta) ? Aus dem Beispiel (Jäger, S.93) scheint es, dass sich dieser aus den Quantilen der Normalverteilung für (im Beispiel)
    z_{1-\alpha/2, \:0, \:1} \: + \: z_{1-\beta, \:0, \:1}
    zusammensetzt. Ist das richtig?
  • Nebenfrage: Gilt für normierte Verbesserungen immer eine zweiseitige Fragestellung? (ich könnte mir vorstellen, dass das daher rührt, dass w_i sowohl positiv als auch negativ sein könnte und damit die Normalverteilung links und rechts der Null existiert.
  • Wenn ich mir Dein Beispiel anschaue, dann scheine ich jedoch den Nichtzentrlitätsparameter gar nicht zu brauchen. Schau Dir mal bitte das folgende (durch mich interpretatorisch erstellte) Schema an.

1) Test der w_i mit 1-alpha (alpha=0.05)
1a) Grober Fehler erkannt, da w_i > z(alpha)
2) erneuter Test, diesmal mit beta (=0.2)
2a) nun ist w_i < z(beta)
(z soll immer das Quantil der Standardnormalverteilung sein)

Warum mache ich mir dann die Mühe und teste erst mit 1-alpha, wenn ich dann ohnehin erst durch beta zur Entscheidung der Annahme/Ablehnung der Nullhypothese komme?

OK, das sind schon einige Fragen ;-) So richtig klar ist mir die Sache (oder auch der Sinn) mit dem beta-Test noch nicht. Wird aber bestimmt (gleich) mit Deiner Hilfe werden...

Viele Grüße

Thomas

Avatar

Hypothesentest (Fehler 1. und 2. Art)

MichaeL ⌂, Bad Vilbel, Thursday, 14.07.2016, 20:46 (vor 2815 Tagen) @ Barny.G

Hallo Thomas,

ich habe grundsätzlich nichts gegen unserer Unterhaltung aber vielleicht solltest Du Dir mehr Zeit nehmen für diese Thematik und nicht jede Frage direkt wieder ins Forum tragen, die Dir auf der Zunge liegt. Manchmal hilft auch etwas Abstand oder Querlesen in anderen Quellen, um Sachverhalte nachzuvollziehen. ;-)

Was mit nicht klar ist, woher schlussendelich das \nabla o_i kommt.

In Abhängigkeit der Dimension des ∇-Vektors (genau genommen vom Rang der Kofaktormatrix von ∇): Aus Gl. (7.22) bzw. (7.24) und (7.26).

  • es wurde wegen \alpha = 0.05 \: \rightarrow \: w_i \; > \; z_{0.95,0,1} ein grober Fehler festgestellt ("z" soll das Quantil der Normalverteilung sein)

Okay, also ein einseitiger Test und keine zweiseitige Fragestellung, vgl. Zum Einsatz der F-Verteilung bei gerichteten und ungerichteten Hypothesentests

  • Wie berechne ich den Nichtzentralitätsparameter \mu = \delta(\alpha,\beta) ? Aus dem Beispiel (Jäger, S.93) scheint es, dass sich dieser aus den Quantilen der Normalverteilung für (im Beispiel)
    z_{1-\alpha/2, \:0, \:1} \: + \: z_{1-\beta, \:0, \:1}
    zusammensetzt. Ist das richtig?

In dem speziellen Fall ist das tatsächlich so einfach. Für allg. Fälle leider nicht.

  • Nebenfrage: Gilt für normierte Verbesserungen immer eine zweiseitige Fragestellung?

Nein. Wenn Du eine Setzung hast bzw. vermutest, schließt Du doch die Hebung bereits aus, sodass Dich nur eine Seite interessiert.

1) Test der w_i mit 1-alpha (alpha=0.05)
1a) Grober Fehler erkannt, da w_i > z(alpha)

Ohne Berücksichtigung der Teststärke würdest Du diese Entscheidung treffen. Und ob es ein grober Fehler ist, weißt Du nie! Immerhin entfernst Du von 100 guten Beobachtungen (statistisch gesehen) 5.

2) erneuter Test, diesmal mit beta (=0.2)
2a) nun ist w_i < z(beta)

Dieser Test beruht nicht allein auf der Wahrscheinlichkeit für den Fehler 2. Art (β) sondern auch auf der Wahrscheinlichkeit α für den Fehler 1. Art. Das ist ein Unterschied zu dem von Dir gesagten. Die in meinem Beispiel genannten 2.8 resultieren aus α und β.

Warum mache ich mir dann die Mühe und teste erst mit 1-alpha, wenn ich dann ohnehin erst durch beta zur Entscheidung der Annahme/Ablehnung der Nullhypothese komme?

Du hattest mich gefragt: Wie kann man geschickt zwischen Fehlern 1. und 2. Art abwägen? und ich habe Dir dann geantwortet. Oder anders: Du wolltest es wissen also frag mich nicht, warum Du es wissen wolltest. ;-)
Der erste Fall berücksichtigt, wie oben geschrieben, die Teststärke nicht. Die Entscheidung ist also unabhängig von der Wahrscheinlichkeit für den Fehler 2. Art. Es könnte also ein β=50 % vorliegen, womit jede zweite Entscheidung false negative wäre.


Viele Grüße
Micha

--
applied-geodesy.org - OpenSource Least-Squares Adjustment Software for Geodetic Sciences

Tags:
Hypothesentest, Fehler 1. Art, Fehler 2. Art, Wahrscheinlichkeit, Nullhypothese, Teststärke

RSS-Feed dieser Diskussion