Avatar

Hypothesentest (Fehler 1. und 2. Art) (Geodäsie/Vermessung)

MichaeL ⌂, Bad Vilbel, Wednesday, 13.07.2016, 21:04 (vor 2924 Tagen) @ Barny.G

Hi Thomas,

standardmäßig für die Suche nach groben Fehlern die NV UND dann die stupide Anwendung der Tabelle (0<NV<2,5 / 2,5<NV<4,0 / NV>4,0) vor. Nunja.

Es ist ja auch nicht falsch und eine praxisnahe Einteilung mit glatten einfachen Werten. Umgedreht würde aber keiner eine Sicherheitswahrscheinlichkeit von 98,7581 % wählen, was der 2.5 entsprechen würde.

w_i = \frac{v_i}{ \sigma \sqrt{q_{vv_{ii}}} } \sim N(0,1) .
OK, also P=0.95 und der Erwartungswert E(v_i)=0. Soweit so gut. Wenn ich allerdings die Standardabweichung verwende, dann kommt Unsinn heraus. Es funktioniert nur, wenn ich da eine (standardmäßige) Eins, also sigma=1, eintrage.

Und Du hast Dich nicht gefragt, warum in der Gleichung oben N(0,1) steht? Die Null gibt den Erwartungswert an und die 1 ist die Standardabweichung der Standardnormalverteilung. Deine Gleichung oben ist also ein einfacher Dreisatz:

\frac{w_i}1 = \frac{v_i}{ \sigma \sqrt{q_{vv_{ii}}} }

Du könntest auch die Verbesserungen direkt testen, da
v_i \sim N(0,\sigma_v_i)

dadurch, dass Du aber die Verbesserung normierst, transformierst Du diese auf die Standardnormalverteilung für die der o.g. Erwartungswert und die o.g. Standardabweichung gilt. Wenn Du die Normierung nicht durchführen würdest, was grundsätzlich möglich wäre, dann müsstest Du für jeden Test den individuellen Grenzwert (Quantil) bestimmen.

Beipsiel: Du hast eine Verbesserung v = 5 und eine zugehörige Standardabweichung von 2, dann wäre Deine normierte Verbesserung NV = 2.5. Für α = 5 % würde sich ein Quantil von 1.96 ergeben. Da 2.5 > 1.96 würdest Du die Nullhypothese ablehnen. Wenn Du nun nicht das Quantil der Standardnormalverteilung nutzt, sondern die zugehörige Normalverteilung der Verbesserung, dann würdest Du als N(0,2)-Quantil 3.92 erhalten. Dein Vergleich würde nun in 5 > 3.92 münden - logischerweise mit der selben Entscheidung.

Liegt das daran, dass in der Gleichung für das Testkriterium w_i schon durch die Standardabweichung geteilt wurde? Ich meine, der Eindruck drängt sich ja auf...

... und ist korrekt, wie oben versucht zu beschreiben.

Wie kann man geschickt zwischen Fehlern 1. und 2. Art abwägen?

So, wie es bspw. Jäger et al. (2005) S. 296ff vorschlagen. Du könntest ein α und ein β vorgeben und damit bestimmen, wie groß ein Fehler sein muss, damit er mit den vorgebenden Wahrscheinlichkeiten gerade noch aufdeckbar ist. Oder andersherum: Du spezifizierst ein Sensitivitätsintervall, innerhalb dessen die normierte Verbesserung noch liegen muss, um für Dein gewähltes α und β als zufällig zu gelten, sodass Du die Nullhypothese nicht abzulehnen ist.

Nehmen wir das Beispiel von oben und wählen β = 20 % für den Fehler 2. Art. Dann erhält man als Grenzwert 2.8 und mit 2.5 < 2.8 würden wir die Nullhypothese nicht mehr ablehnen. Die hier gewählten 20 % sind übrigens eine häufig gewählte Wahrscheinlichkeit (ab und zu auch als Testgüte von 1-β = 80 % angegeben).

so, nun habe ich im Jäger noch ein bisschen gelesen

Bleib dran, es steht viel nützliches drin... ;-)


Schönen Abend
Micha

--
applied-geodesy.org - OpenSource Least-Squares Adjustment Software for Geodetic Sciences

Tags:
Hypothesentest, Sicherheitswahrscheinlichkeit, Quantil, Nullhypothese, Standardnormalverteilung


gesamter Thread:

 RSS-Feed dieser Diskussion