Neyman-Kriterium

Das Neyman-Kriterium ist in der mathematischen Statistik ein Kriterium für die Suffizienz von σ-Algebren und Suffizienz von Statistiken bei statistischen Modellen mit dominierten Verteilungsklassen. Das Neyman-Kriterium leitet sich aus dem Satz von Halmos-Savage ab, ist aber leichter anzuwenden als dieser. Somit ist das Neyman-Kriterium eines der gängigsten Kriterien, um zu überprüfen, ob eine Abbildung Daten ohne Informationsverlust komprimiert.

Es ist nach Jerzy Neyman benannt.

Aussage

Für σ-Algebren

Gegeben sei ein statistisches Modell ( Ω , A , P ) {\displaystyle (\Omega ,{\mathcal {A}},{\mathcal {P}})} mit dominierter Verteilungsklasse P {\displaystyle {\mathcal {P}}} , die von ν {\displaystyle \nu } dominiert wird, sowie eine Unter-σ-Algebra S {\displaystyle {\mathcal {S}}} von A {\displaystyle {\mathcal {A}}} .

Dann ist S {\displaystyle {\mathcal {S}}} suffizient genau dann, wenn eine A B ( [ 0 , ) ) {\displaystyle {\mathcal {A}}{-}{\mathcal {B}}([0,\infty ))} -messbare Funktion h {\displaystyle h} existiert und für jedes P P {\displaystyle P\in {\mathcal {P}}} eine S B ( [ 0 , ) ) {\displaystyle {\mathcal {S}}{-}{\mathcal {B}}([0,\infty ))} -messbare Funktion f P {\displaystyle f_{P}} existiert, so dass

d P d ν ( x ) = h ( x ) f P ( x ) {\displaystyle {\frac {\mathrm {d} P}{\mathrm {d} \nu }}(x)=h(x)\cdot f_{P}(x)}

gilt bis auf eine ν {\displaystyle \nu } -Nullmenge. Dabei ist d P d ν ( x ) {\displaystyle {\tfrac {\mathrm {d} P}{\mathrm {d} \nu }}(x)} die Radon-Nikodým-Ableitung von P {\displaystyle P} bezüglich ν {\displaystyle \nu } .

Für Statistiken

Unter denselben Voraussetzungen wie oben ist eine Statistik

T : ( Ω , A ) ( Ω , A ) {\displaystyle T:(\Omega ,{\mathcal {A}})\to (\Omega ^{*},{\mathcal {A}}^{*})}

suffizient genau dann, wenn eine A B ( [ 0 , ) ) {\displaystyle {\mathcal {A}}{-}{\mathcal {B}}([0,\infty ))} -messbare Funktion h {\displaystyle h} existiert und für jedes P P {\displaystyle P\in {\mathcal {P}}} eine A B ( [ 0 , ) ) {\displaystyle {\mathcal {A}}^{*}{-}{\mathcal {B}}([0,\infty ))} -messbare Funktion f P {\displaystyle f_{P}} existiert, so dass

d P d ν ( x ) = h ( x ) f P ( T ( x ) ) {\displaystyle {\frac {\mathrm {d} P}{\mathrm {d} \nu }}(x)=h(x)\cdot f_{P}(T(x))}

gilt bis auf eine ν {\displaystyle \nu } -Nullmenge. Dies folgt aus dem Faktorisierungslemma und der Tatsache, dass T {\displaystyle T} eine suffiziente Statistik ist genau dann, wenn σ ( T ) {\displaystyle \sigma (T)} eine suffiziente σ-Algebra ist.

Beispiel: Suffizienz der Exponentialfamilie

Per Definition hat für die Exponentialfamilie P {\displaystyle {\mathcal {P}}} bezüglich μ {\displaystyle \mu } jedes P P {\displaystyle P\in {\mathcal {P}}} die Dichtefunktion

f ϑ ( x ) = d P d μ ( x ) = C ( ϑ ) h ( x ) exp ( Q ( ϑ ) ; T ( x ) ) {\displaystyle f_{\vartheta }(x)={\frac {\mathrm {d} P}{\mathrm {d} \mu }}(x)=C(\vartheta )h(x)\exp(\langle Q(\vartheta );T(x)\rangle )}

Dies ist aber bereits genau die oben geforderte Zerlegung. h {\displaystyle h} und T {\displaystyle T} sind bereits korrekt, man setzt dann nur noch

f P ( y ) = f ~ ϑ ( y ) = C ( ϑ ) exp ( Q ( ϑ ) ; y ) {\displaystyle f_{P}(y)={\tilde {f}}_{\vartheta }(y)=C(\vartheta )\exp(\langle Q(\vartheta );y\rangle )}

um zu zeigen, dass T {\displaystyle T} eine suffiziente Statistik für die Exponentialfamilie ist.

Literatur

  • Ludger Rüschendorf: Mathematische Statistik. Springer Verlag, Berlin Heidelberg 2014, ISBN 978-3-642-41996-6, doi:10.1007/978-3-642-41997-3.