Jeffreys’ a-priori-Verteilung

Als Jeffreys’ a-priori-Verteilung[1] bezeichnet man in der In bayesschen Statistik eine A-priori-Verteilung (eine Wahrscheinlichkeitsverteilung, welche unabhängig von Messdaten als gegeben angenommen wird). Sie ist nach Sir Harold Jeffreys benannt und zeichnet sich gegenüber anderen a-priori-Verteilungen dadurch aus, dass sie gegenüber einer Reparametrisierung der Modellparameter invariant ist. Aufgrund dieser Invarianz wird die Jeffreys’ a-priori-Verteilung auch als nichtinformativ bezeichnet.

Die Wahrscheinlichkeitsdichtefunktion ( θ ) {\displaystyle \wp \left({\vec {\theta }}\right)} der Jeffreys’ a-priori-Verteilung ist proportional zur Quadratwurzel der Determinante der Fisher-Information:

( θ ) det I ( θ ) . {\displaystyle \wp \left({\vec {\theta }}\right)\propto {\sqrt {\det {\mathcal {I}}\left({\vec {\theta }}\right)}}.\,}

Motivation

Das Problem ergibt sich aus dem Bayesschen Satz, in dem die a-posteriori-Verteilung Pr ( M D ) {\displaystyle \Pr(M\mid D)} als proportional zum Produkt von Likelihood Pr ( D M ) {\displaystyle \Pr(D\mid M)} und a-priori-Verteilung Pr ( M ) {\displaystyle \Pr(M)} gegeben ist, wobei D {\displaystyle D} die Daten darstellt, und M {\displaystyle M} Modellparameter (etwa Mittelwert und Standardabweichung einer Normalverteilung). Typischerweise ist die Likelihood, also die Wahrscheinlichkeitsverteilung der Daten, sofern ein Modellparameterwert gegeben ist, bestimmbar. Um jedoch eine Wahrscheinlichkeitsverteilung der Modellparameter gegeben den Messdaten D zu erhalten, ist auch eine datenunabhängige a-priori-Wahrscheinlichkeitsverteilung M {\displaystyle M} notwendig.

Lange Zeit lehnten die Orthodoxie der Statistik die Bayessche Statistik ab, da die Wahl einer geeigneten a-priori-Verteilung zu beliebig erschien[2] Insbesondere störte, dass die Verfahren zur Wahl einer a-priori-Verteilung zu anderen Verteilungen führte, je nachdem, wie die Modelle parametrisiert waren. Jeffreys nahm diesen Kritikpunkt auf und erhob ihn zur Randbedingung bei der Suche nach einem Verfahren zur Wahl von a-priori-Verteilungsfunktionen.

Ansatz

Gegeben sei eine monotone Transformation ϕ = h ( θ ) {\displaystyle \phi =h(\theta )} , welche jedem Modellparameter θ {\displaystyle \theta } einen alternativen Modellparameter ϕ {\displaystyle \phi } zuordnet, wird als Invarianzbedingung gefordert, dass die Wahrscheinlichkeitsfunktionen der a-priori-Verteilungen für θ {\displaystyle \theta } - ϕ {\displaystyle \phi } -Paare gleich sind.

Pr ( Θ < θ ) = Pr ( Φ < h ( θ ) ) {\displaystyle \Pr \left(\Theta <\theta \right)=\Pr \left(\Phi <h(\theta )\right)}

Da es sich bei h ( ) {\displaystyle h(\cdot )} um eine monotone Transformation handelt, kann daraus ein Zusammenhang zwischen den Wahrscheinlichkeitsdichtefunktionen beider Parameterräume hergestellt werden. Das gesuchte Verfahren zur Findung einer a-priori-Wahrscheinlichkeitsfunktion muss also dem folgenden Zusammenhang genügen:

( θ ) = ( ϕ ) | h ( θ ) | {\displaystyle \wp (\theta )=\wp (\phi )\vert h'(\theta )\vert }

Es lässt sich zeigen, dass die Fisher-Informationen für die Parametrisierung mit θ {\displaystyle \theta } und mit ϕ {\displaystyle \phi } , einen direkten Zusammenhang haben

I θ ( θ ) = ( h ( θ ) ) 2 I ϕ ( ϕ = h ( θ ) ) , {\displaystyle I_{\theta }(\theta )=(h'(\theta ))^{2}\cdot I_{\phi }(\phi =h(\theta )),}

somit kann durch die Wahl einer a-priori-Verteilung ( η ) I η ( η ) {\displaystyle \wp \left(\eta \right)\propto {\sqrt {I_{\eta }(\eta )}}} tatsächlich gefolgert werden, dass sich aus der Fisher-Information unter Reparametrierung invariante a priori-Verteilungen finden lassen

( θ ) | h ( θ ) | ( ϕ ) , {\displaystyle \wp \left(\theta \right)\propto \vert h'(\theta )\vert \wp \left(\phi \right),}

und sofern die a-priori-Verteilungen normierbar sind, sind sie auch echt gleich.

Einzelnachweise

  1. Torsten Becker, Richard Herrmann, Viktor Sandor, Dominik Schäfer, Ulrich Wellisch: Stochastische Risikomodellierung und statistische Methoden. Ein anwendungsorientiertes Lehrbuch für Aktuare. Springer Spektrum, Berlin u. a. 2016, ISBN 978-3-662-49406-6, S. 330.
  2. Edwin T. Jaynes: Prior Probabilities. In: IEEE Transactions on Systems Science and Cybernetics. Band 4, Nummer 3, 1968, S. 227–241.