Moment (Stochastik)

Momente von Zufallsvariablen sind Parameter der deskriptiven Statistik und spielen eine Rolle in der Stochastik. Die Begriffe Erwartungswert, Varianz, Schiefe und Wölbung zur Beschreibung einer Zufallsvariablen hängen eng mit deren Momenten zusammen.

Die Bestimmung einer Verteilung mit vorgegebenen Momenten wird als das Momentenproblem bezeichnet, welches auch in der technischen Mechanik eine große Rolle spielt.

Es gibt Verteilungen, deren Momente nur bis zu einer bestimmten Ordnung existieren. Dazu gehört z. B. die t-Verteilung, deren Momente nur für Ordnungen existieren, die kleiner als die Anzahl der Freiheitsgrade sind. Im Spezialfall der Cauchy-Verteilung existiert also nicht einmal das erste Moment (der Erwartungswert), das ist auch bei der Lévy-Verteilung der Fall.

Definition

Es sei X {\displaystyle X} eine Zufallsvariable und k {\displaystyle k} eine natürliche Zahl. Dann bezeichnet man als Moment der Ordnung k {\displaystyle k} von X {\displaystyle X} oder kürzer als k {\displaystyle k} -tes Moment von X {\displaystyle X} den Erwartungswert der k {\displaystyle k} ‑ten Potenz von X {\displaystyle X} (unter der Voraussetzung, dass dieser existiert):

m k := E ( X k ) , {\displaystyle m_{k}:=\operatorname {E} \left(X^{k}\right),}

und als k {\displaystyle k} -tes absolutes Moment von X {\displaystyle X} wird der Erwartungswert der k {\displaystyle k} -ten Potenz des Absolutbetrages | X | {\displaystyle |X|} von X {\displaystyle X} bezeichnet:

M k := E ( | X | k ) . {\displaystyle M_{k}:=\operatorname {E} \left(\left|X\right|^{k}\right).}

In theoretischen Untersuchungen werden mitunter auch Momente nichtganzzahliger Ordnung κ {\displaystyle \kappa } betrachtet.

Die Existenz von Momenten einer bestimmten Ordnung liefert allgemein Aussagen über die Verteilung der Wahrscheinlichkeitsmasse.

Das erste Moment ist der Erwartungswert. Er wird meist mit μ {\displaystyle \mu } bezeichnet und kann als Mittelwert angesehen werden.

Darstellung für reelle Zufallsvariable

Ist X {\displaystyle X} eine auf einem Wahrscheinlichkeitsraum ( Ω , Σ , P ) {\displaystyle (\Omega ,\Sigma ,P)} definierte reelle Zufallsvariable mit der Verteilungsfunktion F X ( x ) = P ( X x ) {\displaystyle F_{X}(x)=P(X\leq x)} , dann folgt aus der Definition des Erwartungswertes als Stieltjesintegral

m k = x k d F X ( x ) {\displaystyle m_{k}=\int \limits _{-\infty }^{\infty }x^{k}\,\mathrm {d} F_{X}(x)} .

Ist X {\displaystyle X} eine stetige Zufallsvariable mit der Dichtefunktion f X {\displaystyle f_{X}} , dann gilt:

m k = x k f X ( x ) d x {\displaystyle m_{k}=\int \limits _{-\infty }^{\infty }x^{k}f_{X}(x)\,\mathrm {d} x} ,

und für eine diskrete Zufallsvariable mit den Werten x i {\displaystyle x_{i}} und den zugehörigen Wahrscheinlichkeiten p i = P ( X = x i ) {\displaystyle p_{i}=P(X=x_{i})} ist

m k = i = 1 x i k p i {\displaystyle m_{k}=\sum _{i=1}^{\infty }x_{i}^{k}\cdot p_{i}} .

Mit Hilfe des Lebesgue-Integrals bezüglich des Wahrscheinlichkeitsmaßes P {\displaystyle P} lassen sich diese Fälle einheitlich schreiben als

m k = Ω X k d P {\displaystyle m_{k}=\int _{\Omega }X^{k}\,\mathrm {d} P} .

Zentrale Momente

Neben den oben definierten Momenten werden die zentralen Momente definiert, bei denen die Verteilung der Wahrscheinlichkeitsmasse um den Erwartungswert μ = E ( X ) {\displaystyle \mu =\operatorname {E} (X)} der Zufallsvariablen X {\displaystyle X} betrachtet wird:

μ k := E ( ( X μ ) k ) {\displaystyle \mu _{k}:=\operatorname {E} \left(\left(X-\mu \right)^{k}\right)}

und

μ ¯ k := E ( | X μ | k ) . {\displaystyle {\bar {\mu }}_{k}:=\operatorname {E} \left(\left|X-\mu \right|^{k}\right).}

Sie heißen zentrale Momente, da sie am Erwartungswert μ {\displaystyle \mu } zentriert sind. Aus der Definition folgt unmittelbar, dass das erste zentrale Moment immer 0 ist:

μ 1 = E ( X μ ) = E ( X ) μ = 0. {\displaystyle \mu _{1}=\operatorname {E} \left(X-\mu \right)=\operatorname {E} \left(X\right)-\mu =0.}

Das erste zentrale absolute Moment ist die mittlere absolute Abweichung:

μ ¯ 1 := E ( | X μ | ) . {\displaystyle {\bar {\mu }}_{1}:=\operatorname {E} \left(\left|X-\mu \right|\right).}

Das zweite zentrale Moment ist die Varianz:

μ 2 = E ( ( X μ ) 2 ) . {\displaystyle \mu _{2}=\operatorname {E} \left(\left(X-\mu \right)^{2}\right).}

Das dritte zentrale Moment

μ 3 = E ( ( X μ ) 3 ) {\displaystyle \mu _{3}=\operatorname {E} \left(\left(X-\mu \right)^{3}\right)}

ergibt nach Normierung mit der Standardabweichung die Schiefe (engl. skewness) (auch 3. normiertes/standardisiertes Moment genannt):

μ 3 = E ( ( X μ σ ) 3 ) . {\displaystyle \mu _{3}=\operatorname {E} \left(\left({\frac {X-\mu }{\sigma }}\right)^{3}\right).}

Das vierte zentrale Moment

μ 4 = E ( ( X μ ) 4 ) . {\displaystyle \mu _{4}=\operatorname {E} \left(\left({X-\mu }\right)^{4}\right).}

ergibt nach Normierung mit der Standardabweichung die Wölbung (auch 4. normiertes/standardisiertes Moment genannt):

μ 4 = E ( ( X μ σ ) 4 ) . {\displaystyle \mu _{4}=\operatorname {E} \left(\left({\frac {X-\mu }{\sigma }}\right)^{4}\right).}

Schiefe und Wölbung werden zusammen als höhere Momente bezeichnet. Die Wölbung wird oft als Maß der Abweichung von der Normalverteilung benutzt, die Schiefe ist ein Maß der Abweichung von einer symmetrischen Verteilung.

Momente, charakteristische Funktion und Kumulanten

Durch mehrfaches Ableiten der Formel für die charakteristische Funktion erhält man eine Darstellung der gewöhnlichen Momente durch die charakteristische Funktion als

E ( X k ) = φ X ( k ) ( 0 ) i k ( k = 1 , 2 , ) {\displaystyle \operatorname {E} (X^{k})={\frac {\varphi _{X}^{(k)}(0)}{i^{k}}}\quad (k=1,2,\dots )}

Das k {\displaystyle k} -te Moment kann auch mit der momenterzeugenden Funktion ermittelt werden. Außerdem ist es möglich, das k {\displaystyle k} -te Moment als Polynom k {\displaystyle k} -ten Grades durch die ersten k {\displaystyle k} Kumulanten κ 1 , , κ k {\displaystyle \kappa _{1},\dots ,\kappa _{k}} darzustellen. Dieses Polynom ist dann genau das k {\displaystyle k} -te vollständige Bell-Polynom B k {\displaystyle B_{k}} :

m k = B k ( κ 1 , , κ k ) {\displaystyle m_{k}=B_{k}(\kappa _{1},\dots ,\kappa _{k})} .

Markow-Ungleichung

Die Bedeutung der Momente wird durch folgenden Satz deutlich:

Wenn das k {\displaystyle k} -te absolute Moment M k {\displaystyle M_{k}} der Zufallsvariablen X {\displaystyle X} existiert, dann gilt

P ( | X | x ) M k x k {\displaystyle P(|X|\geq x)\leq {\frac {M_{k}}{x^{k}}}} .

Das ist die Markow-Ungleichung, die eine Aussage über die Wahrscheinlichkeit betragsmäßig großer Werte von X {\displaystyle X} liefert. Im Spezialfall k = 2 {\displaystyle k=2} folgt daraus mit der Varianz σ 2 {\displaystyle \sigma ^{2}} von X {\displaystyle X} die bekannte Tschebyscheffsche Ungleichung

P ( | X E ( X ) | x ) σ 2 x 2 {\displaystyle P(|X-\operatorname {E} (X)|\geq x)\leq {\frac {\sigma ^{2}}{x^{2}}}} ,

die eine Aussage über die Wahrscheinlichkeit großer Abweichungen der Zufallsvariablen X {\displaystyle X} von ihrem Erwartungswert macht.

Verbundmomente

Der Momentenbegriff lässt sich auch auf mehrere Zufallsvariablen erweitern. Im Falle zweier Zufallsvariablen X {\displaystyle X} und Y {\displaystyle Y} sind die gemeinsamen Momente (engl. joint moments) von X {\displaystyle X} und Y {\displaystyle Y}

m k = E ( X k Y ) {\displaystyle m_{k\ell }=\operatorname {E} \left(X^{k}Y^{\ell }\right)} .

Analog werden die zentralen gemeinsamen Momente von X {\displaystyle X} und Y {\displaystyle Y} als

μ k = E ( ( X E ( X ) ) k ( Y E ( Y ) ) ) {\displaystyle \mu _{k\ell }=\operatorname {E} \left((X-\operatorname {E} (X))^{k}(Y-\operatorname {E} (Y))^{\ell }\right)}

definiert. Insbesondere ist μ 11 {\displaystyle \mu _{11}} die Kovarianz von X {\displaystyle X} und Y {\displaystyle Y} .

Im Fall einer gemeinsamen Dichte f X Y {\displaystyle f_{XY}} gilt

m k = x k y f X Y ( x , y ) d x d y {\displaystyle m_{k\ell }=\int _{-\infty }^{\infty }\int _{-\infty }^{\infty }x^{k}y^{\ell }f_{XY}(x,y)\,\mathrm {d} x\mathrm {d} y} .

Berechnung

Ein Näherungsverfahren zur Berechnung von Momenten ist die First-order second-moment Methode.

Siehe auch

Literatur

  • Athanasios Papoulis, S. Unnikrishna Pillai: Probability, Random Variables, and Stochastic Processes. McGraw-Hill Publishing Co.; 4Rev Ed edition (2002), ISBN 0-07-366011-6.