Jędrna rodzina miar

Jędrność (ciasność) (ang. tight) – pojęcie teorii miary formalizujące intuicyjną własność zbioru miar, które nie „uciekają do nieskończoności”. Twierdzenie charakteryzujące jędrne rodziny rozkładów nazywane jest twierdzeniem Prochorowa.

Definicja

Niech ( X , τ ) {\displaystyle (X,\tau )} będzie przestrzenią topologiczną, i niech M {\displaystyle {\mathfrak {M}}} będzie σ-algebrą na X {\displaystyle X} zawierającą topologię τ {\displaystyle \tau } (czyli każdy podzbiór otwarty w X {\displaystyle X} jest mierzalny, M {\displaystyle {\mathfrak {M}}} może być σ-algebrą borelowską na X {\displaystyle X} ). Niech M {\displaystyle M} będzie rodziną miar określonych na M . {\displaystyle {\mathfrak {M}}.}

Rodzinę M {\displaystyle M} nazywa się jędrną (bądź ciasną), jeżeli dla dowolnego ε > 0 {\displaystyle \varepsilon >0} istnieje zwarty podzbiór K ε {\displaystyle K_{\varepsilon }} przestrzeni X , {\displaystyle X,} że dla wszystkich miar μ M {\displaystyle \mu \in M} zachodzi

μ ( X K ε ) < ε . {\displaystyle \mu (X\setminus K_{\varepsilon })<\varepsilon .}

Często rozpatrywanymi miarami są miary probabilistyczne, wtedy ostatnia część może być równoważnie przedstawiona jako

μ ( K ε ) > 1 ε . {\displaystyle \mu (K_{\varepsilon })>1-\varepsilon .}

Przykłady

Przestrzenie zwarte

Jeżeli X {\displaystyle X} jest przestrzenią zwartą, to każda rodzina miar probabilistycznych na X {\displaystyle X} jest jędrna.

Rodzina mas punktowych

Niech dana będzie prosta rzeczywista R {\displaystyle \mathbb {R} } z topologią naturalną (euklidesową). Dla x R {\displaystyle x\in \mathbb {R} } niech δ x {\displaystyle \delta _{x}} oznacza miarę Diraca skupioną w x . {\displaystyle x.} Wówczas rodzina

M 1 := { δ n : n N } {\displaystyle M_{1}:=\{\delta _{n}\colon n\in \mathbb {N} \}}

nie jest jędrna, ponieważ zwartymi podzbiorami R {\displaystyle \mathbb {R} } są te i tylko te, które są domknięte i ograniczone, a każdy taki zbiór, ponieważ jest ograniczony, jest δ n {\displaystyle \delta _{n}} -miary zero dla dostatecznie dużych n . {\displaystyle n.} Z drugiej strony, rodzina

M 2 := { δ 1 / n : n N } {\displaystyle M_{2}:=\{\delta _{1/n}\colon n\in \mathbb {N} \}}

jest ciasna: przedział zwarty [ 0 , 1 ] {\displaystyle [0,1]} będzie pełnił rolę K ε {\displaystyle K_{\varepsilon }} dla dowolnego ε > 0. {\displaystyle \varepsilon >0.} W ogólności rodzina miar delt Diraca na R n {\displaystyle \mathbb {R} ^{n}} jest jędrna wtedy i tylko wtedy, gdy rodzina ich nośników jest ograniczona.

Rodzina miar gaussowskich

Niech dana będzie n {\displaystyle n} -wymiarowa przestrzeń euklidesowa R n {\displaystyle \mathbb {R} ^{n}} ze standardową topologią i σ-algebrą zbiorów borelowskich oraz rodzina miar gaussowskich

Γ = { γ i : i I } , {\displaystyle \Gamma =\{\gamma _{i}\colon i\in I\},}

gdzie zmienna losowa o rozkładzie γ i {\displaystyle \gamma _{i}} ma wartość oczekiwaną μ i R n {\displaystyle \mu _{i}\in \mathbb {R} ^{n}} oraz wariancję σ i 2 > 0. {\displaystyle \sigma _{i}^{2}>0.} Wtedy rodzina Γ {\displaystyle \Gamma } jest jędrna wtedy i tylko wtedy, gdy obie rodziny { μ i : i I } R n {\displaystyle \{\mu _{i}\colon i\in I\}\subseteq \mathbb {R} ^{n}} oraz { σ i 2 : i I } R {\displaystyle \{\sigma _{i}^{2}\colon i\in I\}\subseteq \mathbb {R} } są ograniczone.

Analiza przykładu w przypadku jednowymiarowym.

Niech m , σ , m i , σ i R {\displaystyle m^{*},\sigma ^{*},m_{i},\sigma _{i}\in \mathbb {R} } będą takie, że

m < m i < m {\displaystyle -m^{*}<m_{i}<m^{*}} oraz 0 < σ i < σ {\displaystyle 0<\sigma _{i}<\sigma ^{*}} dla wszystkich i I . {\displaystyle i\in I.}

Niech γ i = N ( m i , σ i 2 ) {\displaystyle \gamma _{i}=N(m_{i},\sigma _{i}^{2})} będzie rozkładem normalnym ze średnią m i {\displaystyle m_{i}} oraz odchyleniem standardowym σ i . {\displaystyle \sigma _{i}.} Wykażemy, że rodzina miar { γ i : i I } {\displaystyle \{\gamma _{i}\colon i\in I\}} jest jędrna.

Niech będzie dane ε > 0. {\displaystyle \varepsilon >0.} Dla m R {\displaystyle m\in \mathbb {R} } oraz σ > 0 {\displaystyle \sigma >0} niech Φ m , σ {\displaystyle \Phi _{m,\sigma }} będzie dystrybuantą rozkładu normalnego N ( m , σ ) {\displaystyle N(m,\sigma )} i niech Φ 0 , 1 = Φ . {\displaystyle \Phi _{0,1}=\Phi .} Z własności rozkładu normalnego wiemy, że:

  • możemy znaleźć x > 0 {\displaystyle x^{*}>0} takie, że Φ ( x ) = 1 ε 3 {\displaystyle \Phi (x^{*})=1-{\frac {\varepsilon }{3}}} oraz Φ ( x ) = ε 3 , {\displaystyle \Phi (-x^{*})={\frac {\varepsilon }{3}},}
  • Φ m , σ 2 ( x ) = Φ ( x m σ ) {\displaystyle \Phi _{m,\sigma ^{2}}(x)=\Phi {\Big (}{\frac {x-m}{\sigma }}{\Big )}} dla wszystkich x R . {\displaystyle x\in \mathbb {R} .}

Połóżmy

d = m σ x {\displaystyle d^{-}=-m^{*}-\sigma ^{*}\cdot x^{*}} oraz d + = m + σ x . {\displaystyle d^{+}=m^{*}+\sigma ^{*}\cdot x^{*}.}

Na mocy naszych założeń o m i , σ i {\displaystyle m_{i},\sigma _{i}} mamy, że dla i I : {\displaystyle i\in I{:}}

m + σ x m i σ i m i + σ i x m i σ i {\displaystyle {\frac {m^{*}+\sigma ^{*}\cdot x^{*}-m_{i}}{\sigma _{i}}}\geqslant {\frac {m_{i}+\sigma _{i}\cdot x^{*}-m_{i}}{\sigma _{i}}}}

oraz

m σ x m i σ i m i σ i x m i σ i . {\displaystyle {\frac {-m^{*}-\sigma ^{*}\cdot x^{*}-m_{i}}{\sigma _{i}}}\leqslant {\frac {m_{i}-\sigma _{i}\cdot x^{*}-m_{i}}{\sigma _{i}}}.}

Stąd

Φ m i , σ i 2 ( d + ) = Φ m i , σ i 2 ( m + σ x ) = Φ ( m + σ x m i σ i ) Φ ( m i + σ i x m i σ i ) = Φ ( x ) = 1 ε 3 {\displaystyle \Phi _{m_{i},\sigma _{i}^{2}}(d^{+})=\Phi _{m_{i},\sigma _{i}^{2}}(m^{*}+\sigma ^{*}\cdot x^{*})=\Phi {\Big (}{\frac {m^{*}+\sigma ^{*}\cdot x^{*}-m_{i}}{\sigma _{i}}}{\Big )}\geqslant \Phi {\Big (}{\frac {m_{i}+\sigma _{i}\cdot x^{*}-m_{i}}{\sigma _{i}}}{\Big )}=\Phi (x^{*})=1-{\frac {\varepsilon }{3}}}

oraz

Φ m i , σ i 2 ( d ) = Φ m i , σ i 2 ( m σ x ) = Φ ( m σ x m i σ i ) Φ ( m i σ i x m i σ i ) = Φ ( x ) = ε 3 . {\displaystyle \Phi _{m_{i},\sigma _{i}^{2}}(d^{-})=\Phi _{m_{i},\sigma _{i}^{2}}(-m^{*}-\sigma ^{*}\cdot x^{*})=\Phi {\Big (}{\frac {-m^{*}-\sigma ^{*}\cdot x^{*}-m_{i}}{\sigma _{i}}}{\Big )}\leqslant \Phi {\Big (}{\frac {m_{i}-\sigma _{i}\cdot x^{*}-m_{i}}{\sigma _{i}}}{\Big )}=\Phi (-x^{*})={\frac {\varepsilon }{3}}.}

Teraz, dla każdego i I {\displaystyle i\in I} mamy

γ i ( [ d , d + ] ) = Φ m i , σ i 2 ( d + ) Φ m i , σ i 2 ( d ) 1 ε 3 ε 3 > 1 ε , {\displaystyle \gamma _{i}([d^{-},d^{+}])=\Phi _{m_{i},\sigma _{i}^{2}}(d^{+})-\Phi _{m_{i},\sigma _{i}^{2}}(d^{-})\geqslant 1-{\tfrac {\varepsilon }{3}}-{\tfrac {\varepsilon }{3}}>1-\varepsilon ,}

a zbiór [ d , d + ] {\displaystyle [d^{-},d^{+}]} jest zwarty jako domknięty i ograniczony przedział prostej rzeczywistej, więc rodzina rozkładów N ( m i , σ i 2 ) {\displaystyle N(m_{i},\sigma _{i}^{2})} jest jędrna.

Jędrność a zbieżność

Jędrność jest często warunkiem koniecznym do udowodnienia słabej zbieżności ciągu miar probabilistycznych, szczególnie, przestrzeń mierzalna jest nieskończonego wymiaru. Zobacz

  • jędrność w klasycznej przestrzeni Wienera,
  • jędrność w przestrzeni Skorohoda,
  • rozkład skończeniewymiarowy,
  • twierdzenie Prochorowa.

Jędrność wykładnicza

Uogólnieniem jędrności jest tzw. jędrność wykładnicza, która znalazła swoje zastosowania w teorii wielkich odchyleń. Rodzinę miar probabilistycznych ( μ δ ) δ > 0 {\displaystyle (\mu _{\delta })_{\delta >0}} na przestrzeni topologicznej Hausdorffa X {\displaystyle X} nazywa się jędrną (ciasną) wykładniczo, jeśli dla dowolnego ε > 0 {\displaystyle \varepsilon >0} istnieje podzbiór zwarty K ε {\displaystyle K_{\varepsilon }} przestrzeni X {\displaystyle X} taki, że

lim sup δ 0 δ log μ δ ( X K ε ) < ε . {\displaystyle \limsup _{\delta \downarrow 0}\delta \log \mu _{\delta }(X\setminus K_{\varepsilon })<-\varepsilon .}

Bibliografia

  • Jacek Jakubowski, Rafał Sztencel: Wstęp do teorii prawdopodobieństwa. Warszawa: SCRIPT, 2004.
  • Patrick Billingsley: Probability and Measure. Nowy Jork: John Wiley & Sons, Inc., 1995. ISBN 0-471-00710-2.
  • Patrick Billingsley: Convergence of Probability Measures. Nowy Jork: John Wiley & Sons, Inc., 1999. ISBN 0-471-19745-9.