Stabilna konvergencija slučajnih varijabli

 

Snježana Lubura Strunjak
e-mail: snjezana.lubura.strunjak@math.hr
Jelena Pavlović
e-mail: jelena.pavlovic@student.math.hr


Sažetak
\mathcal{G}-stabilna konvergencija posebna je vrsta konvergencije slučajnih varijabli koja predstavlja proširenje klasične konvergencije po distribuciji. \mathcal{G}-stabilna konvergencija se pokazala veoma korisnom u teoriji vjerojatnosti, a primjenjuje se i u drugim područjima matematike. Cilj ovog rada je predstaviti i opisati stabilnu konvergenciju slučajnih varijabli, predstaviti neka svojstva ove vrste konvergencije te neke njene korisne posljedice, dodatno ilustrirane primjerima i simulacijama.


Ključne riječi: stabilna konvergencija, miješana konvergencija, slaba konvergencija, Markovljeva jezgra, uvjetna distribucija, konvergencija po distribuciji.

1Uvod

Konvergencija nekog niza slučajnih varijabli ključan je pojam u području teorije vjerojatnosti i matematičke statistike. Postoje različite vrste konvergencije nekog niza slučajnih varijabli, a osnovne i one najpoznatije su: konvergencija gotovo sigurno, konvergencija po vjerojatnosti, konvergencija u prostoru L^{p} i konvergencija po distribuciji. Konvergencija po distribuciji, premda najslabija od ova četiri tipa konvergencije, od velike je važnosti budući da pruža uvid u asimptotsko ponašanje slučajnih varijabli te ima fundamentalnu ulogu u graničnim teoremima s ciljem utvrđivanja ponašanja uzoračkih statistika s porastom veličine uzorka.

Iako se obično iskazuju u terminima konvergencije po distribuciji, mnogi granični teoremi uz iste pretpostavke vrijede i u terminima nešto jače vrste konvergencije slučajnih varijabli, što otvara mogućnost dobivanja dodatnih rezultata koji nisu dostupni putem klasične konvergencije po distribuciji. Ta se konvergencija naziva stabilnom konvergencijom slučajnih varijabli, odnosno općenitije \mathcal{G}-stabilnom konvergencijom slučajnih varijabli.

Jedna od važnijih posljedica \mathcal{G}-stabilne konvergencije je takozvani generalizirani Cram\'er-Slutskyjev teorem. Klasična verzija Cram\'er-Slutskyjevog teorema kaže da ako neki niz slučajnih varijabli (X_{n})_{n} konvergira po distribuciji ka slučajnoj varijabli X te ako neki drugi niz slučajnih varijabli (Y_{n})_{n} konvergira prema konstanti c, tada i niz (X_{n}Y_{n})_{n} konvergira po distribuciji i to prema slučajnoj varijabli cX. Važnost ovog teorema leži u tome što pomoću njega često dolazimo do vrlo korisnih asimptotskih rezultata. Kada bismo u iskazu teorema konstantu c mogli zamijeniti slučajnom varijablom, tada bismo na isti način i u mnogim drugim situacija mogli doći do nekih zanimljivih rezultata. Iako ovaj teorem ne vrijedi kada je limes konvergencije po vjerojatnosti općenita slučajna varijabla, ovdje će nam kao odgovarajuće rješenje poslužiti upravo \mathcal{G}-stabilna konvergencija te ćemo uz pomoć te generalizirane verzije spomenutog teorema u mnogim situacijama moći doći do željenih rezultata.

2Definicija i osnovne karakterizacije stabilne konvergencije


Stabilna konvergencija nekog niza slučajnih varijabli definira se pomoću koncepta slabe konvergencije tzv. uvjetnih distribucija slučajnih varijabli uz danu \sigma-algebru. Za početak krenimo od pojma slabe konvergencije niza vjerojatnosnih mjera.
Definicija 2.1. Neka su \mu,\mu_{1},\mu_{2},\dots konačne mjere na \mathcal{B}(\mathbb{R}). Kažemo da niz (\mu_{n})_{n} slabo konvergira prema \mu ako vrijedi:
\begin{align*} \lim_{n}\int g\:d\mu_{n}=\int g\:d\mu,\quad\forall g\in C_{b}({\mathbb{R}^{d}}), \end{align*}
pri čemu C_{b}(\mathbb{R}^{d}) označava skup svih neprekidnih i ograničenih funkcija na \mathbb{R}^{d}. Tu konvergenciju označavamo s \mu_{n}\xrightarrow{w}\mu.


Prisjetimo se i definicije konvergencije po distribuciji. Kažemo da niz (X_{n})_{n} slučajnih varijabli konvergira po distribuciji prema slučajnoj varijabli X ako je
(1)
\begin{align} \lim_{n}F_{X_{n}}(x)=F_{X}(x),\quad x\in C(F_{X}), \end{align}
pri čemu je F_{X_{n}} funkcija distribucije od X_{n}, F_{X} funkcija distribucije od X, a C(F_{X}) skup svih točaka neprekidnosti od F_{X}. Tu konvergenciju označavamo s X_{n}\xrightarrow{d}X.
Na relaciju (1) možemo gledati i kao na slabu konvergenciju niza funkcija distribucije (F_{X_{n}})_{n} prema funkciji distribucije F_{X} što je zapravo ekvivalentno slaboj konvergenciji niza odgovarajućih vjerojatnosnih mjera koje induciraju ove slučajne varijable, tj. ekvivalentna je slaboj konvergenciji niza zakona razdiobe (\mathbb{P}_{X_{n}})_{n} prema zakonu razdiobe od X, \mathbb{P}_{X}. Dakle, konvergenciju po distribuciji X_{n}\xrightarrow{d}X možemo zapisati i pomoću slabe konvergencije: \mathbb{P}_{X_{n}}\xrightarrow{w}\mathbb{P}_{X}. Kao što je spomenuto na početku ovog poglavlja, stabilnu konvergenciju ćemo definirati pomoću slabe konvergencije uvjetnih distribucija. One su po svojoj strukturi Markovljeve jezgre.
Definicija 2.2. Preslikavanje K : \Omega \times \mathcal{B}(\mathbb{R}^{d}) \rightarrow [0,1] takvo da vrijedi:
(1) K(\omega, \cdot) je vjerojatnosna mjera na (\mathbb{R}^{d},\mathcal{B}(\mathbb{R}^{d}))\forall \omega \in \Omega;
(2) K(\cdot, B) je \mathcal{F}-izmjerivo preslikavanje, \forall B\in\mathcal{B}(\mathbb{R}^{d});
zovemo Markovljevom jezgrom s (\Omega, \mathcal{F}) u (\mathbb{R}^{d},\mathcal{B}(\mathbb{R}^{d}))}.

Skup svih Markovljevih jezgri s (\Omega, \mathcal{F}) u (\mathbb{R}^{d},\mathcal{B}(\mathbb{R}^{d})) označavamo s \mathcal{K}^{1} = \mathcal{K}^{1}(\mathcal{F}) =\mathcal{K}^{1}(\mathcal{F},\mathbb{R}^{d}). Za \sigma-podalgebru \mathcal{G}\subset\mathcal{F} s \mathcal{K}^{1}(\mathcal{G})=\mathcal{K}^{1}(\mathcal{G},\mathbb{R}^{d})\subseteq\mathcal{K}^{1} označavamo skup svih \mathcal{G}-izmjerivih Markovljevih jezgri, to jest Markovljevih jezgri s (\Omega, \mathcal{G}) u (\mathbb{R}^{d},\mathcal{B}(\mathbb{R}^{d})).
Definicija 2.3.Neka je (\Omega,\mathcal{F},P) vjerojatnosni prostor, \mathcal{G}\subset\mathcal{F}\sigma-podalgebra od \mathcal{F} i X:\Omega\rightarrow\mathbb{R}^{d} slučajni vektor. Uvjetna distribucija od X uz dano \mathcal{G}, \mathbb{P}_{X|\mathcal{G}}\: je Markovljeva jezgra u \mathcal{K}^{1}(\mathcal{G}) za koju vrijedi:
(2)
\begin{align} \mathbb{P}_{X|\mathcal{G}}(\cdot,B)=\mathbb{P}(X\in B|\mathcal{G}),\quad \mathbb{P}-\text{g.s. za svaki }B\in\mathcal{B}(\mathbb{R}^{d}). \end{align}

Gornji izraz možemo ekvivalentno zapisati i pomoću uvjetnog očekivanja:
(3)
\begin{align} \mathbb{P}_{X|\mathcal{G}}(\cdot,B)=\mathbb{E}\left(\mathbb{1}_{\lbrace X\in B\rbrace }|\mathcal{G}\right),\quad \mathbb{P}-\text{g.s. za svaki }B\in\mathcal{B}(\mathbb{R}^{d}). \end{align}
Za proizvoljan d-dimenzionalni slučajni vektor X definirajmo Markovljevu jezgru
\delta_{X}:\Omega\times\mathcal{B}(\mathbb{R}^{d})\rightarrow[0,1] s \delta_{X}(\omega):=\delta_{X(\omega)}, odnosno
\begin{align*} \delta_{X}(\omega,B) = \delta_{X(\omega)}(B)=\mathbb{1}_{\lbrace X(\omega)\in B\rbrace } =\begin{cases} 1, &\quad X(\omega)\in B\\ 0, &\quad X(\omega)\notin B \end{cases},\quad B\in\mathcal{B}(\mathbb{R}^{d}). \end{align*}
Takvu Markovljevu jezgru nazivamo Diracovom jezgrom slučajnog vektora X.
Prije same definicije \mathcal{G}-stabilne konvergencije, spomenimo još da je uvjetna distribucija \mathbb{P}_{X|\mathcal{G}} karakterizirana tzv. Radon-Nikodymovim jednadžbama:
(4)
\begin{align} \int_{G}\mathbb{P}_{X|\mathcal{G}}(\omega,B)d\mathbb{P}(\omega) = \mathbb{P}(X^{-1}(B)\cap G),\quad\forall G\in\mathcal{G},B\in\mathcal{B}(\mathbb{R}^{d}). \end{align}
Definicija 2.4. Neka je \mathcal{G}\subset\mathcal{F} \sigma-podalgebra of \mathcal{F}. Za niz (X_{n})_{n} d-dimenzionalnih slučajnih vektora kažemo da konvergira \mathcal{G}-stabilno ka slučajnom vektoru X:\Omega\rightarrow\mathbb{R}^{d} ako vrijedi:
\mathbb{P}_{X_{n}|\mathcal{G}}\xrightarrow{w}\mathbb{P}_{X|\mathcal{G}}
kada n\rightarrow\infty, odnosno ako vrijedi:
\begin{align*} \lim_{n}\iint f(\omega)h(x)\mathbb{P}_{X_{n}|\mathcal{G}}(\omega,dx)d\mathbb{P}(\omega)=\iint f(\omega)h(x)\mathbb{P}_{X|\mathcal{G}}(\omega,dx)d\mathbb{P}(\omega) \end{align*}
za svaku apsolutno integrabilnu i \mathcal{F}-izmjerivu funkciju f\in\mathcal{L}^{1}(\Omega,\mathbb{P}) te svaku funkciju h\in C_{b}(\mathbb{R}^{d}). Pišemo: X_{n}\rightarrow X \mathcal{G}-stabilno.
U slučaju da granična uvjetna distribucija \mathbb{P}_{X|\mathcal{G}} ne ovisi o \omega\in\Omega, tada kažemo da niz (X_{n})_{n} konvergira \mathcal{G}-miješano prema slučajnom vektoru X. Drugim riječima, to znači da je \mathbb{P}_{X|\mathcal{G}}= \mathbb{P}_{X}, što je ekvivalentno s time da su \sigma(X) i \mathcal{G} nezavisne.

\mathcal{F}-stabilnu i \mathcal{F}-miješanu konvergenciju kraće zovemo stabilnom i miješanom konvergencijom.


Za slučajan vektor X:\Omega\rightarrow\mathbb{R}^{d} i Borel-izmjerivu funkciju h:\mathbb{R}^{d}\rightarrow\mathbb{R}, takvu da je h(X)\in\mathcal{L}^{1}(\Omega,\mathbb{P}), vrijedi:
(5)
\begin{align} \mathbb{E}(h(X)|\mathcal{G})=\int_{\mathbb{R}^{d}} h(x)d\mathbb{P}_{X|\mathcal{G}}(\cdot,x). \end{align}
Naime, za h = \mathbb{1}_{B}, B\in\mathcal{B}(\mathbb{R}^{d}) vrijedi
 
\mathbb{E}(\mathbb{1}_{B}(X)|\mathcal{G})\overset{(3)}{=}\mathbb{P}_{X|\mathcal{G}}(\cdot,B)=\int_{B} d\mathbb{P}_{X|\mathcal{G}}(\cdot,x)=\int_{\mathbb{R}^{d}}\mathbb{1}_{B}(x)d\mathbb{P}_{X|\mathcal{G}}(\cdot,x).
Sada se ova relacija pomoću Lebesgueove indukcije1 lako proširi na sve izmjerive funkcije takve da je h(X)\in\mathcal{L}^{1}(\Omega, \mathbb{P}).
Jednakost (5) sada daje:
\begin{align*} \iint f(\omega)h(x)\mathbb{P}_{X|\mathcal{G}}(\omega,dx)d\mathbb{P}(\omega) &=\int f(\omega)\underbrace{\int h(x)\mathbb{P}_{X|\mathcal{G}}(\omega,dx)}_{\mathbb{E}[h(X)|\mathcal{G}](\omega)}d\mathbb{P}(\omega)=\\ &\overset{(5)}{=}\int f(\omega)\mathbb{E}[h(X)|\mathcal{G}](\omega)d\mathbb{P}(\omega)=\\ &=\mathbb{E}\big(f\:\mathbb{E}[h(X)|\mathcal{G}]\big), \end{align*}
prema tome \mathcal{G}-stabilnu konvergenciju možemo ekvivalentno zapisati na sljedeći način:
(6)
\begin{align} \lim_{n}\mathbb{E}\big(f\:\mathbb{E}[h(X_{n})|\mathcal{G}]\big) = \mathbb{E}\big(f\:\mathbb{E}[h(X)|\mathcal{G}]\big),\quad\forall f\in\mathcal{L}^{1}(\Omega,\mathbb{P}),\:h\in C_{b}(\mathbb{R}^{d}). \end{align}
Za F\in\mathcal{F}, takav da je \mathbb{P}(F)\gt 0, definiramo \mathbb{P}_{F} := \mathbb{P}(\cdot | F) = \frac{\mathbb{P}(\cdot \cap F)}{\mathbb{P}(F)}. Tu mjeru zovemo uvjetnom vjerojatnosnom mjerom uz dano F. Nadalje, \mathbb{P}_{F}^{X} označava uvjetnu vjerojatnosnu mjeru obzirom na zakon razdiobe \mathbb{P}_{X} slučajnog vektora X:\Omega\rightarrow\mathbb{R}^{d} uz dano F, \mathbb{P}_{F}^{X}(B)= \mathbb{P}_{F}(X^{-1}(B)), za B\in\mathcal{B}(\mathbb{R}^{d}).
Idući teorem sadrži osnovne karakterizacije \mathcal{G}-stabilne konvergencije koje u mnogim slučajevima olakšavaju dokaze vezane uz ovu vrstu konvergencije. Sve tvrdnje ovog teorema zapravo su posljedica nešto općenitijeg teorema koji se odnosi na karakterizacije slabe konvergencije Markovljevih jezgri.
Teorem 2.5. Neka su X_{n},X d-dimenzionalni slučajni vektori, n\in\mathbb{N}, \mathcal{E}\subset\mathcal{G} familija zatvorena na konačne presjeke takva da je \Omega\in\mathcal{E} i \sigma(\mathcal{E})=\mathcal{G}.
Tada su sljedeće tvrdnje ekvivalentne:
(i) X_{n}\rightarrow X\quad \mathcal{G}-stabilno;
(ii) \lim_{n}\mathbb{E}fh(X_{n}) = \mathbb{E}fh(X) za svaki f\in\mathcal{L}^{1}(\Omega,\mathcal{G},\mathbb{P}) i h\in C_{b}(\mathbb{R}^{d});
(iii) Q_{X_{n}}\xrightarrow{w} Q_{X} za svaku vjerojatnosnu mjeru Q na \mathcal{F} takvu da je Q\ll \mathbb{P} i dQ/d\mathbb{P} je \mathcal{G}-izmjeriva;
(iv) \mathbb{P}_{F}^{X_{n}}\xrightarrow{w}\mathbb{P}_{F}^{X} za svaki F\in\mathcal{E} takav da je \mathbb{P}(F)\gt 0;
(v) \lim_{n}\int g(\omega, X_{n}(\omega))\:d\mathbb{P}(\omega)=\int g(\omega,X(\omega))\:d\mathbb{P}(\omega) za svaku izmjerivu i ograničenu funkciju g:(\Omega\times\mathbb{R}^{d},\mathcal{G}\otimes\mathcal{B}(\mathbb{R}^{d}))\rightarrow(\mathbb{R},\mathcal{B}(\mathbb{R})) takvu da je g(\omega,\cdot)\in C_{b}(\mathbb{R}^{d}) za svaki \omega\in\Omega;
(vi) (X_{n},Y)\rightarrow (X,Y)\mathcal{G}-stabilno za svaki \mathcal{G}-izmjeriv slučajni vektor Y s vrijednostima u \mathbb{R}^{m};
(vii) (X_{n},\mathbb{1}_{F})\xrightarrow{d}(X,\mathbb{1}_{F}) za svaki F\in\mathcal{E}.


Slične ekvivalencije vrijede i za \mathcal{G}-miješanu konvergenciju, a one su upravo posljedica ekvivalencija iz prethodnog teorema. Dokaz ovog teorema i ostalih tvrdnji spomenutih u članku mogu se naći u [14].

2.1Svojstva \mathcal{G}-stabilne konvergencije

Najprije ćemo analizirati odnos \mathcal{G}-stabilne konvergencije i nekih osnovnih tipova konvergencije slučajnih varijabli.

Nije teško pokazati da vrijedi sljedeća implikacija:
\begin{align*} X_{n}\rightarrow X\:\mathcal{G}\text{-stabilno}\implies X_{n}\xrightarrow{d}X. \end{align*}


Dokaz. Ako pretpostavimo da X_{n}\rightarrow X \mathcal{G}-stabilno, tada po definiciji \mathcal{G}-stabilne konvergencije vrijedi:
\begin{align*} \lim_{n}\mathbb{E}\big(f\:\mathbb{E}[h(X_{n})|\mathcal{G}]\big) = \mathbb{E}\big(f\:\mathbb{E}[h(X)|\mathcal{G}]\big),\quad\forall f\in\mathcal{L}^{1}(\Omega,\mathbb{P}),\:h\in C_{b}(\mathbb{R}^{d}). \end{align*}
Budući da gornja jednakost mora vrijediti za svaku funkciju f\in\mathcal{L}^{1}(\Omega,\mathbb{P}), specijalno mora vrijediti i za f=\mathbb{1}_{\Omega}, iz čega slijedi:
\begin{align*} \lim_{n}\mathbb{E}\big(\mathbb{E}[h(X_{n})|\mathcal{G}]\big) = \mathbb{E}\big(\mathbb{E}[h(X)|\mathcal{G}]\big),\quad\forall h\in C_{b}(\mathbb{R}^{d}), \end{align*}
pa zbog svojstva uvjetnog očekivanja \mathbb{E}\big(\mathbb{E}[h(X_{n})|\mathcal{G}]\big )=\mathbb{E}h(X_{n}) slijedi
\begin{align*} \lim_{n}\mathbb{E}h(X_{n}) = \mathbb{E}h(X),\quad\forall h\in C_{b}(\mathbb{R}^{d}). \end{align*}
Prethodnu relaciju sada možemo ekvivalentno zapisati pomoću integrala po odgovarajućim zakonima razdiobe \mathbb{P}_{X_{n}} i \mathbb{P}_{X}:
\begin{align*} \lim_{n}\int h\:d \mathbb{P}_{X_{n}} = \int h\:d\mathbb{P}_{X},\quad\forall h\in C_{b}(\mathbb{R}^{d}). \end{align*}
iz čega vidimo da vrijedi X_{n}\xrightarrow{d}X.
\ \blacksquare

Na analogni način se pokaže i da \mathcal{G}-miješana konvergencija povlači konvergenciju po distribuciji.


U slučaju trivijalne \sigma-podalgebre \mathcal{G}=\lbrace \emptyset, \Omega\rbrace, vrijedi \mathbb{P}_{X_{n}|\mathcal{G}}=\mathbb{P}_{X_{n}}, \forall n\in\mathbb{N} i \mathbb{P}_{X|\mathcal{G}}=\mathbb{P}_{X} pa \mathcal{G}-stabilna konvergencija postaje ekvivalentna konvergenciji po distribuciji.


Također, ekvivalenciju \mathcal{G}-stabilne konvergencije i konvergencije po distribuciji dobivamo i u slučaju da su slučajni vektori X_{n}, X,\:n\in\mathbb{N} nezavisni od \mathcal{G}, to jest ako su \sigma-algebre \sigma(X_{n}) i \sigma(X) nezavisne od \mathcal{G} za svaki n\in\mathbb{N}. Ova tvrdnja trivijalno slijedi iz ekvivalencije
\begin{align*} \mathbb{P}_{X|\mathcal{G}}=\mathbb{P}_{X}\:\iff \sigma(X)\text{ i }\mathcal{G}\text{ su nezavisne.} \end{align*}


Dokaz. Familije \sigma(X) i \mathcal{G} su nezavisne ako vrijedi:
\mathbb{P}(X^{-1}(B)\cap G )= \mathbb{P}(X^{-1}(B))\mathbb{P}(G),\quad\forall B\in\mathcal{B}(\mathbb{R}^{d}),G\in\mathcal{G}.
S druge strane, iz Radon - Nikodymovih jednadžbi (4) za \mathbb{P}_{X|\mathcal{G}} imamo:
\begin{align*} \int_{G}\mathbb{P}_{X|\mathcal{G}}(\omega,B)d\mathbb{P}(\omega) = \mathbb{P}(X^{-1}(B)\cap G),\quad\forall G\in\mathcal{G},B\in\mathcal{B}(\mathbb{R}^{d}). \end{align*}
Ako pretpostavimo da je \mathbb{P}_{X|\mathcal{G}}=\mathbb{P}_{X}, tada je
\begin{align*} \int_{G}\mathbb{P}_{X|\mathcal{G}}(\omega,B)d\mathbb{P}(\omega) &=\int_{G}\int\mathbb{1}_{B}(x)\mathbb{P}_{X|\mathcal{G}}(\omega,dx) d\mathbb{P}(\omega) = \int_{G}\int\mathbb{1}_{B}(x)d\mathbb{P}_{X}(x) d\mathbb{P}(\omega)=\\ &=\int_{G} \mathbb{P}_{X}(B)d\mathbb{P} = \mathbb{P}_{X}(B)\mathbb{P}(G)= \mathbb{P}(X^{-1}(B))\mathbb{P}(G). \end{align*}
Tvrdnja sada slijedi kombiniranjem prethodne tri relacije i g.s. jedinstvenosti uvjetne distribucije \mathbb{P}_{X|\mathcal{G}}.
\ \blacksquare

 
\mathcal{G}-stabilna konvergencija općenito ne povlači konvergenciju po vjerojatnosti niti vrijedi obrnuti slučaj. Međutim, u slučaju da je X \mathcal{G}-izmjeriv slučajni vektor ove dvije konvergencije postaju ekvivalentne, odnosno vrijedi:
(7)
\begin{align} X_{n}\rightarrow X\:\mathcal{G}\text{-stabilno}\iff X_{n}\xrightarrow{\mathbb{P}}X. \end{align}

Dokaz.
(1) [\boxed{\Rightarrow}] Pretpostavimo: X_{n}\rightarrow X\;\mathcal{G}-stabilno.
Definirajmo funkciju g:\Omega\times\mathbb{R}^{d}\rightarrow\mathbb{R}\: s \:g(\omega,x):=d(x,X(\omega))\wedge 1. Funkcija g je \mathcal{G}\otimes\mathcal{B}(\mathbb{R}^{d})-izmjeriva i g(\omega,\cdot)\in C_{b}(\mathbb{R}^{d}),\;\forall\omega\in\Omega. Teorem 2.5. (i) \Rightarrow (v) sada povlači:
(8)
\begin{align} \lim_{n}\int g(\omega, X_{n}(\omega))\:d\mathbb{P}(\omega)=\int g(\omega,X(\omega))\:d\mathbb{P}(\omega). \end{align}
Koristeći prethodnu jednakost, pokažimo da niz (X_{n})_{n} konvergira po vjerojatnosti ka X. Imamo:
\begin{align*} \lim_{n}\mathbb{E}(d(X_{n},X)\wedge 1) &=\lim_{n}\int (d(X_{n}(\omega),X(\omega)\wedge 1)d\mathbb{P}(\omega)=\\ &=\lim_{n}\int g(\omega,X_{n}(\omega))d\mathbb{P}(\omega)=\\ &\overset{(8)}{=}\int g(\omega,X(\omega))\:d\mathbb{P}(\omega)=\\ &=\int (d(X(\omega),X(\omega))\wedge 1)d\mathbb{P}(\omega)=\\ &=0. \end{align*}
Prethodna relacija je ekvivalentna s
\begin{align*} \forall\epsilon\gt 0\quad\lim_{n} \mathbb{P} (d(X_{n},X)\ge \epsilon)=0, \end{align*}
Dakle, X_{n}\xrightarrow{\mathbb{P}}X.
(2) [\boxed{\Leftarrow}] Pretpostavimo sada da vrijedi X_{n}\xrightarrow{\mathbb{P}} X, to jest \forall\epsilon\gt 0 je
\lim_{n} \mathbb{P} (d(X_{n},X)\ge \epsilon)=0.
Neka je Q proizvoljna vjerojatnosna mjera na \mathcal{F} takva da je Q\ll \mathbb{P} i dQ/d\mathbb{P} je \mathcal{G}-izmjeriva. Budući da je moguće uzeti monoton podniz niza (\lbrace d(X_{n},X)\ge\epsilon\rbrace )_{n}, može se pokazati da zbog Q\ll \mathbb{P} vrijedi i
\begin{align*} \lim_{n} Q (d(X_{n},X)\ge \epsilon)=0, \end{align*}
odnosno X_{n}\xrightarrow{Q} X. Konvergencija po vjerojatnosti povlači slabu konvergenciju pripadnih vjerojatnosnih mjera pa konačno dobivamo: Q_{X_{n}}\xrightarrow{w}Q_{X}. Kako je mjera Q bila proizvoljna, iz Teorema 2.5 (iii)\Rightarrow(i) slijedi da X_{n}\rightarrow X\:\mathcal{G}-stabilno.
 
\ \blacksquare


Ako u ekvivalenciji (7) \mathcal{G}-stabilnu konvergenciju zamijenimo konvergencijom po distribuciji, ekvivalencija će vrijediti samo u slučaju X = c g.s.
Budući da trivijalna \sigma-algebra \mathcal{G} reducira \mathcal{G}-stabilnu konvergenciju do konvergencije po distribuciji, a \sigma(X)\subset\mathcal{G} ju čini ekvivalentnom konvergenciji po vjerojatnosti, na \mathcal{G}-stabilnu konvergenciju možemo gledati kao na tip konvergencije "između" konvergencije po distribuciji i konvergencije po vjerojatnosti. Dijagram odnosa osnovnih tipova konvergencije sada možemo upotpuniti kao što je prikazano na slici dolje.

Slika 1: Dijagram odnosa osnovnih tipova konvergencije.

 



3Posljedice i primjena \mathcal{G}-stabilne konvergencije

Kao što je spomenuto u uvodnom dijelu, stabilna konvergencija će nam omogućiti nešto općenitiju verziju Cramér-Slutskyjevog teorema. Za početak promotrimo klasičnu verziju ovog teorema:
Teorem 3.1. (Cramér-Slutsky [12]) Neka su (X_{n})_{n} i (Y_{n})_{n} nizovi realnih slučajnih varijabli i X realna slučajna varijabla. Pretpostavimo da su sve one definirane na istom vjerojatnosnom prostoru (\Omega,\mathcal{F},\mathbb{P}) te neka je c\in\mathbb{R}. Tada vrijedi:
X_{n}\xrightarrow{d}X,\;Y_{n}\xrightarrow{\mathbb{P}}c\;\implies X_{n} Y_{n}\xrightarrow{d} c X.

Ovaj teorem predstavlja vrlo koristan alat za dobivanje različitih asimptotskih rezultata. To možemo lako vidjeti na primjeru klasičnog centralnog graničnog teorema:

Neka je(X_{n})_{n} niz nezavisnih, jednako distribuiranih slučajnih varijabli s očekivanjem \mu\in\mathbb{R} te s konačnom varijancom \sigma^{2}\in \langle 0,+\infty\rangle. Tada vrijedi:
(9)
\begin{align} \frac{\overline{X_{n}}-\mu}{\sigma}\sqrt{n}\overset{d}{\rightarrow}N(0,1). \end{align}

Niz procjenitelja (\hat{\sigma}_{n}^{2})_{n} od \sigma^{2}, definiran s \hat{\sigma}_{n}^{2}:=\frac{1}{n}\sum_{k=1}^{n} (X_{k}-\overline{X}_{n})^{2},\; n\in\mathbb{N} je jako konzistentan niz procjenitelja, to jest vrijedi \hat{\sigma}_{n}^{2}\xrightarrow{g.s.}\sigma^{2}.
Stoga, iz (9) i Cramér-Slutksyjevog teorema slijedi
\frac{\overline{X_{n}}-\mu}{\hat{\sigma}_{n}}\sqrt{n}\overset{d}{\rightarrow}N(0,1).
Sada je jedina nepoznanica parametar očekivanja \mu, stoga nam prethodna relacija daje da je niz procjenitelja za \mu, (\overline{X}_{n})_{n} asimptotski normalan s očekivanjem \mu i varijancom \frac{\hat{\sigma}_{n}^{2}}{n}. Ovakav nam je rezultat veoma koristan budući da iz njega sada možemo donositi zaključke o asimptotskom ponašanju niza aritmetičkih sredina slučajnih uzoraka ili, primjerice, konstruirati intervale pouzdanosti za parametar \mu.

Ovdje smo mogli upotrijebiti klasičan Cramér-Slutskyjev teorem budući da je limes konvergencije gotovo sigurno konstanta \sigma^{2}, a budući da konvergencija gotovo sigurno povlači konvergenciju po vjerojatnosti, zadovoljene su sve pretpostavke teorema. Međutim, u mnogim situacijama to neće biti slučaj.

Iako Cramér-Slutskyjev teorem ne vrijedi ako graničnu konstantu zamijenimo slučajnom varijablom, upravo će se stabilna konvergencija pokazati kao odgovarajuće rješenje u mnogim takvim situacijama. Konkretno, sljedeći teorem nam omogućuje tzv. generaliziranu verziju Cramér-Slutskyjevog teorema.
Teorem 3.2. Neka su X_{n},X d-dimenzionalni slučajni vektori, X_{n}\rightarrow X \mathcal{G}-stabilno te neka su Y_{n},Y m-dimenzionalni slučajni vektori pri čemu je d,m\in\mathbb{N}. Tada vrijedi:
(i) Neka je d = m. Ako \Vert X_{n}-Y_{n}\Vert \xrightarrow{\mathbb{P}}0, tada Y_{n}\rightarrow X \mathcal{G}-stabilno.
(ii) Ako Y_{n}\xrightarrow{\mathbb{P}}Y i Y je \mathcal{G}-izmjeriva, tada (X_{n},Y_{n})\rightarrow(X,Y) \mathcal{G}-stabilno.
(iii) Ako je g:\mathbb{R}^{d}\rightarrow\mathbb{R}^{m} Borel-izmjeriva i \mathbb{P}_{X}-g.s. neprekidna funkcija, tada g(X_{n})\rightarrow g(X) \mathcal{G}-stabilno.

Pretpostavimo da su (X_{n})_{n} i (Y_{n})_{n} nizovi realnih slučajnih varijabli takvi da X_{n}\rightarrow X\mathcal{G}-stabilno te Y_{n}\xrightarrow{\mathbb{P}}Y, gdje je Y\mathcal{G}-izmjeriva slučajna varijabla. Prema tvrdnji (ii) slijedi da (X_{n},Y_{n})\rightarrow(X,Y)\mathcal{G}-stabilno, a zatim iz tvrdnje (iii) slijedi X_{n}Y_{n}\rightarrow XY\;\mathcal{G}\text{-stabilno.}
Dakle, vrijedi generalizirana verzija Cramér-Slutskyjevog teorema:
Teorem 3.3. Neka su (X_{n})_{n} i (Y_{n})_{n} nizovi realnih slučajnih varijabli, X i Y realne slučajne varijable te neka je Y\mathcal{G}-izmjeriva. Pretpostavimo da su sve one definirane na istom vjerojatnosnom prostoru (\Omega,\mathcal{F},\mathbb{P}). Tada vrijedi:
X_{n}\rightarrow X\;\mathcal{G}\text{-stabilno}\quad\text{i}\quad Y_{n}\xrightarrow{\mathbb{P}}Y\:\implies\: X_{n}Y_{n}\rightarrow XY\:\mathcal{G}\text{-stabilno.}
Ovaj ćemo rezultati primijeniti na iduća dva primjera te time demonstrirati njegovu značajnost.
Primjer 3.4. (Galton - Watsonov proces grananja) Neka je (Y_{i}^{n})_{i,n} familija nezavisnih jednako distribuiranih slučajnih varijabli definiranih na vjerojatnosnom prostoru (\Omega, \mathcal{F},\mathbb{P}) s vrijednostima u \mathbb{Z}_{+}, pri čemu je i,n\ge 1. Niz (Z_{n})_{n\ge 0} definiran s Z_{0}:=1 te
\begin{align*} Z_{n} := \begin{cases} Y_{1}^{n}+\dots + Y_{Z_{n-1}}^{n}, &\quad\text{ako je }Z_{n-1}\gt 0\\ 0, &\quad\text{inače} \end{cases},n\in\mathbb{N} \end{align*}
zovemo jednostavnim ili Galton-Watsonovim procesom grananja. Z_{n} interpretiramo kao broj jedinki u n-toj generaciji, a Y_{i}^{n} kao broj potomaka u n-toj generaciji nastao od i-tog potomka iz prethodne generacije.
Slučajne varijable Y_{i}^{n}, Y_{1}^{1} i Z_{1} su jednako distribuirane za svaki n\in\mathbb{N}, Y_{i}^{n}\sim Y_{1}^{1}\sim Z_{1}. S \mu ćemo označiti očekivani broj potomaka jedne jedinke, to jest \mu = \mathbb{E}(Y_{i}^{n})= \mathbb{E}(Z_{1}). U ovom primjeru je \mu parametar od interesa, a cilj je definirati neki niz procjenitelja za \mu te analizirati njegovo asimptotsko ponašanje.

Lako se pokaže da je očekivani broj potomaka u n-toj generaciji
\mathbb{E}(Z_{n}) = \mu^{n}.
Dokazi ove i drugih općenitijih tvrdnji na koje se pozivamo u ovom primjeru mogu se pronaći u [18].
Dodatno ćemo pretpostaviti da je \mu \gt 1 te da vrijedi \lim_{n} Z_{n} = +\infty g.s. Definirajmo sada slučajni proces X=(X_{n})_{n} s
X_{n} := \frac{Z_{n}}{\mu^{n}},\quad n\ge 0.
Ovako definiran slučajni proces je nenegativan martingal, a za takve slučajne procese vrijedi da konvergiraju gotovo sigurno prema nekoj slučajnoj varijabli X_{\infty} konačnog očekivanja. Dakle, imamo
(10)
\begin{align} \lim_{n} X_{n} = X_{\infty}\quad g.s. \end{align}
Sada iz Teoplitzove leme [16] primijenjene na (10), uz malo dodatnog raspisivanja, slijedi
(11)
\begin{align} \lim_{n}\frac{\mu-1}{\mu^{n}}\sum_{j=1}^{n} Z_{j-1} = X_{\infty}\quad g.s. \end{align}

Označimo s
\hat{\mu}_{n}^{(H)}:=\frac{\sum_{i=1}^{n} Z_{i}}{\sum_{i=1}^{n} Z_{i-1}}
procjenitelj od \mu. Taj procjenitelj se naziva Harrisov procjenitelj od \mu. Može se pokazati da je (\hat{\mu}_{n}^{(H)})_{n} konzistentan niz procjenitelja od \mu, to jest da vrijedi \hat{\mu}_{n}^{(H)}\xrightarrow{\mathbb{P}}\mu, vidi [11].
Za ovaj niz procjenitelja se uz pomoć stabilne konvergencije pokazuje da vrijedi sljedeće ([10]):
(12)
\begin{align} \frac{\mu^{\frac{n}{2}}}{(\mu - 1)^{\frac{1}{2}}}(\hat{\mu}_{n}^{(H)}-\mu)\rightarrow\sigma X_{\infty}^{-\frac{1}{2}}N\quad\mathcal{F}_{\infty}\text{-stabilno,} \end{align}
pri čemu je \mathcal{F}_{\infty}=\sigma\left(\bigcup_{n=0}^{+\infty}\mathcal{F}_{n}\right), a \mathcal{F}_{n} je \sigma-algebra generirana jednostavnim procesom grananja do n-te generacije, to jest \mathcal{F}_{n}=\sigma(X_{0},X_{1},\dots, X_{n}),\:n\in\mathbb{N}, N\sim N(0,1) i N je nezavisna od \mathcal{F}_{\infty}.

Budući da stabilna konvergencija povlači konvergenciju po distribuciji, vrijedi i sljedeći rezultat
(13)
\begin{align} \frac{\mu^{\frac{n}{2}}}{(\mu-1)^{\frac{1}{2}}}(\hat{\mu}_{n}^{(H)}-\mu)\xrightarrow{d}\sigma X_{\infty}^{-\frac{1}{2}}N. \end{align}
Međutim, kako niz u gornjoj relaciji sadrži nepoznati parametar \mu u složenom obliku te je granična distribucija nepoznata, ne možemo puno reći o asimptotskim svojstvima niza procjenitelja (\hat{\mu}_{n}^{(H)})_{n}. Ako pogledamo relacije (11) i (13), prirodno se nameće ideja o korištenju Cramér-Slutskyjevog teorema, ali kako je limes u (11) slučajna varijabla, ne možemo iskoristiti klasičan Cramér-Slutskyjev teorem. Ipak, u ovom slučaju možemo primijeniti generaliziranu verziju tog teorema na relacije (11) i (12) te na taj način doći do željenog rezultata:
\left(\sum_{j=1}^{n} Z_{j-1}\right)^{\frac{1}{2}}(\hat{\mu}_{n}^{(H)}-\mu)\rightarrow\sigma N\quad\mathcal{F}_{\infty}\text{-miješano}
te posljedično
\left(\sum_{j=1}^{n} Z_{j-1}\right)^{\frac{1}{2}}(\hat{\mu}_{n}^{(H)}-\mu)\xrightarrow{d}\sigma N(0,1).
Dakle, (\hat{\mu}_{n}^{(H)})_{n} je asimptotski normalan niz procjenitelja s očekivanjem \mu i standardnom devijacijom \frac{\sigma}{\left(\sum_{j=1}^{n} Z_{j-1}\right)^{\frac{1}{2}}}.
Ilustrirajmo ovaj rezultat simulacijama.
Definirajmo familiju nezavisnih jednako distribuiranih slučajnih varijabli (Y_{i}^{n})_{i,n} na sljedeći način:
Y_{i}^{n} := V_{i}^{n}+2\quad i\ge1, n\ge 1,
pri čemu je (V_{i}^{n})_{i,n} niz nezavisnih jednako distribuiranih slučajnih varijabli s Poissonovom razdiobom V_{i}^{n}\sim \text{Pois}(1.5), \:i,n\ge 1.
Definirajmo sada jednostavni proces grananja (Z_{n})_{n\ge0} pomoću familije (Y_{i}^{n}). Iz svojstava matematičkog očekivanja i varijance lagano slijedi
\mu =\mathbb{E}(Y_{i}^{n})=\mathbb{E}(V_{i}^{n}+2)=\mathbb{E}(V_{i}^{n})+2 = 1.5 + 2 = 3.5
te
\sigma^{2} = \text{Var}(Y_{i}^{n}) = \text{Var}(V_{i}^{n}+2) = \text{Var}(V_{i}^{n})=1.5.
Nadalje, budući da Y_{i}^{n} predstavlja broj potomaka jedne jedinke, Y_{i}^{n} po svojoj definiciji poprima vrijednosti u skupu \lbrace 2,3,\dots\rbrace za svaki i,n\in\mathbb{N} pa će u svakoj generaciji broj jedinki biti nužno veći od broja jedinki prethodne generacije. Dakle, populacija beskonačno raste te su zadovoljene sve pretpostavke s početka ovog primjera.
Generirat ćemo n = 100, 500 i 1000 uzoraka koji predstavljaju proces grananja (Z_{n})_{n} do generacije N=15 (populacija jako brzo raste pa je već u petnaestoj generaciji ukupan broj jedinki u populaciji reda veličine 10^{7} odnosno 10^{8}), te ćemo za svaki uzorak izračunati Harrisov procjenitelj \hat{\mu}_{N}^{(H)} parametra \mu. Očekujemo da će s porastom broja generiranih trajektorija procesa grananja uzorak pripadnih Harrisovih procjenitelja postajati sve "normalniji".
Za n = 100 generiranih trajektorija procesa grananja dobivamo uzorak od 100 Harrisovih procjenitelja (\hat{\mu}^{(H)}_{N,n})_{n},\; n =1,\dots,100. Lillieforsov test proveden nad tim uzorkom daje p-vrijednost od 0.1198, stoga ne odbacujemo nultu hipotezu o normalnosti uzorka niti na jednoj standardnoj razini značajnosti.
Histogram realizacija uzorka procjenitelja prikazan je na Slici 2 zajedno s funkcijom gustoće normalne razdiobe s procijenjenim parametrima očekivanja i standardne devijacije te s procijenjenom funkcijom gustoće.
Slika 2: Distribucija Harrisovih procjenitelja za n = 100.

 


Iz slike je jasno da histogram dobro prati graf funkcije gustoće normalne razdiobe, a osim toga aritmetička sredina uzorka (\hat{\mu}^{(H)}_{N,n})_{n} iznosi 3.500007 što je gotovo jednako egzaktnoj vrijednosti parametra \mu koja je jednaka 3.5. Nadalje, ako za svaku od 100 generiranih trajektorija procesa grananja odredimo vrijednost od \sigma /\sqrt{\sum_{j=1}^{N} Z_{j-1}} te potom uzmemo aritmetičku sredinu tih vrijednosti, ona iznosi 0.000184, što je približno jednako uzoračkoj standardnoj devijaciji niza (\hat{\mu}^{(H)}_{N,n})_{n} koja iznosi 0.000178. Dakle, za 100 generiranih trajektorija procesa grananja do 15-te generacije, distribucija realizacija Harrisovih procjenitelja je približno jednaka N(3.5, 0.000184^{2}). Očekujemo da će za n = 500 distribucija uzorka Harrisovih procjenitelja biti još bliža normalnoj razdiobi.

Za n=500 p-vrijednost Lillieforsovog testa je nešto veća od p-vrijednosti u prethodnom slučaju, i iznosi 0.1876. Dakle, ponovo ne odbacujemo pretpostavku normalnosti.

Histogram prikazan na Slici 3 još bolje prati graf funkcije gustoće normalne razdiobe s procijenjenim parametrima, a oni su ponovo jako blizu očekivanim vrijednostima: aritmetička sredina uzorka (\hat{\mu}^{(H)}_{N,n})_{n} iznosi 3.500008, a standardna devijacija je jednaka 0.000175.
Slika 3: Distribucija Harrisovih procjenitelja za n = 500.

 


Promotrimo još slučaj kada je n = 1000. Ponovo, ne odbacujemo pretpostavku normalnosti (p-vrijednost Lillieforsovog testa iznosi 0.215). Izgled histograma, prikazan na Slici 4, upućuje na još veću normalnost u podacima nego ranije.

Dakle, možemo zaključiti da s porastom duljine uzorka procesa grananja, distribucija pripadnih realizacija Harrisovih procjenitelja postaje sve bliža normalnoj distribuciji s parametrima \mu i \sigma /\sqrt{\sum_{j=1}^{N} Z_{j-1}}.
Slika 4: Distribucija Harrisovih procjenitelja za n = 1000.

 


\ \blacksquare



Još jedna važna posljedica stabilne konvergencije je verzija centralnog graničnog teorema za martingale. Ta je generalizacija nadahnuta Lindebergovom verzijom centralnog graničnog teorema koja ne zahtijeva jednaku distribuiranost slučajnih varijabli, već samo nezavisnost te da vrijedi tzv. Lindebergov uvjet.

Uvjetna verzija Lindebergovog uvjeta ima ključnu ulogu u stabilnom martingalnom centralnom graničnom teoremu.Taj ćemo teorem iskazati za slučajni proces X=(X_{n})_{n} definiran s
X_{n}:=Y_{n}-Y_{n-1},\;n\in\mathbb{N},
pri čemu je (Y_{n})_{n\ge 0} martingal adaptiran obzirom na filtraciju \mathbb{F}. Takav slučajni proces X zovemo nizom martingalnih razlika. Za njega vrijedi:
\mathbb{E}(X_{n+1}|\mathcal{F}_{n})=0\; g.s.
za svaki n\ge 1 te je i sam adaptiran obzirom na filtraciju \mathbb{F}.
Teorem 3.5. (Stabilni martingalni centralni granični teorem [10]) Neka je X=(X_{k})_{k} niz martingalnih razlika adaptiran obzirom na filtraciju \mathbb{F}=(\mathcal{F}_{n})_{n\ge 0} te neka je (a_{n})_{n} niz pozitivnih realnih brojeva takav da a_{n}\rightarrow +\infty.
Ako su zadovoljeni uvjeti:
(i) \frac{1}{a_{n}^{2}}\sum_{k=1}^{n} X_{k}^{2}\xrightarrow{\mathbb{P}} Z^{2};
(ii) \frac{1}{a_{n}}\mathbb{E}\left(\max_{1\le k\le n}|X_{k}|\right)\rightarrow0 kada n\rightarrow + \infty;
ili ako je (X_{k})_{k} kvadratno integrabilan slučajni proces te vrijede uvjeti: [label=(\roman*)]
(iii) \frac{1}{a_{n}^{2}}\sum_{k=1}^{n} \mathbb{E}\left(X_{k}^{2}|\mathcal{F}_{k-1}\right)\xrightarrow{\mathbb{P}}Z^{2};
(iv) \frac{1}{a_{n}^{2}}\sum_{k=1}^{n}\mathbb{E}\left(X_{k}^{2}\mathbb{1}_{\lbrace |X_{k}|\ge\epsilon a_{n}\rbrace }|\mathcal{F}_{k-1}\right)\xrightarrow{\mathbb{P}}0,\quad \forall\epsilon\gt 0\quad (uvjetni Lindebergov uvjet);
tada vrijedi:
\frac{1}{a_{n}}\sum_{k=1}^{n} X_{k}\rightarrow ZN\quad\mathcal{F}_{\infty}\text{-stabilno},
pri čemu je Z neka nenegativna realna slučajna varijabla te N\sim N(0,1) nezavisna od \mathcal{F}_{\infty}.

Ovaj teorem ima brojne zanimljive posljedice, a jedna od njih dana je u sljedećem primjeru.
Primjer 3.6. Neka je X=(X_{n})_{n} niz martingalnih razlika adaptiran obzirom na prirodnu filtraciju \mathbb{F}^{0}=\lbrace \mathcal{F}_{n}^{0}:\:n\ge 0\rbrace od X, gdje je \mathcal{F}_{0}^{0}= \lbrace \emptyset,\Omega\rbrace, \mathcal{F}_{n}^{0}= \sigma(X_{1},\dots,X_{n}). Označimo \mathcal{F_{\infty}}=\sigma\left(\bigcup_{n=0}^{\infty} \mathcal{F}_{n}^{0}\right). Pretpostavimo da je X stacionaran slučajni proces, to jest da za svaki k\ge 1 i svaki n\ge 1 vrijedi:
(X_{1},\dots,X_{k})\overset{d}{=}(X_{n+1},\dots,X_{n+k}),
te da je X_{1}\in\mathcal{L}^{1}(\Omega,\mathbb{P}).
Pod ovim pretpostavkama, iz tzv. Birkhoffove verzije Ergodskog teorema [19] slijedi
(14)
\begin{align} \frac{1}{n}\sum_{k=1}^{n}X_{k}^{2}\xrightarrow{g.s.}\mathbb{E}(X_{1}^{2}|\mathcal{I}_{X}), \end{align}
pri čemu je \mathcal{I}_{X} invarijantna \sigma-algebra obzirom na slučajni proces X, to jest \mathcal{I}_{X} je \sigma-algebra inducirana invarijantnim skupovima obzirom na operator pomaka S:\mathbb{R}^{\mathbb{N}}\rightarrow\mathbb{R}^{\mathbb{N}}, S((z_{n})_{n})=(z_{n+1})_{n}.
Ako stavimo a_{n}=\sqrt{n},\:n\in\mathbb{N}, tada iz (14) odmah slijedi da je zadovoljen uvjet (i) iz Teorema 3.5, uz Z=\mathbb{E}(X_{1}^{2}|\mathcal{I}_{X})^{\frac{1}{2}}. Pokažimo da vrijedi i uvjet (ii). Naime, jer je X_{n}\sim X_{1},\:n\in\mathbb{N}, za svaki \epsilon\gt 0 po teoremu o dominiranoj konvergenciji vrijedi:
\frac{1}{n}\sum_{k=1}^{n}\mathbb{E}(X_{k}^{2}\mathbb{1}_{\lbrace |X_{k}|\ge\epsilon \sqrt{n}\rbrace })=\mathbb{E}(X_{1}^{2}\mathbb{1}_{\lbrace |X_{1}|\ge\epsilon\sqrt{n}\rbrace })\xrightarrow{n\rightarrow\infty}0,
iz čega dalje slijedi
\begin{align*} \left(\frac{1}{\sqrt{n}}\mathbb{E}\left(\max_{1\le k \le n}|X_{k}|\right)\right)^{2}&\le\frac{1}{n}\mathbb{E}\left(\max_{1\le k\le n} X_{k}^{2}\right)\le\frac{1}{n}\mathbb{E}\left(\max_{1\le k\le n} X_{k}^{2}\mathbb{1}_{\lbrace |X_{k}|\ge\epsilon \sqrt{n}\rbrace }\right)+\\ &\quad+\frac{1}{n}\underbrace{\mathbb{E}\left(\max_{1\le k\le n} X_{k}^{2}\mathbb{1}_{\lbrace |X_{k}|\lt \epsilon \sqrt{n}\rbrace }\right)}_{\lt \epsilon^{2}n}\le\\ &\le \frac{1}{n}\sum_{k=1}^{n}\mathbb{E}(X_{k}^{2}\mathbb{1}_{\lbrace |X_{k}|\ge\epsilon \sqrt{n}\rbrace })+\epsilon^{2}\xrightarrow{n\rightarrow\infty}0, \end{align*}
jer je \epsilon\gt 0 proizvoljan.
Dakle, prema Teoremu 3.5 vrijedi:
(15)
\begin{align} \frac{1}{\sqrt{n}}\sum_{k=1}^{n}X_{k}\rightarrow\mathbb{E}(X_{1}^{2}|\mathcal{I}_{X})^{\frac{1}{2}}N\quad\mathcal{F}_{\infty}\text{-stabilno.} \end{align}
Jer je \mathcal{I}_{X}\subseteq\mathcal{F}_{\infty}, \mathbb{E}(X_{1}^{2}|\mathcal{I}_{X}) je \mathcal{I}_{X}- izmjeriva pa i \mathcal{F_{\infty}}- izmjeriva slučajna varijabla. Stoga možemo primijeniti generalizirani Cram\'er - Slutskyjev teorem na (14) i (15) iz čega dobivamo
\left(\sum_{k=1}^{n}X_{k}^{2}\right)^{-\frac{1}{2}}\sum_{k=1}^{n}X_{k}\rightarrow N\;\mathcal{F}_{\infty}\text{-stabilno,}
odnosno
(16)
\begin{align} \left(\sum_{k=1}^{n}X_{k}^{2}\right)^{-\frac{1}{2}}\sum_{k=1}^{n}X_{k}\xrightarrow{d} N(0,1). \end{align}

Pogledajmo ovaj rezultat na konkretnom primjeru.

Neka je X=(X_{n})_{n} niz nezavisnih jednako distribuiranih slučajnih varijabli, X_{n}\sim N(0,\sigma^{2}),n\ge 1. Za niz X vrijedi:
\mathbb{E}(X_{n+1}|\mathcal{F}_{n}^{0})=\mathbb{E}(X_{n+1}|\sigma(X_{1},\dots,X_{n}))= \mathbb{E}(X_{n+1}) = 0\quad\text{g.s.}
za svaki n\ge0, pri čemu predzadnja jednakost slijedi zbog nezavisnosti niza (X_{n})_{n}.

Dakle, X je niz martingalnih razlika koji je uz to i stacionaran Gaussovski slučajni proces budući da zbog nezavisnosti i normalnosti, za n\ge 0 vrijedi:
(X_{k},\dots,X_{k+n})\sim\mathbb{N}(\boldsymbol{\mu},\Sigma),\quad\forall k\ge 1,
\mathbb{\boldsymbol{\mu}}=(0,\dots,0), \Sigma=(\Sigma_{ij})_{ij}, \Sigma_{ij}=\text{Cov}(X_{i},X_{j}) = 0 za i\neq j te \Sigma_{ii}=\sigma^{2}.

Neka je \sigma^{2} = 2. Generirat ćemo n = 100, 500 i 1000 slučajnih uzorka iz N(0,2) razdiobe duljine 100 te za svaki od njih odrediti vrijednost statistike S= \left(\sum_{k=1}^{n}X_{k}^{2}\right)^{-\frac{1}{2}}\sum_{k=1}^{n}X_{k}. Prema relaciji (16), taj bi uzorak s porastom n-a trebao sve bolje pratiti N(0,1) razdiobu.
U prvom slučaju dobivamo uzorak (s_{n})_{n} duljine 100. P-vrijednost Kolmogorov - Smirnovljevog testa iznosi 0.8439, stoga zaključujemo da ne možemo odbaciti pretpostavku normalnosti promatranog uzorka. Na Slici 5 primjećujemo da oblik histograma dobro prati graf funkcije gustoće standardne normalne razdiobe, dok se točke na QQ-grafu relativno dobro grupiraju oko pravca, iako postoje odstupanja na rubovima. Premda primjećujemo prisutnost normalnosti u podacima, ta normalnost nije izrazito blizu idealne standardne normalne razdiobe. Nadalje, koeficijenti asimetrije i spljoštenosti su blizu nule, što dodatno sugerira da je ponašanje uzorka u velikoj mjeri normalno.
Slika 5: Histogram, QQ-graf, deskriptivne statističke mjere za n = 100.

 


Povećajmo sada broj generiranih uzoraka na 500 na način da prvih 100 uzoraka ostane isto kao ranije te se generira novih 400 uzoraka. Isti princip se primjenjuje u slučajevima s još većim brojem uzoraka.

Pogledajmo sada je li distribucija uzorka s_{1}, \dots, s_{500} nešto bliža nomalnoj distribuciji u odnosu na uzorak duljine 100.

U ovom slučaju je p-vrijednost Kolmogorov-Smirnovljevog testa 0.7156 pa ponovo ne odbacujemo pretpostavku normalnosti. Koeficijenti asimetrije i spljoštenosti su bliži nuli nego u prošlom slučaju, što sugerira nešto veću normalnost. To nam potvrđuje i izgled histograma i QQ-grafa prikazanih na Slici 6. Povećanjem broja generiranih uzoraka dobili smo distribuciju nešto bližu nomalnoj.
Slika 6:Histogram, QQ-graf, deskriptivne statističke mjere za n = 500.

 


Iz posljednjeg primjera vidimo da smo s povećanjem broja generiranih uzoraka dodatno poboljšali normalnost uzorka (s_{n})_{n}. P-vrijednost Kolmogorov-Smirnovljevog testa ostaje visoka i iznosi 0.9235, a koeficijenti asimetrije i spljoštenosti su još bliži koeficijentima standardne normalne razdiobe, dok izgled histograma i QQ-grafa ukazuje na još veću normalnost u podacima nego prije.
Slika 7:Histogram, QQ-graf, deskriptivne statističke mjere za n = 1000.

 


Dakle, primjećujemo da se rezultati poboljšavaju porastom broja generiranih uzoraka. Drugim riječima, u slučajevima s više podataka, distribucija djeluje bliža standardnoj normalnoj distribuciji u usporedbi s prethodnim situacijama, što je u skladu s očekivanjima temeljenima na relaciji (16).
\ \blacksquare


U zadnjem primjeru ćemo promatrati centralni granični teorem. Preciznije, pokazat ćemo da klasičan CGT vrijedi i u slučaju stabilne odnosno miješane konvergencije. Nadalje, vidjet ćemo da uz pomoć stabilne konvergencije možemo pokazati da postoji \lim_{n}\mathbb{P}(X_{n}\le Y) kada je Y prava slučajna varijabla, što iz konvergencije po distribuciji nije moguće dobiti, te ćemo pokazati čemu je taj limes jednak.


Primjer 3.6. (Klasični stabilni centralni granični teorem)
a) Neka je (Z_{n})_{n} niz nezavisnih realnih slučajnih varijabli na (\Omega,\mathcal{F},\mathbb{P}), (b_{n})_{n} niz u \mathbb{R}, (a_{n})_{n} niz pozitivnih realnih brojeva takav da a_{n}\rightarrow+\infty te X neka slučajna varijabla.
Definirajmo niz (X_{n})_{n} slučajnih varijabli s X_{n}:=\frac{1}{a_{n}}\left(\sum_{j=1}^{n} Z_{j}-b_{n}\right),\; n\in\mathbb{N}.
Pretpostavimo da vrijedi:
X_{n}\xrightarrow{d}X.
Pokažimo da tada vrijedi i
X_{n}\rightarrow X\;\text{miješano}.

Neka je \mathcal{G}=\sigma(Z_{n}:\:n\ge 1) i \mathcal{E}=\bigcup_{k=1}^{\infty}\sigma(Z_{1},\dots,Z_{k}). \mathcal{E} je algebra za koju vrijedi \sigma(\mathcal{E})=\mathcal{G}. Također, X_{n}\in\mathcal{G} za svaki n\in\mathbb{N}.

Neka je F\in\mathcal{E} proizvoljan takav da je \mathbb{P}(F)\gt 0. Tada postoji k\in\mathbb{N} takav da je F\in\sigma(Z_{1},\dots,Z_{k}).

Definirajmo niz slučajnih varijabli (Y_{n})_{n} s
Y_{n}:=\frac{1}{a_{n}}\left(\sum_{j=k+1}^{n} Z_{j} - b_{n}\right),\; n\gt k.
Vrijedi:
(17)
\begin{align} |X_{n}-Y_{n}|=\left|\frac{1}{a_{n}}\sum_{j=1}^{k} Z_{j}\right|\xrightarrow{n\rightarrow\infty}0\quad\text{na }\Omega. \end{align}
Iz X_{n}\xrightarrow{d} X i |X_{n}-Y_{n}|\rightarrow 0 slijedi Y_{n}\xrightarrow{d} X.

Nadalje, \sigma(Z_{1},\dots,Z_{k}) i \sigma(Z_{n}:\:n\ge k+1) su nezavisne \sigma-algebre, stoga je \mathbb{P}_{F}^{Y_{n}}=\mathbb{P}_{Y_{n}}.

Iz Y_{n}\xrightarrow{d} X slijedi \mathbb{P}_{Y_{n}}\xrightarrow{w}\mathbb{P}_{X}, a iz prethodne relacije \mathbb{P}_{F}^{Y_{n}}\xrightarrow{w}\mathbb{P}_{X}.

Jer je F\in\mathcal{E} bio proizvoljan, iz Teorema 2.5. (iii)\Rightarrow(i) slijedi Y_{n}\rightarrow X\;\mathcal{G}-miješano. Iz toga i (17), prema Teoremu 3.2. (i), slijedi X_{n}\rightarrow X \mathcal{G}-miješano. Konačno, jer su X_{n}\mathcal{G}-izmjerive za svaki n\in\mathbb{N}, vrijedi \mathbb{P}_{X_{n}|\mathcal{G}}=\mathbb{P}_{X_{n}|\mathcal{F}}. Prema tome, vrijedi:
X_{n}\rightarrow X\;\text{miješano}.
b) Neka je sada (Z_{n})_{n} niz nezavisnih jednako distribuiranih realnih slučajnih varijabli s očekivanjem \mu i varijancom \sigma^{2}\in (0,+\infty). Definirajmo niz slučajnih varijabli (X_{n})_{n} s
X_{n}:=\frac{1}{\sqrt{n}}\sum_{j=1}^{n}(Z_{j}-\mu),\:n\in\mathbb{N}.
Prema klasičnom CGT-u, vrijedi:
X_{n}\xrightarrow{d}N,
za N\sim N(0,\sigma^{2}). Ako s F_{N} označimo funkciju distribucije slučajne varijable N, tada gornju relaciju možemo zapisati na sljedeći način:
\lim_{n} \mathbb{P}(X_{n}\le x) = F_{N} (x),\;\forall x\in\mathbb{R}.
Dakle, za bilo koji realan broj x\in\mathbb{R}, niz (\mathbb{P}(X_{n}\le x))_{n} konvergira prema broju F_{N}(x). S druge strane, ako realan broj x zamijenimo slučajnom varijablom Y:\Omega\rightarrow \mathbb{R}, nije odmah jasno konvergira li niz (\mathbb{P}(X_{n}\le Y))_{n} i ako da, prema čemu. Odgovor na ovo pitanje dat će nam stabilna konvergencija.

Uočimo, iz X_{n}\xrightarrow{d}N prema dijelu a) slijedi
X_{n}\rightarrow N\;\text{miješano}.
Neka je Y proizvoljna realna slučajna varijabla. Tada nam Teorem 2.5. daje
(X_{n},Y)\rightarrow(N,Y)\;\mathcal{G}\text{-stabilno},
iz čega slijedi
(18)
\begin{align} (X_{n},Y)\xrightarrow{d}(N,Y). \end{align}
Definirajmo skup D=\lbrace (x,y)\in\mathbb{R}^{2}:\:x\le y\rbrace . Skup D je Borelov skup čiji je rub \partial D skup mjere 0, pa prema teoremu Portmanteau [16] o karakterizacijama slabe konvergencije vjerojatnosnih mjera slijedi
\lim_{n}\mathbb{P}_{(X_{n},Y)}(D)=\mathbb{P}_{(N,Y)}(D).
Dakle, vrijedi
\begin{align*} \lim_{n} &\mathbb{P}(X_{n}\le Y) = \lim_{n} \mathbb{P}_{(X_{n},Y)}(D)=\mathbb{P}_{(N,Y)}(D) = \int \mathbb{P}_{N}(D_{y})\mathbb{P}_{Y}(dy) =\\ &=\iint\mathbb{1}_{D}(x,y)\mathbb{P}_{N}(dx)\mathbb{P}_{Y}(dy)=\int_{-\infty}^{+\infty}\int_{-\infty}^{y} \mathbb{P}_{N}(dx)\mathbb{P}_{Y}(dy) =\int_{-\infty}^{+\infty} \mathbb{P}_{N}((-\infty,y])d\mathbb{P}_{Y}(y), \end{align*}
pri čemu treća jednakost slijedi iz Fubinijevog teorema. Sada, uz funkciju distribucije F_{N(0,\sigma^{2})} normalne N(0,\sigma^{2}) razdiobe, gornji izraz konačno možemo zapisati kao
(19)
\begin{align} \lim_{n} \mathbb{P}(X_{n}\le Y)=\int_{-\infty}^{+\infty} F_{N(0,\sigma^{2})}(y) d\mathbb{P}_{Y}(y)=\int_{\Omega} F_{N(0,\sigma^{2})}(Y)d\mathbb{P} = \mathbb{E}\left(F_{N(0,\sigma^{2})}(Y)\right). \end{align}
U slučaju da je Y = c g.s. za neku konstantu c\in\mathbb{R}, tada je \mathbb{E}\left(F_{N(0,\sigma^{2})}(c)\right) = F_{N(0,\sigma^{2})}(c), pa iz (19) slijedi
\lim_{n} \mathbb{P}(X_{n}\le c)=F_{N(0,\sigma^{2})}(c),
što dobivamo i direktno iz klasičnog CGT-a.

Primijetimo da ako u prethodnoj jednakosti konstantu c zamijenimo slučajnom varijablom Y te primijenimo matematičko očekivanje na slučajnu varijablu F_{N(0,\sigma^{2})}(Y) u limesu, dobivamo upravo dokazanu relaciju (19). Pomoću nje lako možemo odrediti egzaktnu vrijednost od \lim_{n} \mathbb{P}(X_{n}\le Y) kada je poznata razdioba slučajne varijable Y.

Primjerice, za niz \tilde{X}_{n}: = \frac{\overline{Z_{n}}-\mu}{\sigma}\sqrt{n},\:n\in N koji ima asimptotski normalnu N(0,1) razdiobu te slučajnu varijablu Y\sim N(0,1) nezavisnu od niza (\tilde{X}_{n})_{n}, intuitivno je jasno da bi vrijednost od \mathbb{P}(\tilde{X}_{n}\le Y) s porastom n-a trebala biti sve bliža \frac{1}{2} jer se za velike n niz (\tilde{X}_{n})_{n} ponaša po distribuciji sve sličnije slučajnoj varijabli Y. Uz prethodno dokazani rezultat sada se to lako i pokaže.

Naime, vrijedi F_{N(0,1)}(Y)=F_{Y}(Y)=U\sim U(0,1) pa iz (19) odmah slijedi
\lim_{n} \mathbb{P}(\tilde{X}_{n}\le Y)=\mathbb{E}\left(F_{N(0,1)}(Y)\right)=\mathbb{E}\left(U \right)=\frac{1}{2}.
Bibliografija
[1] Niels Becker, Estimation for discrete time branching processes with application to epidemics. Vol. 33.3. JSTOR, 1977, pp.515-522.
[2] Patrick Billingsley, Convergence of probability measures. John Wiley & Sons, 2013.
[3] Patrick Billingsley, Probability and measure. John Wiley & Sons, 2017.
[4] Jean-Pierre Dion, Estimation of the mean and the initial probabilities of a branching process. Vol. 11.4. Cambridge University Press, 1974, pp.687-694.
[5] Rick Durrett, Probability: theory and examples. Vol. 49. Cambridge university press, 2019.
[6] Peter Gänssler & Winfried Stute, Wahrscheinlichkeitstheorie. Springer, 1977.
[7] Miguel González, Rodrigo Martínez & Iné Del Puerto, Estimation of the variance for a controlled branching process. Vol. 14. Springer, 2005, pp. 199-213.
[8] Allan Gut, Probability: a graduate course. Vol 200. 5. Springer, 2006.
[9] Theodore E. Harris, Branching processes. Vol. 19.4. JSTOR, 1948, pp. 474-494.
[10] Erich Häusler & Harald Luschgy, Stable convergence and stable limit theorems. Vol. 74. Springer, 2015.
[11] Chris Heyde, Extension of a result of Senata for the supercritical Galton-Watson process. Vol. 41. 2. JSTOR, 1970, pp. 739-742.
[12] Miljenko Huzak, Matematička statistika, predavanja. PMF-MO, 2012.
[13] Rudi Mrazović, Mjera i intergal, predavanja. PMF-MO, 2021.
[14] Jelena Pavlović, Stabilna konvergencija slučajnih varijabli, diplomski rad. 2024.
[15] Alessandro Rinaldo, Advanced Probability Overview - Lecture 18. 2018.
[16] Nikola Sarapa, Teorija vjerojatnosti. Školska knjiga, 2002.
[17] Zoran Vondraček, Markovljevi lanci, predavanja. PMF-MO, 2008.
[18] Zoran Vondraček, Slučajni procesi, predavanja. PMF-MO, 2010.
[19] Charles Walkden, Ergodic Theory, Lecture Notes. University of Manchester, 2018.
 


 

 

Share this