29.08.2013 Views

Valószinüségszámitás fizikusoknak

Valószinüségszámitás fizikusoknak

Valószinüségszámitás fizikusoknak

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

Valószínűségszámítás és Statisztika: Alapfogalmak, Tézisek, Feladatok<br />

FIZ II. tematika, Fritz József, jofri@math.elte.hu, 1998 március 20<br />

Ez a segédanyag tartalmasabb egy szokványos tematikánál, de önmagában még így is igen<br />

nehezen olvasható. Szóhasználata kissé pongyola, a definíciók, tételek és bizonyításaik<br />

nincsenek formálisan kiemelve, a legtöbb gondolatmenet (számolás) csak vázlatosan szerepel.<br />

Számos fogalom vagy tézis az előadáson még csak említésre sem került, mások csak<br />

felületes tárgyalásban részesültek. Ezeket és a lényeges részeket szimbólumok segítségével<br />

gondoltam kiemelni, a megjegyzéseket és utalásokat szintén. Bár a jegyzet legtöbb mondata<br />

maga is találós kérdés, az egyes részekhez kiemelten megfogalmazott feladatok is csatlakoznak.<br />

A befejezetlen mondatok végén olykor ! áll, a törzsanyaghoz nem tartozó részeket<br />

a tartalomjegyzékben * , súlyosabb esetben ** jelöli. Várom Olvasó kritikus észrevételeit,<br />

például a fenti e-mail címen.<br />

Tartalomjegyzék<br />

O. Középiskolás Fokon<br />

O.1. Diszkrét valószínűségszámítás . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3<br />

O.2. Nevezetes eloszlások . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .5<br />

O.3. Döntési problémák . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8<br />

I. Számosságok Statisztikus Értelmezése<br />

I.1. Bináris sorozatok, exponenciális becslések . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10<br />

I.2. Aszimptotikus törvények . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11<br />

I.3. Bolyongás és a hővezetés egyenlete . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12<br />

I.4. A Lebesgue mérték . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13<br />

I.5. Ritka események sorozatai . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14<br />

I.6. Curie-Weiss modell* . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15<br />

I.7. Alacsony hőmérsékletű Ising modell* . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17<br />

I.8. Markov láncok . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18<br />

I.9. Ergodikus Markov láncok . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20<br />

I.10. A tükrözési elv* . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21<br />

I.11. Tönkremenetel egyszerű játékban* . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22<br />

I.12. Kedvezőtlen helyzetben merész a jó játékos** . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22<br />

I.13.<br />

Óvatos stratégia kedvező helyzetben* . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24<br />

I.14. Fogadások több lehetőségre* . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24<br />

I.15. A legszebb kiválasztása* . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25<br />

I.16. Szimmetrikus bolyongás d dimenzióban* . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26<br />

I.17. Végtelen sok valószínűségi változó együttes eloszlása** . . . . . . . . . . . . . . . . . . . . . . . . . 26<br />

A. Általános Elmélet<br />

A.1. Valószínűségi mező . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27<br />

A.2. Valószínűségi változók . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29<br />

A.3. Valós változó várható értéke . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29<br />

A.4. Együttes eloszlások . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30<br />

1


2<br />

A.5. Korrelálatlan változók . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31<br />

A.6. Nagy eltérések* . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31<br />

A.7. Eloszlások konvergenciája . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32<br />

A.8. Centrális határeloszlástétel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33<br />

A.9. Poisson határeloszlástétel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34<br />

A.10. Feltételes várható érték . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34<br />

A.11. Centrált sorozatok és martingálok** . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .36<br />

F. Sztochasztikus Folyamatok<br />

F.1. Autoregresszív idősorok . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39<br />

F.2. Wiener folyamat . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40<br />

F.3. Kvadratikus variáció* . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40<br />

F.4. Wiener folyamat és a hővezetés egyenlete* . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41<br />

F.5. Feynman-Kac formula* . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .41<br />

F.6. Ito kalkulus** . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41<br />

F.7. Langevin egyenlet* . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41<br />

F.8. Ito folyamatok, többváltozós kalkulus** . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43<br />

F.9. Független sorozatok konstrukciója . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44<br />

F.10. A Wiener folyamat folytonos* . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44<br />

F.11. A Wiener folyamat nem differenciálható* . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45<br />

F.12. Poisson folyamat . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45<br />

F.13. A tőzsde termodinamikája** . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46<br />

S. Matematikai Statisztika<br />

S.1. Többváltozós normális eloszlás . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .54<br />

S.2. Lineáris regresszió . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56<br />

S.3. A két legfontosabb statisztika eloszlása . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .57<br />

S.4. Statisztikai problémák . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57<br />

S.5. Cramer-Rao egyenlőtlenség* . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59<br />

S.6. Lineáris modellek Gauss–Markov elmélete . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .60<br />

S.7. Konfidenciaintervallumok konstrukciója . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61<br />

S.8. A regressziós egyenes meredekségéről* . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61<br />

S.9. Hipotézisvizsgálat . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62<br />

S.10. Kétmintás t próba . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .63<br />

S.11. Egyszerű osztályozás* . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64<br />

S.12. Kétszempontos szóráselemzés* . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .64<br />

S.13. Szórások egyezése, F-próba . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66<br />

S.14. Eloszlások vizsgálata χ 2 próbával . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .66<br />

S.15. Wilcoxon próba* . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66<br />

S.16. Empirikus eloszlásfüggvények . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67<br />

S.17. Störmer és Sarkadi teszt* . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .69<br />

S.18. Az első- és másodfajú hiba* . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69<br />

S.19. Szekvenciális eljárások* . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .70<br />

Ajánlott irodalom . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71


O. Középiskolás Fokon<br />

Ebben a szakaszban teljesen elemi szinten vezetjük be az alapvető fogalmakat, vázoljuk a<br />

szavak korrekt használatának lehetőségeit. Tartalmi kérdésekről még nincs szó.<br />

O.1. Diszkrét valószínűségszámítás: Legyen Ω valamilyen véges vagy megszámlálható<br />

halmaz, és tegyük fel hogy adottak a p(ω) ≥ 0 , ω ∈ Ω számok úgy hogy <br />

ω∈Ω p(ω) = 1 .<br />

Az A ⊂ Ω esemény valószínűségét P (A) := <br />

ω∈A p(ω) definiálja, ami kétféle szóhasználat<br />

szerint is a valószínűség mértéke. Egyrészt a P (∅) = 0 és P (Ω) = 1 közötti skálán jellemzi<br />

hogy A bekövetkezése milyen gyakran figyelhető meg, másrészt P (A ∪ B) = P (A) + P (B)<br />

ha A ∩ B = ∅ , vagyis P mérték a szó matematikai értelmében. Valamely ξ : Ω ↦→ X<br />

valószínűségi változó eloszlása a<br />

P [ξ = x] = <br />

ω:ξ(ω)=x<br />

p(ω) , x ∈ X (O1.1)<br />

számok összessége; persze <br />

x∈X P [ξ = x] = 1 . Ha most ϕ : X ↦→ R adott függvény, akkor<br />

az η = ϕ(ξ) változó várható értéke az<br />

Eϕ(ξ) := <br />

ϕ ξ(ω) p(ω) = <br />

ϕ(x)P [ξ = x] (O1.2)<br />

ω∈Ω<br />

összeggel definiált átlag; D(ξ) := E(ξ − Eξ) 2 a ξ szórása.<br />

Ha Ω (illetve X) véges, és minden p(ω) (illetve P [ξ = x]) valószínűség ugyanannyi,<br />

akkor egyenletes eloszlásról beszélünk. Ilyenkor P (A) = Card A/Card Ω , ahol Card B a<br />

B halmaz elemeinek száma. Például, ha fémpénz ismételt feldobásával generálunk fejírás<br />

sorozatokat, akkor kézenfekvő a feltevés hogy az ugyanolyan hosszúságú sorozatok<br />

mind egyforma valószínűségűek. Ha viszont egyszerre több érmével dobunk, akkor az is<br />

eszünkbe juthat hogy a fejek számát jelző valószínűségi változó lesz egyenletes eloszlású.<br />

Nem ez a helyzet mert az egyes érmék egymástól elvileg megkülönböztetendőek, de a kvantumelméletben<br />

a bozonok vagy a fermionok elvi megkülönböztethetetlensége a statisztikai<br />

jellemzésükben is tükröződik.<br />

Egyenletes eloszlás érvényessége gyakran következik a probléma szimmetriájából, máskor<br />

csak bizonyos valószínűségek egyenlőségét lehet ilyen alapon megállapítani. Boltzmann<br />

elve szerint az azonos energiájú állapotok ugyanolyan valószínűségűek: ha H : Ω ↦→ R az<br />

energia, és H(ω) = H(ω ′ ) , akkor p(ω) = p(ω ′ ) is igaz. Sőt, a<br />

pβ,H(ω) = e−βH(ω)<br />

Zβ<br />

x∈X<br />

Zβ := <br />

e −βH(ω)<br />

ω∈Ω<br />

3<br />

(O1.3)<br />

képlet is gyakran alkalmazható, ahol a β > 0 paraméter a hőmérséklet reciproka.<br />

Legyen B ⊂ Ω adott, P (B) > 0 . A {P (A ∩ B) : A ⊂ Ω} valószínűségek összehasonlíthatósága<br />

érdekében vezessük be a P (A|B) := P (A ∩ B)/P (B) feltételes valószínűségeket.<br />

Ha P (A|B) = P (A) , vagyis P (A ∩ B) = P (A)P (B) , akkor azt mondjuk hogy az A és


4<br />

B események függetlenek. Ha a Bk ⊂ Ω , k = 1, 2, ..., n pozitív valószínűségű események<br />

páronként diszjunktak, és az egyesítésük Ω , akkor a teljes valószínűség tétele szerint<br />

P (A) =<br />

továbbá ha P (A) > 0 , akkor<br />

n<br />

P (ABk) =<br />

k=1<br />

P (Bk|A) =<br />

n<br />

P (A|Bk)P (Bk) (O1.4)<br />

k=1<br />

P (A|Bk)P (Bk)<br />

n<br />

j=1 P (A|Bj)P (Bj)<br />

(O1.5)<br />

ami az ”okok valószínűségéről“ szóló Bayes tétel néven ismert.<br />

Ha most két változónk van, η értékkészlete Y , és ζ = ϕ(η, ξ) valós, akkor Eζ két<br />

lépésben is számolható:<br />

Eϕ(η, ξ) = Eψ ∗ ϕ(ξ) ahol ψ ∗ ϕ(x) = E[ζ|ξ = x] := <br />

y∈Y<br />

ϕ(η, x)P [η = y|ξ = x] (O1.6)<br />

a ζ változónak a p η|ξ(y|x) := P [η =y|ξ =x] feltételes eloszlás szerinti részleges átlagolással<br />

kapott feltételes várható értéke ha ξ = x adott; E[ζ|ξ = x] := ψ ∗ ϕ(x) . (O1.4) alapján<br />

EE[ζ|ξ] = Eϕ(ζ) , és a Eφ(ξ)ϕ(η, ξ) = Eφ(ξ)ψ ∗ ϕ(ξ) vetítési (ortogonalitási) relációk minden<br />

(korlátos) φ : X ↦→ R esetén teljesülnek. Ez utóbbiak a ψ ∗ ϕ : X ↦→ R függvényt<br />

egyértelműen meghatározzák; felhasználásukkal (O1.6) az Eϕ(η, ξ) = EE[ϕ(η, ξ)|ξ] absztrakt<br />

megfogalmazásban is bizonyítható.<br />

Ezek szerint két valószinűségi változó függetlensége a szinthalmazaik függetlenségeként<br />

definiálandó, vagyis P [ξ = x, η = y] = P [ξ = x]P [η = y] ∀x ∈ X és y ∈ Y . Ez pontosan annyit<br />

jelent hogy η feltételes eloszlása nem függ a feltételtől, és az Eϕ(ξ)ψ(η) = Eϕ(ξ)Eψ(η)<br />

szorzási szabállyal egyenértékű. Ha tehát η és ξ független, akkor az<br />

Eϕ(η, ξ) = Eψ(ξ) , ahol ψ(x) = Eϕ(η, x) (O1.7)<br />

formula alkalmazható. Több változó (teljes) függetlensége az<br />

Eφ(ξ1, ξ2, ..., ξn) =<br />

n<br />

Eϕk(ξk) ha φ(x1, x2, ..., xn) =<br />

k=1<br />

n<br />

ϕk(xk) (O1.8)<br />

egyenletek érvényességét jelenti. A (O1.7) szabály – többlépéses eljárásként – erre az esetre<br />

is kiterjeszthető.<br />

Nem minden feladat fogalmazható meg diszkrét valószínűségi mező segítségével, de a<br />

számítógépek világában éppen erre kell törekedni. Másrészt viszont nagyméretű diszkrét<br />

modellek aszimptotikus viselkedése gyakran írható le az eredetinél egyszerűbb, de már nem<br />

véges, hanem folytonosnak minősíthető modell segítségével; konkrét jelenségek statisztikus<br />

törvényeit többnyire így fogalmazzuk meg. A mérték és integrál absztrakt elméletének<br />

ismeretében jól tudjuk hogy a két típus közötti különbség jóval kisebb, mint azt korábban<br />

gondolhattuk volna.<br />

k=1


Folytonos típusú ξ változó eloszlását gyakran az f sűrűségfüggvény adja meg; f =<br />

f(x) ≥ 0 ∀x ∈ R , és az integrálja éppen 1 . Szerepét az<br />

∞<br />

b<br />

Eϕ(ξ) = ϕ(x)f(x) dx és P [a < ξ < b] = f(x) dx (O1.9)<br />

−∞<br />

képletek illusztrálják. Folytonos változók konstrukciójához megszámlálhatónál nagyobb<br />

eseményteret kell választani. A statisztikus mechanika olyan valószínűségi változókat is<br />

ismer, amelyek nem is diszkrétek, de sűrűségfüggvényük sincs. Szélsőséges esetben az<br />

F (x) := P [ξ < x] eloszlásfüggvény folytonos, de a deriváltja majdnem mindenütt nulla.<br />

O1.F1: Ha A, B, C ⊂ Ω páronként, illetve teljesen független, akkor Ā, ¯ B, ¯ C is az!<br />

O1.F2: Urnában fekete (F) és piros (P) golyók vannak. Visszatevés nélkül húzunk, az<br />

n-ik érték ξn . Ekkor P [ξ3 = F, ξ5 = P ] = P [ξ6 = P, ξ2 = F ] =?!<br />

O1.F3: A ϕ(n) Euler függvény az n ∈ N-el relatív prímek száma; valószínűségszámítási<br />

konstrukció segítségével határozza meg ϕ értékét! Legyen Ω = {1, 2, ..., n} , p(ω) = 1/n<br />

∀ω , és vizsgálja az Ap := [p|ω] eseményeket, ahol p az n prímosztója; a p|ω relácó azt<br />

jelenti hogy ω a p többszöröse.<br />

O1.F4: Legyen Ω = N míg p(n) = 2 −n az egyes elemi események valószínűsége. Bizonyítandó<br />

hogy a valószínűségi mérték minden lehetséges értéket felvesz!<br />

O1.F5 ∗ : Az előző állítás általában nem igaz, de P értékkészlete mindig perfekt halmaz!<br />

O1.F6 ∗∗ : Lehet-e nyereségesen lottózni?<br />

O.2. Nevezetes eloszlások: Felsoroljuk néhány egydimenziós eloszlás főbb jellemzőit,<br />

ξ mindig az aktuális változó, X az értékkészlete, Ψ = Ψ(z) := Ee ızξ a karakterisztikus<br />

függvénye, és x ∈ X esetén f = f(x) a sűrűségfüggvénye, ha van. Az eloszlástípusok<br />

jelölése nem általánosan elfogadott, még N(m, σ 2 ) helyett is előfordul az N(m, σ) terminus.<br />

Binomiális eloszlás, B(n,p): X = {0, 1, ..., n} , p ∈ (0, 1) ,<br />

P [ξ = k] =<br />

n!<br />

k!(n − k)! pk (1 − p) n−k , Eξ = np , D 2 (ξ) = np(1 − p) ,<br />

Ψ(z) = p + (1 − p)e ız n , B(n, p) ∗ B(m, p) = B(n + m, p)<br />

B(n,p) független bináris (0−1 értékű) változók összegének eloszlásaként származtatható.<br />

Polinomiális eloszlás, Pn,r(p1, p2, ..., pn): Nemnegatív egész értékű νi , i = 1, 2, ..., r<br />

változók együttes eloszlása, pi > 0 és p1 + p2 + · · · + pr = 1 ,<br />

P [ν1 =n1, ν2 =n2, ..., νr =nr] =<br />

n!<br />

n1!n2! · · · nr! pn1 1 pn2 nr · · · pr a<br />

5<br />

ha n1 + n2 + · · · + nr = n ,<br />

egyébként P = 0 ; Eνi = npi , D 2 (νi) = npi(1 − pi) , és a Stirling formulával<br />

1<br />

n log P [ν1 = n1, ν2 = n2, ..., νr = nr] =<br />

n<br />

i=1<br />

ni<br />

n<br />

log npi<br />

ni<br />

+ o(1)


6<br />

ha n = O(ni) ∀i .<br />

Geometriai eloszlás, G(p): X = N , p ∈ (0, 1) ,<br />

P [ξ = n] = p(1 − p) n−1 , Eξ = 1<br />

p , D2 (ξ) =<br />

1 − p<br />

p 2 , Ψ(z) =<br />

e ız<br />

1 − (1 − p)e ız<br />

Független és azonos p valószínűségű események sorozatában a első bekövetkezésének<br />

időpontja.<br />

Poisson eloszlás, P(λ): X = Z+ , λ > 0 ,<br />

P [ξ = n] = λn<br />

n! e−λ , Eξ = λ , D 2 (ξ) = λ , Ψ(z) = exp λ(e ız − 1) .<br />

Poisson eloszlások konvolúciója: P (λ1) ∗ P (λ2) = P (λ1 + λ2) . Ha n → ∞ , akkor<br />

B(n, λ/n) határeloszlása P(λ) .<br />

Normális (Gauss) eloszlás, N(m,σ 2 ): X = R , m ∈ R és σ > 0 ,<br />

f(x) = 1<br />

σ √ 2π exp<br />

<br />

(x − m)2<br />

−<br />

2σ2 <br />

, Eξ = m , D 2 (ξ) = σ 2 ,<br />

Ψ(z) = exp(ızm − σ 2 z 2 /2) , N(m1, σ 2 1) ∗ N(m2, σ 2 2) = N(m1 + m2, σ 2 1 + σ 2 2) .<br />

Polártranszformációval kapjuk az alapvető<br />

<br />

x 2 +y 2 >r 2<br />

exp(−x 2 /2 − y 2 ∞<br />

/2) dxdy = 2π ue<br />

r<br />

−u2 /2 −r<br />

du = 2πe 2 /2<br />

formulát, innen a √ 2π normáló tényező. Jó tudni hogy Eξ 4 = 3σ 4 ha ξ eloszlása<br />

N(0, σ 2 ) , tehát D 2 (ξ 2 ) = 2σ 4 . Az N(0, 1) standard normális eloszlásfüggvényt Φ = Φ(x)<br />

jelöli, tehát P [ξ < x] = Φ(x/σ − m/σ) ha ξ ∼ N(m, σ 2 ) . Ha ξn ∼ B(n, p) akkor<br />

(ξn−np)/ √ n határeloszlása N(0, p−p 2 ) . Mivel a −x −1 e −x2 /2 függvény deriváltja éppen<br />

(1 + x −2 )e −x2 /2 ,<br />

1<br />

√ 2π<br />

αe−α2 /2<br />

∞<br />

1<br />

≤ (1 − Φ(α)) = √ e<br />

1 + α2 2π α<br />

−x2 /2 e<br />

dx ≤ −α2 /2<br />

α √ 2π<br />

ha α > 0 , ami jól használható Φ közelítésére.<br />

Egyenletes eloszlás, E(a,b): Értékkészlete [a, b] , ahol sűrűségfüggvénye<br />

f(x) = 1<br />

a + b<br />

, Eξ = , D<br />

b − a 2<br />

2 (ξ) =<br />

(b − a)2<br />

12<br />

Exponenciális eloszlás, Exp(λ): Pozitív értékű, λ > 0 ;<br />

, Ψ(z) = eızb − e ıza<br />

ızb − ıza .<br />

f(t) = λe −λt , Eξ = 1<br />

λ , D2 (ξ) = 1<br />

λ<br />

, Ψ(z) =<br />

λ2 λ − ız .


Az exponenciális eloszlást az örök ifjúság P [ξ > t + s|ξ > s] = P [ξ > t] tulajdonsága<br />

jellemzi. Ha τn ∼ G(λ/n) akkor τn/n határeloszlása Exp(λ) .<br />

Gamma eloszlás, Γ(n, λ): n darab független Exp(λ) változó összege, sűrűségfüggvénye<br />

az<br />

∞<br />

∞ ∞ ∞<br />

Eϕ(ξ) =: ϕ(t)fn(t) dt = · · ·<br />

0<br />

0<br />

0<br />

0<br />

ϕ(t)λ n e −λt dt1dt2 · · · dtn<br />

formula alapján azonosítható, ahol t = t1+t2+· · ·+tn . Rögzített t > 0 mellett a tk > 0 ,<br />

k = 1, 2, ..., n−1 változók alkotta n−1 dimenzós szimplex térfogata t n−1 /(n−1)! , tehát<br />

fn(t) = λn t n−1 e −λt<br />

(n − 1)!<br />

, Eξ = n<br />

λ , D2 (ξ) = n<br />

, Ψ(z) =<br />

λ2 λn ,<br />

(λ − ız) n<br />

Γ(n, λ) ∗ Γ(m, λ) = Γ(n + m, λ) .<br />

Cauchy eloszlás, C(λ): Két független, 0 várható értékű normális változó hányadosaként<br />

származtatható, X = R , λ > 0 , sűrűségfüggvénye<br />

f(x) = 1<br />

π<br />

λ<br />

λ 2 + x 2 , Ψ(z) = e−λ|z| ,<br />

várható értéke sem létezik, C(λ1) ∗ C(λ2) = C(λ1 + λ2) .<br />

Lognormális eloszlás, Log(m, σ 2 ): ξ = e η , ahol η N(m, σ 2 ) eloszlású, vagyis ξ olyan<br />

pozitív változó, melynek logaritmusa normális. Sűrűségfüggvénye x > 0 esetén<br />

f(x) =<br />

1<br />

xσ √ 2π exp<br />

<br />

− log2 (x/M)<br />

2σ 2<br />

<br />

, Eξ = Me σ2 /2 , D 2 (ξ) = M 2 e σ 2<br />

(e σ2<br />

− 1)<br />

ahol M = e m . Természetüknél fogva pozitív, pl. élettani mennyiségek eloszlása gyakran<br />

ilyen. A pénzügyi matematikában is jelentős szerepet játszik.<br />

Weibull eloszlás, Wei(λ, α): Pozitív értékű, λ, α > 0 , P [ξ > t] = exp(−λt α ) . Öregedő<br />

alkatrészek élettartama gyakran jó közelítéssel ilyen eloszlású. Jellemzőinek számolása<br />

a gamma függvényre vezethető vissza.<br />

χ 2 eloszlás: χ 2 n := ξ 2 1 + ξ 2 2 + · · · + ξ 2 n , ahol ξ1, ξ2, ..., ξn független N(0, 1) változók;<br />

az n paraméter a szabadsági fokok száma. Sűrűségfüggvénye konvolúcióként vagy polártranszformációval<br />

számolható. Mivel az n-dimenziós r sugarú gömb felszíne éppen<br />

2π n/2 r n−1 /Γ(n/2) , x > 0 esetén<br />

fn(x) = xn/2−1 e −x/2<br />

2 n/2 Γ(n/2)<br />

∞<br />

ahol Γ(z) :=<br />

0<br />

t z−1 e −t dt<br />

a gamma függvény, ami Γ(n) = (n − 1)! , n ∈ N analitikus kiterjesztése; nagy z ∈ R<br />

esetén a Stirling formulával számolható. Eχ 2 n = n , D 2 (χ 2 n) = 2n , χ 2 2 =Exp(1/2) ,<br />

χ 2 2n = Γ(n, 1/2) . Ha ξk ∼ N(m, 1) akkor ξ 2 1 + ξ 2 2 + · · · + ξ 2 n = χ 2 n + 2n( ¯ ξn − m) + nm 2 ,<br />

ami lényegesen nagyobb lehet mint χ 2 n mert √ n( ¯ ξn − m) ∼ N(0, 1) .<br />

χn eloszlás: χ 2 n pozitív négyzetgyöke,<br />

fn(x) = 2xn−1 e −x2 /2<br />

2 n/2 Γ(n/2) Eχn =<br />

√<br />

2Γ(n/2 + 1/2)<br />

≈<br />

Γ(n/2)<br />

√ n .<br />

7


8<br />

√<br />

Student eloszlás: tn := ξ0 n/χn , ahol ξ0 és χn független, ξ0 ∼ N(0, 1) , n a szabadsági<br />

fokok száma. Sűrűségfüggvénye szimmetrikus,<br />

fn(x) =<br />

Γ(n/2 + 1/2)<br />

√ πn Γ(n/2) (1 + x 2 /2) n+1<br />

D 2 (tn) = n<br />

n − 2<br />

ha n ≥ 2 , t1 Cauchy eloszlású, tn ≈ N(0, 1) ha n nagy. Nagyon sok statisztikai<br />

vizsgálatnál játszik főszerepet.<br />

F eloszlás: Fn,n ′ := n′ χ 2 n/nχ 2 n ′ két független χ2 változó normalizált hányadosa. Eloszlása<br />

könnyen azonosítható, főleg hibák (szórásnégyzetek) összehasonlítására használják.<br />

Béta eloszlás, B(α, β): α, β > 0 , ξ ∈ (0, 1) , ahol sűrűsége<br />

fα,β(x) =<br />

Γ(α + β)<br />

Γ(α)Γ(β) xα−1 (1 − x) β−1<br />

A rendezett minták elméletében és a statisztikában jelenik meg, lásd fent.<br />

Lèvy típusú eloszlások, L(α, q): Sűrűségfüggvényük csak Fourier transzformációval ad-<br />

ható meg:<br />

f(x) = 1<br />

∞<br />

e<br />

2π −∞<br />

ıxz−q|z|α<br />

dz<br />

ahol q > 0 , 1 ≤ α ≤ 2 . L(α, q1)∗L(α, q2) =L(α, q1 +q2) , α = 1 a Cauchy, α = 2 a Gauss<br />

eloszlás esete. Ha α < 2 akkor E|ξ| β csak akkor véges ha β < α . Újabban a pénzügyi<br />

matematikában érdekes.<br />

O2.F1: Igaz-e hogy P [ξ > 2] < 0.05 ha ξ ∼ N(0, 1) ? Mit ad a Markov egyenlőtlenség?<br />

O2.F2: Igaz-e hogy P [ξ > 7] < 0.0008 ha ξ ∼ N(1, 2) ?<br />

O2.F3: ξ és η független E(0,1) változók, P [max{ξ, η} < 2 min{ξ, η}] = ?<br />

O2.F3: Ha ξ és η független N(0, 1), akkor ξ/η ∼ C(1), ξ 2 + η 2 ∼ Exp(1/2) !<br />

O2.F4 ∗ : Legyen ρ Exp(λ), ϕ pedig E(0,2π) eloszlású, és függetlenek. Van-e olyan a > 0<br />

szám hogy ρ a cos ϕ és ρ a sin ϕ is független?<br />

O2.F5: Adott a ξ ∼ N(0, 1) változó, definiálandó olyan η hogy ξ és η együttesen is<br />

normális, és η és ξ − η független!<br />

O2.F6: Legyen ξ = (ξ1, ξ2, ξ3) N(0,I) eloszlású, η := ξ1 + ξ2/3 + αξ3 . Van-e olyan α szám<br />

hogy a ξ1 , η − ξ1 és az η − ξ1 − ξ2 változók függetlenek?<br />

O2.F7: Mennyi Eξ 4 ha ξ ∼ N(m, σ 2 )?<br />

O2.F8 ∗ : Melyik τ > 0 változó tesz eleget a P [τ > t + s|τ > t] = P [τ > s] t, s > 0<br />

egyenletnek, és ez hogyan interpretálható?<br />

O.3. Döntési problémák: Tegyük fel hogy az Ω diszkrét halmazon két valószínűség,<br />

P1 és P2 is adott, és a ξ : Ω ↦→ X változó megfigyelt értéke alapján kell eldöntenünk,<br />

hogy P1 és P2 közül melyik érvényes. Ez úgy lehetséges, hogy kiválasztunk egy D ⊂ X<br />

halmazt, és ξ ∈ D esetén a P1 , míg ha ξ /∈ D , akkor P2 mellett döntünk. Kétféleképpen


tévedhetünk, P1[ξ /∈ D] az elsőfajú hiba, P2[ξ ∈ D] pedig a másodfajú hiba valószínűsége.<br />

A Neyman-Pearson lemma szerint minden<br />

D(α) := x ∈ X : P1[ξ = x] ≥ αP2[ξ = x] <br />

(O3.1)<br />

típusú döntési tartomány, ahol α > 0 , a következő értelemben optimális: Ha<br />

Valóban, a feltétel szerint<br />

vagyis<br />

tehát<br />

P1[ξ /∈ D] ≤ P1[ξ /∈ D(α)] akkor P2[ξ ∈ D] ≥ P2[ξ ∈ D(α)] . (O3.2)<br />

P1[ξ /∈ D] = P1[ξ /∈ D ∪ D(α)] + P1[ξ ∈ D(α) \ D]<br />

≤ P1[ξ /∈ D(α)] = P1[ξ /∈ D ∪ D(α)] + P1[ξ ∈ D \ D(α)] ,<br />

P1[ξ ∈ D(α) \ D] ≤ P1[ξ ∈ D \ D(α)] ≤ αP2[ξ ∈ D \ D(α)] ,<br />

P2[ξ ∈ D(α)] ≤ P2[ξ ∈ D(α) ∩ D] + 1<br />

α P1[ξ ∈ D(α) \ D]<br />

≤ P2[ξ ∈ D(α) ∩ D] + P2[ξ ∈ D \ D(α)] = P2[ξ ∈ D] .<br />

Mindkét hiba egyidejű optimalizálása persze lehetetlen.<br />

Ezzel szemben a Q(D) := q1P1[ξ /∈ D] + q2P2[ξ ∈ D] veszteség minimuma mindig<br />

meghatározható: Tetszőleges D ⊂ X és előírt q1, q2 > 0 súlyok (költségtényezők) esetén<br />

Q(D) ≥ <br />

min q1P1[ξ = x] , q2P2[ξ = x] = Q D(q2/q1) . (O3.3)<br />

x∈X<br />

Az így meghatározott, optimális Bayes döntés a következőképpen is értelmezhető. Feltehetjük<br />

hogy q1 + q2 = 1 , és mondhatjuk hogy ezek a számok H1 ∼ P1 illetve H2 ∼ P2<br />

alternatívák a-priori, vagyis a ξ megfigyelését megelőzően elfogadott valószínűségei. A<br />

P1[ξ = x] q1<br />

P2[ξ = x] q2<br />

ˆp1(x) :=<br />

és ˆp2(x) :=<br />

P1[ξ = x] q1 + P2[ξ = x] q2<br />

P1[ξ = x] q1 + P2[ξ = x] q2<br />

számokat a H1 illetve H2 hipotézisek a-posteriori (megfigyelés utáni) valószínűségének<br />

nevezzük; ez a szóhasználat a (O1.5) Bayes formulával teljes összhangban van. Az optimális<br />

döntés úgy történik, hogy a nagyobb a-posteriori valószínűségű hipotézist fogadjuk el. Ez a<br />

szabály több hipotézis esetén is működik, ilyenkor az X halmazt a P1, P2, ..., Pd hipotetikus<br />

eloszlásokhoz rendelt, páronként diszjunkt D1, D2, ..., Dd elfogadási tartományokra osztjuk<br />

fel, vagyis Pk(ξ /∈ Dk) a k-ik hibafajta valószínűsége. Adott qk ≥ 0 költségek esetén az<br />

a-posteriori valószínűségeket<br />

ˆpk(x) :=<br />

Pk[ξ = x] qk<br />

d<br />

j=1 Pj[ξ = x] qj<br />

definiálja, és a Q(D1, D2, ..., Dd) := d<br />

k=1 qkP [ξ /∈ Dk] veszteséget a legnagyobb a-posteriori<br />

valószínűségű lehetőség elfogadásával minimalizálhatjuk. Ha több ilyen van, akkor<br />

közülük akár sorsolással is választhatunk.<br />

O3.F1: Definiálandó olyan Ω eseménytér amin az a posteriori valószínűségek – a Bayes<br />

tétel szellemében – feltételes valószínűségként értelmezhetőek!<br />

O3.F2: Hogyan terjeszthetőek ki a szakasz eredményei sűrűségfüggvénnyel rendelkező<br />

eloszlások megkülönböztetésére?<br />

9


10<br />

I. Számosságok Statisztikus Értelmezése<br />

Lehetőleg egyszerű példák (modellek) kapcsán kívánjuk az alapelveket és módszereket bemutatni.<br />

Fogalmi, tartalmi és technikai szempontból egyaránt ez a legnehezebb anyagrész.<br />

I.1. Bináris sorozatok, exponenciális becslések: Jelölje Ωn az n hosszúságú 0 − 1<br />

sorozatok halmazát, tehát Ωn általános eleme ω = (ω1, ω2, ..., ωn) ahol ωk = 0 vagy 1 ,<br />

és legyen νn(ω) = ω1 + ω2 + · · · + ωn az ω ∈ Ωn sorozatban előforduló egyesek száma.<br />

Összesen 2 n ilyen sorozat van, és azoknak a száma ahol νn(ω) = k , éppen<br />

Card [νn = k] =<br />

<br />

n<br />

=<br />

k<br />

n!<br />

k!(n − k)!<br />

= n(n − 1) · · · (n − k + 1)<br />

k!<br />

ahol 0 ≤ k ≤ n . A fenti binomiális együtthatók a legkönnyebben az<br />

(I1.1)<br />

n! = √ 2πn (n/e) n exp(θn/12n) , ahol 0 < θn < 1 (I1.2)<br />

Stirling formula segítségével értékelhetőek ki, első közelítésben<br />

log<br />

<br />

n<br />

= k log<br />

k<br />

n<br />

n<br />

+ (n − k) log + O(log n)<br />

k n − k<br />

ha n = O(k) = O(n − k) , ennél pontosabb az (I2.3) képlet. Ha tehát 0 < ρ < 1 és<br />

kn<br />

lim<br />

n→∞ n<br />

1<br />

= ρ akkor lim<br />

n→∞<br />

n log Card [νn = kn] = h(ρ) ,<br />

ahol h(ρ) := ρ log 1<br />

+ (1 − ρ) log<br />

ρ<br />

1<br />

1 − ρ<br />

(I1.3)<br />

a Boltzmann-Shannon féle entrópia. Látható hogy 0 ≤ h(ρ) ≤ log 2 = h(1/2) . Ez persze<br />

még nem jelenti azt hogy νn(ω)/n a vizsgált sorozatok többségénél 1/2 közelében van, ha<br />

n nagy. Másrészt viszont tetszőleges z ≥ 0 esetén<br />

<br />

−znρ<br />

Card [νn ≥ nρ] ≤ e<br />

ω∈Ωn<br />

e zνn(ω) = e −znρ (1 + e z ) n = exp(n log(1 + e z ) − nzρ) .<br />

Az érdekes ρ ≥ 1/2 esetben a szabad paraméter optimális értéke z = log ρ<br />

1−ρ<br />

≥ 0 ,vagyis<br />

inf<br />

z≥0 {log(1 + ez ) − zρ} = h(ρ) , tehát Card [νn ≥ nρ] ≤ e nh(ρ) . (I1.4)<br />

Végül (I1.3) és (I1.4) alapján, tetszőleges ε > 0 és 1 > ρ ≥ 1/2 mellett érvényes a<br />

lim<br />

n→∞<br />

1<br />

n log Card [nρ ≤ νn < nρ + nε] = h(ρ) (I1.5)


aszimptotikus formula. Ha ρ ≤ 1/2 akkor Card [nρ−nε < νn ≤ nρ] viselkedése a probléma<br />

szimmetriája miatt ugyanaz, tehát<br />

νn<br />

Card<br />

n<br />

1<br />

<br />

− ≥ δ<br />

2<br />

11<br />

≤ 2 exp nh(δ + 1<br />

2 ) ha 0 < δ ≤ 1/2 . (I1.6)<br />

I.2. Aszimptotikus törvények: Azért hogy a különböző hosszúságú sorozatokkal kapcsolatos<br />

állításokat össze tudjuk hasonlítani, már most célszerű bevezetni az A ⊂ Ωn<br />

esemény P (A) := 2 −n Card A valószínűségét; ez a definíció azt fejezi ki hogy az ugyanolyan<br />

hosszúságú sorozatok egyformán valószínűségűek. Ezzel a jelöléssel (I1.6) a nagy számok<br />

egyik (gyenge) törvényét eredményezi:<br />

lim<br />

n→∞ P | νn<br />

n<br />

− 1<br />

2 | ≥ δ = 0 (I2.1)<br />

minden δ > 0 estén igaz, és a konvergencia sebessége exponenciális. Kényelmesebb<br />

jelölésmód érdekében legyen ζn(ω) := 2νn(ω) − n , ekkor (I2.1) szerint a δn ’nagy eltérés‘<br />

valószínűsége, ami P [|ζn| ≥ δn] , exponenciálisan kicsi ha δ > 0 és n → +∞ . A Stirling<br />

formula segítségével a √ n nagyságrendű eltérések valószínűsége is kiszámolható; ha<br />

−∞ ≤ a < b + ∞ akkor<br />

lim<br />

n→∞ 2−nCard [a √ n < ζn < b √ n] = 1<br />

b<br />

√ e<br />

2π a<br />

−x2 /2<br />

dx (I2.2)<br />

Valóban, ha k = n/2 + x √ n/2 és n → +∞ akkor O(1/n) nagyságrendig<br />

− log<br />

<br />

n<br />

= log<br />

k<br />

2k(n − k)π/n + k log k<br />

n − k<br />

+ (n − k) log + O(1/n)<br />

n n<br />

= log nπ/2 − n log 2 + (n + 1) log 1 − x2 /n + x<br />

2 √ n log 1 + x/√n 1 − x/ √ n<br />

+ O(1/n) = log nπ/2 − n log 2 + x 2 /2 + O(1/n)<br />

ami a Moivre-Laplace tétel következő alakját adja:<br />

2 −n<br />

<br />

n<br />

k<br />

(I2.3)<br />

= exp−(2k − n) 2 /2n <br />

√<br />

1 + O(1/n) ha k = n/2 + O( n) (I2.4)<br />

nπ/2<br />

Innen (I2.2) már egyszerűen következik, de az alábbi eredményből is levezethető.<br />

<br />

lim 2−n<br />

n→∞<br />

ω∈Ωn<br />

ϕ ζn(ω)<br />

<br />

∞<br />

1<br />

√ = √2π ϕ(x)e<br />

n<br />

−∞<br />

−x2 /2<br />

dx (I2.5)<br />

ahol ϕ : R ↦→ R folytonos és korlátos függvény; egyszerűség kedvéért feltesszük hogy ϕ<br />

négyszer folytonosan differenciálható, és a negyedik deriváltja korlátos.


12<br />

A (I2.2) összefüggés a P [a √ n < ζn < b √ n] valószínűségről szól, és centrális határeloszlás<br />

tétel néven ismert; a jobboldalon álló számot is valószínűségként értelmezzük. A (I2.5)<br />

baloldalán látható átlag a ϕ(ζn/ √ n) (valószínűségi) változó várható értéke,<br />

Eϕ ζn −n √n = 2 <br />

ω∈Ωn<br />

ϕ ζn(ω) <br />

√ =<br />

n<br />

n<br />

k=0<br />

ϕ 2k − n<br />

√ P [νn = k] . (I2.6)<br />

n<br />

A jobboldalon (standard) normális eloszlás szerint számolt várható érték áll; ilyen és hasonló<br />

szavakat és jelöléseket a továbbiakban rendszeresen használunk.<br />

I.3. Bolyongás és a hővezetés egyenlete: (I2.5) bizonyítása érdekében tetszőleges<br />

ε > 0, t ≥ 0, n ≥ t/ε 2 és (ω1, ω2, ..., ωn) = ω ∈ Ωn esetén legyen<br />

Wε(t, ω) := ε <br />

k≤t/ε 2<br />

(2ωk − 1) = ε <br />

k≤t/ε 2<br />

σk = εζ [t/ε 2 ]<br />

ahol σk := 2ωk − 1 = ±1 , míg [x] az x ∈ R szám egész része. A W1(·, ω) függvényeket<br />

a (véletlen) bolyongás pályáinak (trajektória, realizáció) nevezzük; W1(n, ω) = ζn(ω) .<br />

Bármely x ∈ R és ε, t > 0 számhármashoz hozzárendelhető az alábbi várható érték, és<br />

<br />

−n<br />

uε(t, x) := Eϕ(Wε(t) + x) = 2<br />

ω∈Ωn<br />

ϕ(Wε(t, ω) + x)<br />

nem függ a definíciójában szereplő n ≥ t/ε 2 sorozathossztól. Az összegzést két részre<br />

bontva aszerint hogy ω1 = 1 vagy ω1 = 0 kapjuk hogy<br />

uε(t + ε 2 , x) = uε(t, x + ε) + uε(t, x − ε)<br />

2<br />

vagyis (I3.1)<br />

uε(t + ε2 , x) − uε(t, x)<br />

ε2 = uε(t, x + ε) + uε(t, x − ε) − 2uε(t, x)<br />

2ε2 Érdemes észrevenni hogy (I3.1) olyan rekurzív összefüggés, amely az uε(t, x) függvényt<br />

– az uε(0, x) = ϕ(x) kezdeti értékekből kiindulva – meghatározza. A második változat<br />

szerint viszont (I3.1) nem más mint a ∂tu(t, x) = 1<br />

2∂2 xu(t, x) hővezetési egyenlet numerikus<br />

megoldásának algoritmusa; a kezdeti érték u(0, x) = uε(0, x) = ϕ(x) , tehát<br />

u(t, x) = 1<br />

∞<br />

√ ϕ(y) exp(−(y − x)<br />

2πt −∞<br />

2 /2t) dy , (I3.2)<br />

amiből az is látszik hogy |∂ 4 xu(t, x)| ≤ c ha |∂ 4 xϕ(x)| ≤ c . Mivel ∂ 2 t u = 1<br />

4 ∂4 xu , a |∂ 2 t u(t, x)| ≤<br />

c/4 becslés is igaz.<br />

Indukcióval bizonyítjuk hogy az adott feltételek mellett<br />

u(t, x) − cε 2 t/6 ≤ uε(t, x) ≤ u(t, x) + cε 2 t/6 , (I3.3)


ami a t = 0 időpontban biztosan teljesül. A továbblépés kulcsa a következő két becslés:<br />

|u(t, x + ε) + u(t, x − ε) − 2u(t, x) − ∂ 2 xu(t, x)ε 2 | ≤ cε 4 /12<br />

|u(t + ε 2 , x) − u(t, x) − ∂tu(t, x)| ≤ cε 4 /8<br />

Ha tehát (I3.3) valamely t > 0 időpontban igaz, akkor<br />

uε(t + ε 2 , x) ≤ u(t, x + ε)/2 + u(t, x − ε)/2 + cε 2 t/6<br />

≤ u(t, x) + ∂ 2 xu(t, x)ε 2 /2 + cε 2 t/6 + cε 4 /24<br />

≤ u(t, x) + ∂tu(t, x)ε 2 + cε 2 t/6 + cε 4 /24<br />

≤ u(t + ε 2 , x) + cε 2 (t + ε 2 )/6 + cε 4 /24 + cε 4 /8 − cε 4 /6 ,<br />

ami a felső becslést igazolja. Az alsó becslés levezetése hasonló, tehát uε(t, x) → u(t, x)<br />

amikor ε → 0 . Innen az ε = 1/n és x = 0 speciális esetként (I2.5) is következik.<br />

(I2.2) bizonyítható a Stirling formula segítségével is, de (I2.5) formális következményeként<br />

is megkapható a ϕ = 1a,b választással, ahol 1a,b(x) = 1 ha a ≤ x ≤ b , egyébként<br />

pedig 0 . Ezt ugyan nem tehetjük meg, de minden δ > 0 számhoz választhatunk olyan<br />

folytonos ϕδ és ¯ϕδ függvényeket, hogy 1a+δ,b−δ ≤ ϕδ ≤ 1a,b ≤ ¯ϕ ≤ 1a−δ,b+δ , és így (I2.2)<br />

a δ → 0 határátmenettel következik.<br />

Látható hogy a Wε(s) és a Wε(s + t) − Wε(s) változók függetlenek, és a Wε(s + t) −<br />

Wε(s) növekmény eloszlása nem függ s-től. A nevezetes Wiener folyamat a Wε skálázott<br />

bolyongások határeloszlása.<br />

I.4. A Lebesgue mérték: Ahogy ε csökken, a Wε(t, ω) , 0 ≤ t ≤ 1 változók definiálásához<br />

mindig hosszabb és hosszabb sorozatokra van szükség, ezért érdemes a problémát<br />

eleve a végtelen sorozatok terén megfogalmazni. Ilyenkor egy sorozat valószínűségéről nem<br />

beszélhetünk, de a szóbanforgó események ábrázolhatóak a [0, 1) intervallumon a számok<br />

ω = ∞<br />

n=1 ωn2 −n bináris kifejtésével. Például, az [ω1 = x1, ω2 = x2, ..., ωn = xn] esemény<br />

képe az [x, x + 2 −n ) intervallum, ahol x = x1/2 + x2/4 + · · · + xn/2 n . Bonyolultabb esetekben<br />

is könnyen belátható hogy egy A ⊂ Ωn esemény fentebb bevezetett valószínűsége<br />

éppen a neki megfelelő halmaz hossza (Lebesgue mértéke) lesz. Az ωn bináris jegyek<br />

valószínűségi változóként értelmezhetőek, P [ωn = 1] = 1/2 és az ωn sorozat független.<br />

Eszerint a Lebesgue mérték a fej-írás játék matematikai modellje.<br />

I4.F1: Definiálandó – a Lebesgue mértékre vonatkozóan N(0,1) eloszlású függvény a [0, 1]<br />

intervallumon!<br />

I4.F2: pk > 0 , k ∈ N , Σkpk = 1 . Definiálandó olyan ξn : [0, 1) ↦→ N sorozat amely a P<br />

Lebesgue mérték szerint független és P [ξn = k] = pk .<br />

I4.F3 ∗ : Legyen µp a ξ = ∞<br />

n=1 2−n ηn eloszlása, ahol ηn független B(1,p) sorozat. Ekkor<br />

µ 1/2 éppen a Lebesgue mérték [0, 1]-en, az összes többi pedig szinguláris!<br />

I4.F4 ∗ : Definiálandó független E(0,1) eloszású sorozat [0, 1]-en!<br />

I4.F5 ∗ : A ξ, η : [0, 1] ↦→ [0, 1] folytonos függvények lehetnek-e független E(0,1) eloszlásúak<br />

a Lebesque mértékre vonatkozóan?<br />

13


14<br />

I.5. Ritka események sorozatai: Jelölje Ωr,n az olyan ω = (ω1, ω2, ..., ωn) sorozatok<br />

halmazát, ahol mindegyik ωk koordináta az {1, 2, ..., r} számok valamelyike; összesen r n<br />

ilyen sorozat van. Tulajdonképpen az n = ∞ esetben definiáljuk a τr,ℓ = τr,ℓ(ω) ∈ N<br />

változókat úgy hogy τr,1 < τr,2 < · · · < τr,ℓ < · · · és ha τr,ℓ = k akkor ωk = r . Tehát<br />

τr,ℓ , ℓ ∈ N azoknak a k sorszámoknak (időpontoknak) a sorozata, ahol ωk = r ; τr,ℓ éppen<br />

az ℓ-edik ilyen időpont. Ha ilyen nincs, akkor τr,ℓ = +∞ . Végül tetszőleges t ≥ 0 esetén<br />

legyen Nr(t) = Nr(t, ω) = ℓ ha τr,ℓ(ω) ≤ rt < τr,ℓ+1(ω) .<br />

Az ugyanolyan hosszúságú sorozatokat egyforma valószínűségűnek tekintjük, tehát bármely<br />

Ωr,n halmazzal dolgozunk is, ha n ≥ rt mindig azt kapjuk hogy<br />

<br />

[rt] 1<br />

P [Nr(t) = ℓ] =<br />

ℓ rℓ 1<br />

[rt]−ℓ<br />

1 − , (I5.1)<br />

r<br />

ahol [x] az x ∈ R szám egész részét jelöli. Hasonlóan, ha n ≥ k , úgy<br />

ha r és k nagy, általában pedig<br />

P [τr,ℓ = k] =<br />

P [τr,1 = k] = 1<br />

1k−1<br />

1<br />

1 − ≈<br />

r r r e−k/r<br />

<br />

k − 1 1<br />

ℓ − 1 rℓ 1k−ℓ<br />

1 (k/r)<br />

1 − ≈<br />

r r<br />

ℓ−1e−k/r (ℓ − 1)!<br />

A binomiális együtthatók számolásával közvetlenül ellenőrizhető hogy<br />

lim<br />

r→∞ P [Nr(t) = ℓ] = tℓ<br />

ℓ! e−t<br />

(I5.2)<br />

(I5.3)<br />

vagyis Nr(t) határeloszlása Poisson. Bonyolultabb a τr,ℓ változók esete, a τr,ℓ/r hányadosnak<br />

van határeloszlása, ami a folytonos. Megmutatjuk hogy ha ϕ : R ↦→ R folytonos és<br />

korlátos, akkor<br />

lim<br />

r→∞ Eϕτr,ℓ<br />

<br />

= lim<br />

r r→∞<br />

Azt mindenesetre tudjuk hogy<br />

lim<br />

r→∞ eℓ/r<br />

∞<br />

k=1<br />

ϕ( k<br />

r )P [τr,ℓ<br />

∞<br />

= k] =<br />

0<br />

∞<br />

ϕ( k<br />

r )(k/r)ℓ−1<br />

(ℓ − 1)!<br />

k=1<br />

t<br />

ϕ(t)<br />

ℓ−1<br />

(ℓ − 1)! e−t dt . (I5.4)<br />

1<br />

e−k/r<br />

r =<br />

∞<br />

ϕ(t)<br />

0<br />

tℓ−1e−t (ℓ − 1)! dt<br />

mert a baloldali összeg az integrál közelítése, amiből a ϕ(x) ≡ 1 választással<br />

e<br />

lim<br />

r→∞<br />

ℓ/r<br />

r<br />

∞<br />

k=1<br />

(k/r) ℓ−1<br />

(ℓ − 1)! e−k/r = 1


adódik. Másrészt, 1 − x ≤ e −x miatt<br />

P [τr,ℓ = k] ≤ eℓ/r (k/r) ℓ−1 e −k/r<br />

r(ℓ − 1)!<br />

de a baloldalon álló valószínűségek összege persze 1 , tehát a ϕ korlátossága miatt (I5.4)<br />

most már azonnal következik.<br />

Érdemes észrevenni hogy a τr,1, τr,2 − τr,1, ..., τr,ℓ+1 − τr,ℓ változók függetlenek és ugyanolyan<br />

eloszlásúak. Hasonlóan, az Nr(t1), Nr(t2) − Nr(t1), ..., Nr(tk+1) − Nr(tk) sororat is<br />

független hacsak 0 < t1 < t2 < · · · < tk , továbbá Nr(s+t)−Nr(s) és Nr(t) mindig ugyanolyan<br />

– aszimptotikusan Poisson – eloszlású. Mindezek a Poisson folyamat konstrukciójakor<br />

lényegesek, ami Nr határeloszlása amint r → +∞ .<br />

I.6. Curie-Weiss modell: Jelölje Σn az n hosszúságú ±1 sorozatok halmazát, β > 0 ,<br />

γ ∈ R ,<br />

p (n)<br />

β,γ (σ) := expnγηn(σ) + nβ<br />

2 η2 n(σ) <br />

ahol ηn(σ) :=<br />

Zn(β, γ)<br />

1<br />

n<br />

σk<br />

n<br />

k=1<br />

Zn(β, γ) = <br />

exp<br />

σ∈Σn<br />

nγηn(σ) + nβ<br />

2 η2 n(σ) <br />

(I6.1)<br />

n<br />

<br />

n<br />

= exp<br />

k<br />

2γ(2k − n) + β<br />

(2k − n)2<br />

2n<br />

k=0<br />

diszkrét eloszlás a Σn halmazon. A domináló exponenciális nagyságrend (I1.3) segítségével<br />

választható ki, tehát<br />

1 <br />

lim log e<br />

n→∞ n nλi = max<br />

i λi (I6.2)<br />

formális alkalmazásával<br />

1<br />

lim<br />

n→∞ n log Zn(β, γ) = G(β, γ) := sup g(x, β, γ) ,<br />

|x|


16<br />

A g függvény stacionárius pontjait az<br />

y = − γ<br />

β<br />

1 1 + y<br />

+ log<br />

2β 1 − y<br />

(I6.5)<br />

egyenlet megoldásával kapjuk. Egyetlen gyök van ha β < 1 vagy βγ elég nagy, de lehet<br />

három is; jelölje y ∗ = y ∗ (β, γ) a legnagyobb abszolút értékűt, ez adja g maximumát. Ebből<br />

is kettő lehet ha γ = 0 , de y ∗ (β, γ) = −y ∗ (β, −γ) . Mivel y = 0 mindig gyök ha γ = 0 , talán<br />

meglepő hogy y + (β) := y ∗ (β, +0) > 0 ha β > 1 , persze y − (β) := y ∗ (β, −0) = −y + (β) .<br />

Ezt a jelenséget nevezhetjük spontán mágnesezettségnek. Azt is könnyű ellenőrizni hogy<br />

y + (β) → 1 ha β → +∞ .<br />

Ha tehát β ≤ 1 vagy γ = 0 akkor P (n)<br />

β,γ [|ηn − y ∗ (β, γ)| < ε] → 1 ∀ε > 0 amint n → +∞ .<br />

Ha γ = 0 és β > 1 akkor csak annyit mondhatunk hogy P [y − (β)−ε < ηn < y + (β)+ε] → 1 .<br />

Nagyon érdekes ηn eloszlásának viselkedése a β = 1 kritikus érték közelében, legyen<br />

γ = 0 míg β = 1 + 2b/ √ n , ahol b ∈ R tetszőleges. Megmutatjuk hogy a korábban<br />

tapasztalttal szemben, nem a √ nηn , hanem a n 1/4 ηn mennyiségnek van határeloszlása, és<br />

az nem Gauss. Ez annak köszönhető, hogy a rendszerben érvényesülő erős kölcsönhatás<br />

miatt a σk spinek sokkal nagyobb valószínűséggel lehetnek azonosak mint az eddig vizsgált<br />

független esetben. Azt hogy miért éppen n −1/n a korrekt normálás, és mi a határeloszlás,<br />

a következő elemi számolás mutatja.<br />

Ha x ∈ R olyan hogy k = n/2 + xn 3/4 /2 egész szám, akkor<br />

tehát (I2.3) alapján<br />

P [n 1/4 ηn = x] =<br />

<br />

1 n<br />

exp<br />

Zn(β, 0) k<br />

( √ n/2 + b)x 2<br />

logP [n 1/4 ηn = x] = − log Zn(β, 0) + log<br />

<br />

n<br />

+<br />

k<br />

x2<br />

2 (n1/2 + 2b)<br />

= Cn(b) + Ox( 1 x2<br />

) +<br />

n 2 (n1/2 + 2b) − n<br />

2 log(1 − x2n −1/2 )<br />

− xn3/4<br />

2<br />

log(1 + xn −1/4 ) + xn3/4<br />

2<br />

log(1 − xn −1/4 )<br />

(I6.6)<br />

(I6.7)<br />

ahol Cn(b) nem függ x-től, Ox(1/n) pedig 1/n nagyságrendű mindaddig amíg x valamely<br />

korlátos intervallumban változik. A log(1 + y) = y − y 2 /2 + y 3 /3 − · · · sorfejtés felhasználásával<br />

belátható hogy az n-től lényegesen függő tagok kiejtik egymást:<br />

logP [n 1/4 ηn = x] = Cn(b) + Ox(n −1/4 ) + x2<br />

− xn3/4 −1/4 x<br />

xn −<br />

2<br />

2n−1/2 2<br />

= Cn(b) + Ox(n −1/4 ) + bx 2 − x4<br />

12<br />

2 (n1/2 + b) + n<br />

2 −1/2 x<br />

x n +<br />

2<br />

4 <br />

2n<br />

+ x3n−3/4 xn<br />

−<br />

3<br />

3/4 −1/4 x<br />

xn +<br />

2<br />

2n−1/2 +<br />

2<br />

x3n−3/4 3<br />

<br />

(I6.8)


Mivel valószínűségi eloszlásról van szó, azt várjuk hogy<br />

lim<br />

n→∞ Cn(b)<br />

∞<br />

= − log Z(b) ahol Z(b) = exp(bx 2 − x 4 /12) dx (I6.9)<br />

tehát n 1/4 ηn határeloszlásának sűrűségfüggvénye éppen<br />

−∞<br />

fb(x) = 1<br />

Z(b) exp bx 2 − x 4 /12 <br />

−∞<br />

17<br />

(I6.10)<br />

vagyis folytonos és korlátos ϕ : R ↦→ R esetén<br />

lim<br />

n→∞ Eϕ(n1/4 ∞<br />

ηn) = ϕ(x)fb(x) dx . (I6.11)<br />

Ennek pontos bizonyítása további, pusztán technikai lépéseket igényelne, de fontosabb az<br />

az észrevétel hogy fb konvex (egycsúcsú) a kritikus hőmérséklet fölötti b < 0 tartományban,<br />

viszont duplafenekű amikor két fázis van, vagyis b > 0 .<br />

Tulajdonképpen azt igazoltuk hogy ha xn → x úgy hogy k = n/2 + xnn 3/2 /2 egész<br />

szám, továbbá γ = 0 és β = 1+2b/ √ n akkor<br />

lim<br />

n→∞<br />

(I6.4) alapján meg lehet mutatni hogy<br />

P [n 1/4 ηn = xn]<br />

P [n 1/4 ηn = 0] = exp bx 2 − x 4 /12 <br />

lim<br />

n→∞<br />

n 3/4<br />

ami P [n 1/4 ηn = 0] = 1/Zn miatt a bizonyítás végét jelentené.<br />

(I6.12)<br />

2 Zn(1 + 2b/ √ n, 0) = Z(b) (I6.13)<br />

I.7. Alacsony hőmérsékletű Ising modell: A hosszútávú rend – alacsony hő mérsékleten<br />

észlelhető jelensége – erősen függő változók rendszerével írható le. A Z2 síkrács<br />

pontjai egységnégyzetek középpontjai, ezek határoló szakaszait nevezzük éleknek. Legyen<br />

Σ +<br />

Λ az olyan σ = (σk) k∈Z2 , σk = ±1 sorozatok halmaza, hogy σk = 1 ha k /∈ Λ , ahol<br />

Λ ⊂ R2 nagyméretű rácsnágyzet, továbbá<br />

H + 1<br />

Λ (σ) :=<br />

4<br />

<br />

<br />

k∈Z2 j:|j−k|=1<br />

(σj − σk) 2 ha σ ∈ Σ +<br />

. (I7.1)<br />

Ha tehát ∂(σ) az olyan élek halmaza, amelyek két oldalán különböző előjelű σ(k) spinek<br />

ülnek, akkor H +<br />

Λ (σ) = 2Card ∂(σ) . Kontúrnak nevezzük és Γ-val jelöljük élek összefüggő<br />

halmazait.<br />

Valamely σ ∈ Σ +<br />

Λ konfiguráció valószínűségét<br />

p +<br />

Λ,β (σ) := exp−βH +<br />

Λ (σ)<br />

Z +<br />

Λ (β)<br />

, Z +<br />

<br />

Λ (β) =<br />

σ∈Σ +<br />

Λ<br />

exp −βH +<br />

Λ (σ)<br />

Λ<br />

(I7.2)


18<br />

definiálja, ahol β > 0 . Események ennek megfelelő valószínűségét P +<br />

Λ,β jelöli. Innen azonnal<br />

következik Peierls egyenlőtlensége: annak valószínűsége hogy egy Γ kontúr a konfiguráció<br />

∂ = ∂(σ) határának része,<br />

P +<br />

Λ,β [Γ ⊂ δ] ≤ exp −2β Card Γ . (I7.3)<br />

Mivel σ(0) = −1 csak úgy lehetséges hogy a σ ∈ Σ +<br />

Λ konfiguráció ∂(σ) határa tartalmaz<br />

olyan Γ kontúrt amelynek a rács 0 kezdőpontja a belsejében van, Peierls egyenlőtlensége<br />

szerint<br />

P +<br />

<br />

Λ,β [σ(0) = −1] ≤ P +<br />

Λ,β (AΓ)<br />

∞<br />

≤ C(n)e −2βn , (I7.4)<br />

Γ<br />

ahol AΓ ⊂ Σ +<br />

Λ a fent jellemzett konfigurációk halmaza, C(n) pedig a 0-t körülfogó n<br />

hosszúságú kontúrok száma. A legrövidebb kontúr hossza legalább 4 , és könnyen belátható<br />

hogy C(n) ≤ n3n , tehát az (I7.4) jobboldalán álló sor β > log √ 3 esetén már konvergens,<br />

és<br />

lim<br />

β→∞ sup P +<br />

Λ,β [σ(0) = −1] = 0 . (I7.5)<br />

Λ<br />

Eszerint akármilyen nagy is a Λ négyzet, a határán uralkodó +1 peremfeltétel az<br />

origóban is érvényesül ha β elég nagy. Ez a hosszú távú rend, másnéven elsőrendű<br />

fázisátalakulás, amit a következőképpen is körül lehet írni. A Λ → Z2 termodinamikai<br />

határátmenet elvégzése után olyan P +<br />

β eloszlást kapunk a végtelen konfigurációk terén,<br />

ami az (I7.4) becslésnek szintén eleget tesz: +<br />

Γ P β [AΓ] < +∞ ha β > log √ 3 . Később<br />

megmutatjuk (Borel–Cantelli lemma) hogy ilyenkor az AΓ események közül csak véges sok<br />

következhet be, tehát a 0-t (illetve bármely másik rácspontot is), csak véges sok kontúr<br />

veszi körül. Ezt úgy is elmondhatjuk hogy a +1 spinek összefüggő tengerében véges szigetek<br />

a kontúrokkal határolt tartományok. Ezek határának belső oldalán csak −1 spinek vannak,<br />

de beljebb még lehetnek +1 tavak is, és igy tovább; az a lényeges hogy ez a hierarchia<br />

véges. A feladat a σ(k) → −σ(k) transzformációval szemben invariáns, ezért β > log √ 3<br />

esetén a −1 spinek tengerével jellemezhető P −<br />

β eloszlás is megvalósul. A matematikai fizika<br />

stílusában mondjuk, hogy P +<br />

−<br />

β , illetve Pβ írja le a pozitív, illetve negatív mágnesezettségű<br />

fázisokat. Fázisátmenet gyakran jár együtt valamilyen szimmetria sérülésével. Az előző<br />

szakaszban bizonyított határeloszlástétel átvitele az Ising modell esetére a matematika<br />

egyik legnehezebb, megoldatlan problémája.<br />

I.8. Markov láncok: Az X diszkrét halmazon adott p(x, y) , x, y ∈ X kétváltozós<br />

nemnegatív függvény sztochasztikus mátrix ha Σy∈Xp(x, y) = 1 minden x ∈ X esetén<br />

teljesül. Jelölje ΩX az X halmazból képezhető ω = (ω0, ω1, ..., ωn, ...) végtelen sorozatok<br />

terét, és tekintsük a ξt(ω) := ωt változókat, ahol t ≥ 0 egész. Ha a µ(x) = P [ξ0 =x] kezdeti<br />

eloszlás adott, vagyis µ(x) ≥ 0 és <br />

x∈X µ(x) = 1 , akkor ξ0, ξ1, ..., ξt együttes eloszlását<br />

definiálhatjuk a<br />

P [ξ0 = x0, ξ1 = x1, ξ2 = x2..., ξt−1 = xt−1, ξt = xt] (I8.1)<br />

n=1<br />

= µ(x0)p(x0, x1)p(x2, x3) · · · p(xt−2, xt−1)p(xt−1, xt)


képlettel, mivel a jobboldalon álló számok összege éppen 1 . Figyelemre méltó hogy xt ∈ X<br />

szerint összegezve ugyanazt kapjuk ξ0, ξ1, ..., ξt−1 együttes eloszlására, mint amit közvetlenül<br />

feírtunk volna, vagyis a fenti együttes eloszlások kompatibilisak. Mivel<br />

P [ξt+1 = y|ξt = x, ξt−1 = xt−1, ..., ξ0 = x0] = P [ξt+1 = y|ξt = x] = p(x, y) , (I8.2)<br />

azt mondjuk hogy ξ0, ξ1, ..., ξt, ... a µ kezdeti eloszlással és p átmeneti valószínűséggel adott<br />

(homogén) Markov lánc. Azt is könnyű ellenőrizni, hogy<br />

P [ξ1 = y] = <br />

µ(x)p(x, y) , P [ξt = y|ξ0 = x] = pt(x, y) , továbbá<br />

x∈X<br />

µt(y) : = P [ξt = y] = <br />

µ(x)pt(x, y) , ahol p1 =p,<br />

x∈X<br />

pt+s(x, y) = <br />

ps(x, z)pt(z, y) , s, t ∈ N , (I8.3)<br />

z∈X<br />

vagyis pn a p mátrix n-ik hatványa. A feltételes várható érték P t operátora ϕ : X ↦→ R<br />

függvényeken hat, P = P 1 és<br />

P t ϕ(x) := E[ϕ(ξs+t)|ξs = x] = <br />

pt(x, y)ϕ(y) , (I8.4)<br />

x∈X<br />

y∈X<br />

Eϕ(ξt) = <br />

ϕ(x)µt(x) = µP t ϕ = <br />

µ(x)pt(x, y)ϕ(y) .<br />

x∈X y∈X<br />

A fenti összefüggések Chapman-Kolmogorov egyenletek néven ismertek. Akkor is érvényesek<br />

ha t = 0 , mert p0(x, y) = δ(x, y) := 1 ha x = y , egyébként 0 . Eszerint P 0 az identitás<br />

operátora.<br />

A Markov lánc, illetve a µ eloszlás stacionárius ha µt = µP t nem függ az időtől, vagyis µ<br />

a p mátrix baloldali sajátvektora 1 sajátértékkel. Olyan Markov láncot amelynél valamely<br />

előírt λ = λ(x) eloszlás stacionárius, legkönnyebben a reverzibilitás (mikroszkópikus egyensúly)<br />

λ(x)p(x, y) = p(y, x)λ(y) egyenletének segítségével konstruálhatunk meg. Ez a tulajdonság<br />

annyit jelent hogy a λ reverzibilis mérték stacionárius, és az időben visszafelé haladó<br />

folyamat az eredetivel azonos: P [ξt = x|ξt+1 = y] = p(y, x) . A feladatnak sok megoldása<br />

van, a p mátrix főátló fölötti elemeit jóformán tetszés szerint választhatjuk meg.<br />

Monte Carlo módszerek: Számítógépes kísérletek kivitelezéséhez célszerű olyan mátrixot<br />

választani aminek csak a főátló közelében álló elemei pozitívak, és λ az egyetlen stacionárius<br />

állapota. Card X gyakran csillagászati szám, ilyenkor aligha van más lehetőségünk mint<br />

hogy a bennünket érdekő λ eloszlást egy alkalmasan választott Markov lánc reverzibilis<br />

mértékeként realizáljuk. Ha pt(x, y) → λ(y) ∀x, y ∈ X amint t → +∞ , akkor λ szimulálható<br />

a ξt sorozat generálásával: az így kapott ξn véletlen elem közelítőleg λ eloszlású<br />

lesz.<br />

Például, az (I7.2) Ising modell, vagyis λ(σ) = p +<br />

Λ,β<br />

19<br />

(σ) esetében úgy járhatunk el, hogy<br />

az algoritmus aktuális lépéseként egy (véletlenszerűen) kiválasztott k ∈ Λ rácspontban az<br />

ott ülő σk spint p(σ, Tkσ) vaószínűséggel átfordítjuk, a többit békén hagyjuk. Itt Tk a


20<br />

σk → −σk , σj → σj ha j = k transzformációt jelöli, és a λ(σ)p(σ, Tkσ) = λ(Tkσ)p(Tkσ, σ)<br />

egyenletnek is teljesülni kell. Megjegyezzük hogy<br />

λ(σ)<br />

λ(Tkσ) = exp2βσkhk(σ) <br />

(I8.5)<br />

alakú, ahol hk(σ) nem függ sem a σk , sem a σj , |j − k| > 0 értékéktől, tehát könnyű<br />

kiszámolni. Mivel p(σ, Tkσ) + p(σ, σ) = 1 , csak a p(σ, Tkσ) értékeket kell meghatározni,<br />

sok lehetőség van. A Metroplis–Teller eljárás a<br />

<br />

α ha σk = +1 ,<br />

p(σ, Tkσ) =<br />

αe2βσkhk(σ) (I8.6)<br />

ha σk = −1<br />

választáson alapul, ahol α > 0 olyan kicsi hogy p(σ, Tkσ) ne lehessen több mint egy. A<br />

Glauber tipusú algoritmusnál p(σ, Tkσ) + p(Tkσ, σ) = 1 , amiből a jellegzetes<br />

p(σ, Tkσ) = 1<br />

<br />

1 − σk tanh<br />

2<br />

βhk(σ) <br />

(I8.7)<br />

képlet adódik. A rács bejárásának módja nem igazán sorsdöntő, fontosak a megvalósíthatóság<br />

szempontjai. A következő szakasz tétele egyszerű, csak véletlen kiválasztásnál<br />

működik. Maga az algoritmus úgy működik, hogy lépésenként sorsoljuk az ηt függetlenés<br />

E(0, 1) változókat, és az esedékes Tk transzformációt ηt < p(σ, Tkσ) esetén hajtjuk végre.<br />

Közel független E(0, 1) sorozat például a következő módszerrel generálható. Egyszerű<br />

számelméleti tény hogy ha α irracionális, akkor a ζn := [αn] számsorozat egyenletes<br />

eloszlású a (0, 1) intervallumban; hogy független is legyen, ki kell ritkítani. Mivel irracionális<br />

szám a gépen nincs, az ηn = [a n q/p] választással élhetünk, ahol a és q egész<br />

számok, és ami a legfontosabb, p igen nagy törzsszám.<br />

I8.F1: Az (I7.1) analógiájára definiált egydimenziós Ising modell Markov lánc!<br />

I8.F2: Adott µ = µ(x) kezdeti eloszlás és p = p(x, y) x, y ∈ N átmeneti valószínűséghez<br />

konstruálandó olyan ξt : [0, 1) ↦→ N sorozat melynek együttes eloszlása – a Lebesgue mérték<br />

szerint – éppen (I8.1).<br />

I.9. Ergodikus Markov láncok: Központi kérdés valamely λ = λ(x) stacionárius<br />

eloszlás stabilitása, a limt→∞ µt(x) = λ(x) ∀x ∈ X probléma. Tegyük fel hogy a lánc<br />

(illetve X) összefüggő és nem periodikus: minden x, y ∈ X párhoz van olyan t = tx,y<br />

időpont hogy pt(x, y) > 0 , továbbá pt(x, x) > 0 ha t ≥ tx ∀x ∈ X . Ilyenkor λ(x) > 0<br />

mindig igaz mert <br />

x∈X λ(x) = 1 > 0 . Hasznos segédeszköz a két eloszlás különbözőségét<br />

jellemző<br />

I[µ|λ] := <br />

x∈X<br />

µ(x) log µ(x)<br />

λ(x)<br />

<br />

= sup ϕ(x)µ(x) − log<br />

ϕ<br />

x∈X<br />

<br />

e<br />

x∈X<br />

ϕ(x) <br />

λ(x)<br />

(I9.1)<br />

relatív entrópia (I-divergencia). Mivel log x ≥ 1 − 1/x , I[µ|λ] ≥ 0 , és I[µ|λ] = 0 csak úgy<br />

lehetséges ha µ = λ , amiből (I9.1) második egyenlete a ϕ(x) = log(µ(x)/λ(x)) választással<br />

következik.


Tegyük fel hogy a λ eloszlás stacionárius, és a µ = µ(x) kezdeti eloszlás I[µ|λ] entrópiája<br />

véges, ekkor az I[µt|λ] sorozat nem növekszik mert az alábbi különbség is I-divergencia:<br />

I[µs|λ] − I[µs+t|λ] = <br />

x,y∈X<br />

µs(x)pt(x, y) log µs(x)pt(x, y)<br />

µs+t(y)qt(y, x)<br />

21<br />

≥ 0 , (I9.2)<br />

ahol qt(y, x) := λ(x)pt(x, y)/λ(y) a λ eloszlással indított stacionárius, de időben visz-<br />

szafelé haladó Markov lánc átmeneti valószínűsége, tehát <br />

x,y∈X µs+t(y)qt(y, x) = 1 .<br />

Eszerint I[µs|λ] − I[µs+t|λ] = I[µs · pt|µs+t · qt] , ahol a µ · p := µ(x)p(x, y) rövidítést<br />

használjuk az X × X szorzattéren adott eloszlások jelölésére. Eszerint (I9.1) jobboldala<br />

csak akkor 0 ha teljesül a pt(x, y)µs(x)/λ(x) = pt(x, y)µs+t(y)/λ(y) azonosság, vagyis<br />

µs+t(y)/λ(y) = µs(x)/λ(x) hacsak pt(x, y) > 0 . Ha tehát I[¯µ|λ] < +∞ és ¯µ a lánc<br />

stacionárius állapota, akkor az s = 0 és t = tx,y választással a fenti egyenlőség minden<br />

x, y ∈ X esetén igaz, ami csak úgy lehetséges ha ¯µ(x) = λ(x) ∀x ∈ X .<br />

A diagonális eljárással kiválasztható a µt sorozat valamely ¯µ torlódási pontja: ¯µ(x) =<br />

limn→∞ µsn (x) ∀x ∈ X , ahol az sn → +∞ részsorozat nem függ x-től. Legyen φ : X×X ↦→<br />

R korlátos, ekkor<br />

<br />

x,y∈X<br />

<br />

x,y∈X<br />

φ(x, y)¯µ(x)pt(x, y) = lim<br />

e φ(x,y) ¯µt(y)qt(y, x) = lim<br />

<br />

n→∞<br />

x,y∈X<br />

<br />

n→∞<br />

x,y∈X<br />

φ(x, y)µsn (x)pt(x, y) ,<br />

e φ(x,y) µsn+t(y)qt(y, x) ,<br />

(I9.3)<br />

tehát (I9.1) és (I9.2) alapján I[¯µ · pt|¯µt · qt] = 0 ∀t ∈ N . Emiatt azt várjuk hogy ¯µ<br />

stacionárius eloszlás.<br />

Azt hogy <br />

x∈X ¯µ(x) = 1 , onnan tudjuk hogy található olyan ψ > 0 függvény amely<br />

rendelkezik a eψ(x) λ(x) = C < +∞ , továbbá a Card[ψ > α] < ∞ ∀ α > 0 tulajdonságokkal,<br />

tehát (I9.1) szerint<br />

αµt[ψ > α] ≤ <br />

ψ(x)µt(x) ≤ I[µt|λ] + log C , (I9.4)<br />

x∈X<br />

vagyis µt[ψ ≤ α] értéke – t-től függetlenül – tetszőlegesen közel marad 1-hez ha α elég<br />

nagy.<br />

Azt kell még igazolni hogy ¯µ stacionárius. Mivel a lánc nem periodikus, ¯µ(x) = ¯µt(x)<br />

hacsak t ≥ tx , de ugyanígy kapjuk hogy t ≥ t(x) esetén ¯µ1(x) = ¯µt+1 = ¯µt(x) = ¯µ(x) .<br />

Azt már tudjuk hogy innen ¯µ = λ is következik, vagyis λ az egyetlen véges entrópiájú<br />

stacionárius eloszlás, és limt→∞ µt(x) = λ(x) ∀ x ∈ X . Ez a Markov lánc ergodikus .<br />

I.10. A tükrözési elv: A már korábban is megismert 1-dimenzós szimmetrikus bolyongás<br />

olyan ζt Markov lánc melynek fázistere X = Z d , és p(x, y) = 1/2 ha |x − y| = 1 , más<br />

átmenet nem lehetséges. Ez a Markov lánc nem ergodikus mert nincs stacionárius eloszlása:<br />

pt(x, y) → 0 ∀x, y ∈ X amikor t → +∞ , de számos érdekes tulajdonsága van. Legyen<br />

r, n ∈ N , és ha van, jelölje τ < n az első olyan t időpontot ahol ζt = r . A pálya τ utáni


22<br />

szakaszát az r szinten haladó egyenesre tükrözve kölcsönösen egyértelmű megfeleltetést<br />

kapunk az r fölött és az alatta végződő pályák között, tehát<br />

P max<br />

t≤n ζt ≥ r = P [ζn = r] + 2P [ζn > r] (I10.1)<br />

a jobboldalon binomiális valószínűségek vannak. Ez a látványos trükk a statisztikától<br />

a parciális differenciálegyenletek elméletéig, számos helyen számtalan változatban alkalmazható.<br />

I.11. Tönkremenetel egyszerű játékban: Az aszimmetrikus bolyongás is Markov,<br />

fázistere X = Z míg p(x, x + 1) = p = 1/2 , p(x, x − 1) = 1 − p . Legyen a, b, x ∈ Z és jelölje<br />

ua,b(x) annak valószínűségét hogy az x ∈ [a, b] helyről induló bolyongás előbb éri el a b<br />

mint az a szintet. Persze ua,b(a) = 0 , ua,b(b) = 1 , és a teljes valószínűség tétele miatt<br />

ua,b(x) = p ua,b(x + 1) + (1 − p) ua,b(x − 1) ha a < x < b (I11.1)<br />

Az adott peremfeltétellel (I11.1) egyértelműen oldható meg: ua,b(x) = (x − a)/(b − a)<br />

ha p = 1/2 , egyébként pedig ua,b(x) = α(e βx − γ) ahol pe β + (1 − p)e −β = 1 , vagyis<br />

e β = −1 + 1/p , továbbá γ = e βa és α(e βb − e βa ) = 1 , ahonnan<br />

ua,b(x) = eβx − eβa eβb − eβa 1 − p<br />

ahol β = log<br />

p<br />

(I11.2)<br />

A p → 1/2 határátmenet után persze lineáris profilt kapunk, de ennél érdekesebb a<br />

p = 1/2 − ε/2 , a = 0 és b = 1/ε ’gyengén aszimmetrikus‘ határátmenet, amikoris (I11.1)<br />

mint az 1<br />

2∂2 xu − ∂xu = 0 ; u(0) = 0 , u(1) = 1 elliptikus peremérték feladat numerikus<br />

megoldásának algoritmusa jelenik meg. Ennek megoldása tényleg<br />

u(x) = lim<br />

ε→0 u 0,1/ε(x/ε) = lim<br />

ε→0<br />

1 − ε<br />

2ε<br />

amit (I3) módszerével is érdemes levezetni.<br />

1 + ε<br />

<br />

x/ε<br />

− 1 =<br />

1 − ε<br />

e2x − 1<br />

e2 − 1<br />

(I11.3)<br />

I.12. Kedvezőtlen helyzetben merész a jó játékos: Szerencsejátékos pénze n játszma<br />

után<br />

n−1 <br />

ζn := x + γ(ζt)(2ωt+1 − 1) (I12.1)<br />

t=0<br />

ahol x ∈ N a játékos induló tőkéje, ωt független 0 − 1 sorozat, P [ωt = 1] = p < 1/2 , míg<br />

γ : N ↦→ N a játékos stratégiája: γ(y) az a tét amit y tőke birtokosaként kockáztat. A<br />

cél az előre kitűzött r > x összeg megszerzése, feltehetjük hogy γ, r ∈ N és 0 < γ(y) ≤<br />

˜γr(y) := min{y, r − y} . Legyen ur,γ(x) a cél elérésenek valószínűsége γ stratégia esetén, és<br />

jelölje τ azt a véletlen időpontot amikor a játszma véget ér: ζτ = 0 ha tönkremegy, ζτ = r<br />

ha sikeres. A feladat az u ∗ r(x) := maxγ ur,γ(x) optimum megvalósítása. Mivel<br />

τ−1 <br />

Zr,γ(x) := Eζτ = x + (2p − 1)E γ(ζt) = r ur,γ(x) , (I12.2)<br />

t=0


optimális stratégia esetén az átlagos pénzforgalom, (Zr,γ(x) − x)/(1 − 2p) minimális. A<br />

nagy számok törvénye szerint ez egyáltalán nem meglepő, az igazságtalan játékot olyan<br />

gyorsan be kell fejezni, ahogy csak lehet. Ha tehát r páros és x = r/2 , akkor nyilván a<br />

merész játék optimális: u ∗ r(r/2) = ur,˜γ(r/2) = p .<br />

Általában is igaz hogy 1 ≤ x < r esetén<br />

u ∗ r(x) = max<br />

k {pu∗ r(x + k) + (1 − p)u ∗ r(x − k) : 1 ≤ k ≤ ˜γr(x)} (I12.3)<br />

ami az optimális kontroll elméletének Bellman féle alapelve: optimális stratégia minden<br />

lépése (szakasza) is az. Először azt mutatjuk meg hogy az u ∗ r(0) = 0 és u ∗ r(r) = 1<br />

peremfeltétel mellett (I12.3) egyértelműen oldható meg. Tegyük fel hogy ũr is megoldás,<br />

vr(x) := u ∗ r(x)−ũr(x) , ¯vr := maxx vr(x) , és y ∈ N a legkisebb olyan szám hogy ¯vr = vr(y) .<br />

Mivel bk ≥ ak esetén maxk bk − maxk ak ≤ maxk(bk − ak) , ha y > 0 volna akkor lenne<br />

olyan k > 0 hogy ¯vr = pvr(y +k)+(1−p)vr(y −k) , tehát valójában y = 0 , és így u ∗ r = ũr .<br />

Legyen ũr(x) a merész játékos sikerének valószínűsége, ezt az<br />

<br />

pũr(2x) ha x ≤ r/2<br />

ũr(x) =<br />

p + (1 − p)ũr(2x − r) ha x ≥ r/2<br />

23<br />

(I12.4)<br />

rekurzió definiálja. Az r = 2 d egyszerűsítő feltevés mellett, indukcióval bizonyítjuk hogy<br />

ũr megoldja a (I12.3) Bellman egyenletet. Ehhez azt kell belátni hogy<br />

ũr(x) ≥ pũr(x + k) + (1 − p)ũr(x − k) ha 1 ≤ k ≤ ˜γr(x) ; (I12.5)<br />

(I12.4) szerint az egyenlőség biztosan teljesül ha k = ˜γr(x) . Tegyük fel hogy (I12.5) igaz,<br />

a ũ2r(2x) = ũr(x) azonosság miatt csak az x páratlan értékeivel van gond. Az indukció<br />

végrehajtásakor négy esetet kell szétválasztani.<br />

Ha x + k ≤ r akkor ũ2r(x) = pũ2r(2x) , míg ũ2r(x + k) = pũ2r(2x + 2k) és ũ2r(x − k) =<br />

pũ2r(2x − 2r) , de az indukciós feltevés és ũ2r(2x) = ũr(x) miatt<br />

ũ2r(x) = pũ2r(2x) = pũr(x) ≥ p 2 ũr(x + k) + p(1 − p)ũr(x − k)<br />

=p 2 ũ2r(2x + 2k) + p(1 − p)ũ2r(2x − 2k)<br />

= pũ2r(x + k) + (1 − p)ũ2r(x − 2) ha 1 ≤ k ≤ ˜γr(x)<br />

(I12.6)<br />

amit bizonyítani kellett.<br />

Ha x − k ≥ r akkor ũ2r számolása (I12.4) második sora alapján történik. Az indukciós<br />

lépés egyébként ugyanaz, mint fent; (I12.5) a 2x − 2r helyen alkalmazandó.<br />

Az r ≤ 2x ≤ 3r sávban az indukció kulcsa az önmagában is tanulságos<br />

2 p + (1 − p)ũ2r(2x − r) ha r ≤ 2x ≤ 2r<br />

ũ2r(x) =<br />

(I12.7)<br />

(1 − p)p + pũ2r(2x − r) ha 2r ≤ 2x ≤ 3r<br />

újabb azonosság, ami az első esetben<br />

ũ2r(x) = pũ2r(2x) = p 2 + p(1 − p)ũ2r(4x − 2r) = p 2 + (1 − p)ũ2r(2x − r)


24<br />

miatt, a második esetben pedig<br />

ũ2r(x) = p + (1 − p)ũ2r(2x − 2r) = p + (1 − p)pũ2r(4x − 4r) és<br />

ũ2r(2x − r) = p + (1 − p)ũ2r(4x − 4r)<br />

miatt igaz. A fennmaradó esetekben x + k ≥ r és x − k ≤ r , tehát r ≤ 2x ≤ 3r .<br />

Ha most r ≤ 2x ≤ 2r akkor (I12.7) és az induktív feltevés szerint<br />

ũ2r(x) = p 2 + (1 − p)ũ2r(2x − r) ≥<br />

p 2 + p(1 − p)ũ2r(2x + 2k − 2r) + (1 − p) 2 ũ2r(2x − 2k)<br />

viszont ũ2r(x + k) = p + (1 − p)ũ2r(2x + 2k − 2r) és ũ2r(x − k) = pũ2r(2x − 2k) , amiből<br />

p < 1 − p miatt állításunk következik.<br />

Ugyanígy ha 2r ≤ 2x ≤ 3r , akkor<br />

ũ2r(x) = (1 − p)p + pũ2r(2x − r)<br />

≥ (1 − p)p + p 2 ũ2r(2x + 2k − 2r) + p(1 − p)ũ2r(2x − 2k)<br />

Megint ũ2r(x+k) = p+(1−p)ũ2r(2x+2k−2r) és ũ2r(x−k) = pũ2r(2x−2k) felhasználásával<br />

hajthatjuk végre az indukció utolsó lépését is. Tehát a merész stratégia igazságtalan<br />

(p < 1/2) helyzetben optimális, legalábbis akkor ha r = 2 d .<br />

I12.F1**: A merész stratégia akkor is optimális ha r = 2 d !<br />

I.13. Óvatos stratégia kedvező helyzetben: Azt a szituációt vizsgáljuk amikor a<br />

játékos tőkéjének c ∈ [0, 1] hányadát kockáztatja minden játszmában, de most a játék<br />

előnyös. Feltehetjük hogy a kezdőtőke ζ0 = 1 , ekkor n játszma után<br />

n−1 <br />

ζn = 1 + (2ωt+1 − 1)c <br />

t=0<br />

(I13.1)<br />

a pénze, ahol ωt független 0−1 sorozat, P [ωt = 1] = p > 1/2 . Ekkor Eζn = 1+(2p−1)c n<br />

akkor maximális ha c = 1 , de ez a stratégia igen kockázatos mert P [ζn > 0] = p n . Viszont<br />

1<br />

n E log ζn = p log(1 + c) + (1 − p) log(1 − c) = max! ha c = 2p − 1 (I13.2)<br />

és a tőke növekedésének exponenciális sebessége éppen a log 2 − h(p) ≥ 0 relatív entrópia,<br />

ami csak akkor 0 ha p = 1/2 . Ha p < 1/2 akkor a számolás érvénytelen.<br />

I.14. Fogadások több lehetőségre: Sok ló közül a pályán az i nevű pi > 0 valószínűséggel<br />

nyer, p1 + p2 + · · · + pr = 1 . Fogadó pénzét S1 + S2 + · · · + Sr = S megosztással teszi<br />

fel, és ha i nyer akkor az ő nyeresége Vi = ciSi − S ; a ci ≥ 1 szorzókat az iroda határozza<br />

meg. Aki mindig ugyanannyival játszik, és αi = Si/S is állandó, annak exponenciális<br />

nyeréségrátája átlagosan<br />

J(α|p) =<br />

r<br />

pi log ciαi ≤<br />

i=1<br />

r<br />

pi log cipi =: J ∗ (p) (I14.1)<br />

i=1


ahol egyenlőség csak αi = pi ∀i esetén teljesül. Valóban, log αi ≤ log pi +(αi −pi)/pi miatt<br />

r<br />

pi log αi ≤<br />

i=1<br />

r<br />

i=1<br />

pi log pi ha<br />

r<br />

αi =<br />

i=1<br />

r<br />

i=1<br />

pi<br />

25<br />

(I14.2)<br />

és αi = pi az egyenlőség feltétele. Optimális stratégiához eszerint ismerni kell(ene) a pi<br />

sanszokat. Ha az iroda mohó, akkor elérheti hogy a nyerereség optimális rátája, J ∗ (p) < 0<br />

legyen, ami a fogadókat hosszútávon biztosan elkedvetleníti, tehát a mohóság visszaüt.<br />

Valódi pénzügyi – matematikai feladat a ci szorzók optimális megválasztása. Ha J ∗<br />

túlzottan negatív, akkor a haszonkulcs magas ugyan, de kicsi lesz a forgalom, és így a<br />

nyereség is. Persze nem J ∗ > 0 teszi az irodát veszteségessé, a fogadók többsége nyilván<br />

nem ért a lóhoz.<br />

I.15. A legszebb kiválasztása: Egyesével vonul el előttünk n hölgy, és a legszebbet<br />

úgy kellene megtalálni hogy némi szemlélődés után az éppen előttünk állóról kijelentjük:<br />

Ő az. Azt is mondhatjuk hogy n különböző szám van a kalapban, és nem tudjuk hogy a<br />

legnagyobb mekkora. Visszatevés nélkül húzzuk ki őket, tehát minden sorozat egyformán<br />

1/n! valószínűségű. Legyen ξk a k-ik húzás eredménye, ξ ∗ m := max{ξk : k ≤ m} . Azt<br />

az s időpontot kell meghatározni ameddig szemlélődünk, vagyis ξ ∗ t−1 = ξ ∗ s és ξ ∗ t > ξ ∗ s<br />

beköveztkeztekor ξt mellett döntünk. Feladatunk a siker<br />

p(s) =<br />

n<br />

t=s+1<br />

valószínűségének maximalizálása.<br />

Ha t > s és ξt = ξ ∗ n , akkor n-től visszafelé számolva<br />

tehát<br />

P [ξ ∗ s = ξ ∗ t−1 < ξt = ξ ∗ n] = 1<br />

n!<br />

P [ξ ∗ s = ξ ∗ t−1 < ξt = ξ ∗ n] (I15.1)<br />

<br />

n − 1<br />

t − 1<br />

p(s) = s<br />

n<br />

(t − 2)!<br />

(n − t)! s! =<br />

(s − 1)!<br />

n<br />

t=s+1<br />

akkor maximális ha s = s(n) az a szám, melynél<br />

n−1 <br />

t=s+1<br />

1<br />

t<br />

≤ 1 ≤<br />

1<br />

t − 1<br />

n−1 <br />

t=s<br />

1<br />

t<br />

s<br />

n(t − 1)<br />

(I15.2)<br />

(I15.3)<br />

(I15.4)<br />

Stratégiánk tehát a következő: az így meghatározott s = s(n) időpontig szemlélődünk,<br />

majd a soron következő, aktuális legszebbnél igent mondunk. Látható hogy s(n) ≈ n/e ,<br />

és a siker valószínűsége körülbelül 1/e .<br />

I15.F1: Bizonyítandó hogy P [ξt = ξ ∗ n] = 1/n , P [ξ ∗ t−1 = ξ ∗ s ] = s/(t − 1) ha t > s , végül a<br />

[ξt = ξ ∗ n] és a [ξ ∗ t−1 = ξ ∗ s ] események függetlenek.


26<br />

I15.F1: A ξt = ξ ∗ t ha νk = t feltétellel definiált 1 = ν0 < ν1 < ν2 < · · · időpontok sorozata<br />

Markov lánc, és P [νk+1 = t|νk = s] = s(t 2 − t) −1 ha t > s !<br />

I15.F2: Ha ρt az olyan s < t időpontok száma hogy ξs < ξt , akkor P [ρt = k] = 1/t ha<br />

0 ≤ k ≤ t − 1 , és a ρt sorozat független! (Major Péter gyűjteményéből.)<br />

I.16. Szimmetrikus bolyongás d dimenzióban: Olyan ζt Markov láncról van szó,<br />

melynek fázistere X = Z d , ζ0 = 0 , átmeneti valószínűsége pedig p(x, y) = 1/2d ha |x−y| =<br />

1 , egyébként p(x, y) = 0 . Mivel P [ζt = 0] = 0 ha t ∈ N páratlan, míg<br />

Pd(2n) := P [ζ2n = 0] =<br />

a Stirling formulával, tehát<br />

1<br />

(2d) 2n<br />

∞<br />

P [ζt = 0]) < +∞ ha d > 2 ,<br />

t=0<br />

<br />

2n <br />

n<br />

n1+···+nd=n<br />

n!<br />

n1!n2! · · · nd!<br />

2<br />

= O(n −d/2 ) (I16.1)<br />

∞<br />

P [ζt = 0]) = +∞ ha d ≤ 2 . (I16.2)<br />

t=0<br />

A később bizonyítandó Borel-Cantelli lemma szerint ez annyit jelent hogy d > 2 esetén<br />

majdnem biztos hogy ζt = 0 csak véges sokszor fordulhat elő.<br />

A d = 1, 2 estekben legyen Qd(n) annak a valószínűsége hogy n ∈ N az első időpont<br />

amikor ζn<br />

érvényes a<br />

= 0 , persze Qd(n) = 0 ha n páratlan. A teljes valószínűség tétele szerint<br />

n−1 <br />

Pd(n) = Qd(n) + Qd(t)Pd(n − t) (I16.3)<br />

t=1<br />

megújulási egyenlet, amit a z n = z t z n−t tényezővel végigszorozva és n ∈ N szerint összegezve,<br />

vagyis a generátorfüggvények módszerével lehet megoldani. Valóban, Gp(z) = Gq(z) +<br />

Gp(z)Gq(z) adódik, ahol<br />

Gp(z) :=<br />

∞<br />

z n Pd(n) és Gq(z) :=<br />

n=1<br />

∞<br />

z n Qd(n) ha |z| ≤ 1 ,<br />

n=1<br />

amiből a visszatérés P ∗ d = Gq(1) valószínűségére éppen<br />

P ∗ d =<br />

∞<br />

n=1<br />

Qd(n) = lim<br />

z→1<br />

∞ n=1 znPd(n) 1 + ∞ n=1 zn , (I16.4)<br />

Pd(n)<br />

adódik. Ezzel igazoltuk Pólya György tételének hiányzó részét: a bolyongás egy valószínűséggel<br />

(majdnem biztosan) visszatér a kezdőpontba ha d < 3 .<br />

I.17. Végtelen sok valószínűségi változó együttes eloszlása: Az eddigi elemi<br />

tárgyalás során is több helyen hiányolhattuk a címben megnevezett objektumot; ezek közül<br />

a legfeltűnőbb az 1 valószínűséggel kimondott állítások pontos értelmezésének hiánya. A<br />

Markov láncokról szóló rész jelöléseivel legyen At a [ξ0 = x0, ξ1 = x1, ..., ξt = xt] alakú


halmazok egyesítéseiből álló halmazrendszer, továbbá A∞ := {At : t ∈ Z+} . Valamely<br />

A ∈ At esemény olyan sorozatokból áll, amelyek t utáni koordinátái már tetszőlegesek: ha<br />

ω ∈ A és k ≤ t esetén ωk = ω ′ k , akkor ω′ ∈ A is igaz. Mondhatjuk hogy At a t időpontig<br />

megfigyelhető események halmaza, At ⊂ At+1 , és mindegyik At , így A∞ is halmazalgebra:<br />

a halmazokkal végezhető műveletek egyikből sem vezetnek ki.<br />

Az együttes eloszlások kompatibilitása miatt – ami a többi esetben is érvényes volt<br />

– bármely A ∈ A∞ halmaz P (A) valószínűsége egyértelműen definiálható, méghozzá úgy<br />

hogy P (A∪B) = P (A)+P (B) ha A∩B = ∅ , továbbá P (ΩX) = 1 , P (∅) = 0 . Megmutatjuk<br />

hogy ez a P halmazfüggvény folytonos: limn→∞ P (An) = 0 ha An ∈ A∞ olyan fogyó<br />

sorozat melynek közös része üres. Ez nem kevesebbet jelent mint hogy P mérték (σadditív<br />

halmazfüggvény) az A∞ halmazalgebrán, tehát egyértelműen terjeszthető ki az<br />

A∞ által generált A σ-algebrára.<br />

Egyszerűség kedvéért legyen X véges halmaz, azt a pusztán logikai állítást igazoljuk<br />

hogy ∩An = ∅ miatt An = ∅ ha n elég nagy. Jelölje Un,0 ⊂ X az ω ∈ An sorozatok<br />

kezdőtagjainak (0 indexű koordináták) halmazát: Un,0 := {ξ0(ω) : ω ∈ An} . Éppúgy mint<br />

An , az Un,0 sorozat is fogyó. Ha tehát Un,0 = ∅ , akkor van olyan n0 küszöbszám hogy<br />

Un,0 = ∅ , vagyis An = ∅ ha n ≥ n0 ; ilyenkor nincs több gond. Az ellenkező esetben<br />

kiválasztható egy x0 ∈ Un,0 elem, és az eljárás a következőképpen folytatható. Legyen<br />

Un,1 az olyan ω ∈ An sorozatok második (1 sorszámú) koordinátáinak halmaza, ahol az<br />

első koordináta éppen x0 . Ha ∩Un,1 nem üres, akkor az első két koordináta rögzítése után<br />

nézhetjük a harmadikat, és így tovább. Ha az eljárás valamikor megakad, akkor csak<br />

véges sok An nem üres, tehát nincs mit bizonyítani. Ha nem, akkor ellentmondáshoz<br />

jutunk mert olyan ω∗ = (x0, x1, ..., xn, ...) sorozatot sikerülne kiválasztani, ami mindegyik<br />

An halmazban benne van. Ez volt Kolmogorov alaptételének a gondolatmenete, amivel a<br />

Lebesgue mérték, és számos más eloszlás létezését is bizonyíthatnánk. A fenti konstrukció<br />

a Lebesgue mérték létezését is bizonyítja, másrészt abból következik. Értéke az hogy akkor<br />

is működik amikor X teljes szeparábilis metrikus tér!<br />

A. Általános Elmélet<br />

A sztochasztikus modellek általános sémáját és a számolás szabályait foglaljuk össze. A<br />

mérték és integrál absztrakt elméletének nyelvét használjuk, de csak néhány alapvető<br />

összefüggés ismeretére van szükség. Sok a nagyvonalúan vázolt gondolat.<br />

A.1. Valószínűségi mező: Véletlen tömegjelenségek absztrakt matematikai modellje<br />

valamely (Ω, A, P ) mértéktér, ahol Ω adott halmaz, az eseménytér, elemei az ω elemi<br />

események (realizációk). Az eseményalgebra, A az Ω részhalmazaiból álló σ-algebra; vagyis<br />

Ω ∈ A és A zárt a halmazalgebrai műveletekre nézve, még akkor is, ha megszámlálható<br />

sokszor ismételjük őket. Ezek az egyesítés (összeadás): A + B ≡ A ∪ B , metszet (szorzat):<br />

AB ≡ A ∩ B , komplementer: Ā ≡ A c = Ω\A , különbség: A − B ≡ A\B = A ¯ B ,<br />

szimmetrikus különbség: A∆B := (A − B) + (B − A) , és az ő kombinációik. A De-<br />

Morgan azonosság, A + B = Ā ¯ B segítségével minden összetett művelet felépíthető az<br />

egyesítés (vagy metszetképzés) és a komplementumképzés segítségével. Az A elemeit<br />

eseményeknek nevezzük, és azt monjuk hogy A ∈ A bekövetkezett, ha A ∋ ω . Végül<br />

27


28<br />

P , a valószínüségi mérték nemnegatív, normált és σ-additív halmazfüggvény A-n, vagyis<br />

P olyan mérték (Ω, A)-n hogy P (Ω) = 1 . Ezek szerint P (A) = <br />

n P (An) ha az A esemény<br />

a páronként diszjunkt An események véges vagy megszámlálható rendszerének egyesítése,<br />

továbbá P (A) + P (B) = P (A ∪ B) + P (A ∩ B) ; 0 ≤ P (B) ≤ P (A) ≤ 1 ha B ⊂ A , és<br />

ilyenkor P (A \ B) = P (A) − P (B) , végül<br />

P (A) ≤ <br />

P (An) ha A ⊂ <br />

An , P (A) = lim<br />

n→∞ P (An) (A1.1)<br />

n<br />

ha az An események fogyó sorozatának metszete, vagy növő sorozaának egyesítése éppen<br />

A . Események feltételes valószinűsége és függetlensége ugyanúgy definiálható mint az első<br />

szakaszban; a teljes valószínűség (O1.4) képlete persze végtelen sok eseménnyel is igaz lesz.<br />

(A1.1) a mérték folytonosságának (σ-additivitás) következménye, innen kapjuk a Borel-<br />

Cantelli lemma első állítását: Ha An ∈ A , n ∈ N olyan eseménysorozat hogy<br />

+∞<br />

n=1<br />

P (An) < +∞ akkor P ∞ <br />

n<br />

<br />

n=1 m>n<br />

<br />

Am = 0 , (A1.2)<br />

vagyis 1 annak a valószínűsége hogy az An események közül csak véges sok következik be.<br />

Valószínűségi mező prototípusa a [0, 1] intervallum és a Lebesgue mérték, vagyis Ω =<br />

[0, 1] , A a (Lebesgue-) mérhető halmazok σ-algebrája, míg P (A) az A ∈ A halmaz<br />

Lebesgue mértéke (hossza). A Borel-Cantelli lemma szerint a nagy számok (I2.1) gyenge<br />

törvénye a sokkal erősebb P [limn→∞ Sn/n = 1/2] = 1 formában is igaz.<br />

Ha Ω ⊂ Rd véges térfogatú, akkor valamely A ⊂ Ω (mérhető) halmaz P (A) valószínűsége<br />

definiálható az A és Ω térfogatának hányadosaként. Ilyenkor is egyenletes (geometriai)<br />

eloszlásról beszélünk. Általánosabban, ha H : Rd ↦→ R alulról korlátos, β > 0 és<br />

∞ ∞ ∞<br />

ZH,β = · · · exp −βH(x1, x2, ..., xd) dx1dx2 · · · dxd < +∞ (A1.3)<br />

−∞<br />

−∞<br />

−∞<br />

akkor fH,β(x1, x2, ..., xd) := (ZH,β) −1 exp −βH(x1, x2, ..., xd) integrálja 1 , vagyis fH,β<br />

sűrűségfüggvény Rd-n, és így<br />

<br />

PH,β(A) :=<br />

valószínűségi mérték az Ω = R d eseménytéren.<br />

A<br />

fH,β(x) dx , ahol x = (x1, x2, ..., xd) (A1.4)<br />

A1.F1: Legyen An ∈ A tetszőleges sorozat; a halmazalgebrai műveleletekkel adja meg<br />

az A0 := [csak véges sok An következik be] ≡ ω ∈ Ω : #{n : ω ∈ An} < ∞ , A∞ :=<br />

[végtelen sok következik be] és az A ∗ ∞ := [véges kivétellel mind bekövetkezik] eseményeket!<br />

Hogyan fogalmazhatók meg ezek az állítások az indikátorváltozók segítségével?<br />

A1.F2: Bizonyítandó hogy |P (A) − P (B)| ≤ P (A∆B) =: d(A, B) távolság A-ban!<br />

A1.F3 ∗ : Ha (Ω, A, P ) teljes, vagyis A tartalmazza a nullahalmazokat, akkor az F3-ben<br />

definiált (A, d) metrikus tér teljes, és benne minden generáló részalgebra sűrű! Ez az<br />

észrevétel a mérték kiterjesztésének új módszerét adja.


A.2. Valószínűségi változók: A számunkra érdekes eseményeket általában egy vagy<br />

több ξ : Ω ↦→ X leképezés ξ−1 (U) ≡ [ξ ∈ U] := {ω ∈ Ω : ξ(ω) ∈ U} szinthalmazaiként<br />

jelöljük ki, ahol U ⊂ X az X képtér részhalmazainak valamely kitüntetett X osztályából<br />

való. Feltesszük hogy X is σ-algebra, ugyanúgy, mint A , és azt mondjuk hogy ξ (absztrakt)<br />

valószínűségi változó ha U ∈ X esetén [ξ ∈ U] ∈ A , vagyis ξ mérhető, tehát beszélhetünk a<br />

P [ξ ∈ U] valószínűségekről. Megjegyzésre érdemes hogy a ξ−1 halmazfüggvény megtartja<br />

a halmazalgebrai műveleteket: [ξ ∈ U ∪ V ] = [ξ ∈ U] ∪ [ξ ∈ V ] , [ξ ∈ Ū] = [ξ ∈ U] ,<br />

stb. nyilvánvaló logikai azonosságok. Eszerint azok az U ⊂ X halmazok amelyeknél<br />

[ξ ∈ U] ∈ A , σ-algebrát alkotnak, tehát a mérhetőség [ξ ∈ U] ∈ A feltételét elég egy olyan<br />

X0 ⊂ X halmazrendszer esetén ellenőrizni, amely generálja X -et, vagyis X az összes X0-t<br />

tartalmazó σ-algebra közös része (metszete). Az X = R vagy Rd esetekben X0 szerepét az<br />

intervallumok (kockák, gömbök) játsszák.<br />

A ξ : Ω ↦→ (X, X ) és η : Ω ↦→ (Y, Y) változók együttes eloszlását a P [ξ ∈ U, η ∈ V ] ,<br />

U ∈ X , V ∈ Y valószínűségek határozzák meg, az eredmény az (X, X ) × (Y, Y) szorzattéren<br />

adott valószínűségi mérték. ξ és η akkor független, ha a P [ξ ∈ U, η ∈ V ] =<br />

P [ξ ∈ U]P [η ∈ V ] szorzási szabály minden U ∈ X és V ∈ Y párral teljesül, tehát az<br />

együttes eloszlásuk szorzatmérték. Független változók függvényei is függetlenek. Több<br />

valószínűségi változó függetlenségét analóg módon definiáljuk: az együttes eloszlás az egyes<br />

változók eloszlásainak (peremeloszlások) szorzata. Eszerint (O1.8) általános érvényű, sőt<br />

változók független csoportjainak függvényei is függetlenek.<br />

A függetlenség eldöntésekor nem elég generáló halmazrendszerre szorítkozni, az U, V<br />

stb. halmazokat olyan rendszerből kell választani, amely a mérték meghatározására is<br />

alkalmas. Ilyenek például a mérték kiterjeszthetőségéről szóló Caratheodory tételben szereplő<br />

félgyűrűk vagy halmazalgebrák. A ξ valószínűségi változó eloszlása a µξ = µξ(U) :=<br />

P [ξ ∈ U] , U ∈ X transzformációval definiált valószínűségi mérték.<br />

Nincs probléma a diszkrét esetben, ilyenkor X legfeljebb megszámlálható halmaz, X<br />

pedig az X összes részhalmazából áll. Az első szakaszban bevezetett fogalmak érdemi<br />

változtatás nélkül alkalmazhatóak.<br />

Valós értékű ξ : Ω ↦→ R változók esetében X mindig az intervallumok félgyűrűje által<br />

generált Borel σ-algebra. Tehát ξ akkor mérhető, ha az [a ≤ ξ < b] szinthalmazok mind<br />

az A eseményalgebra elemei. Az Fξ(x) := P [ξ < x] monoton és balról folytonos függvény<br />

a ξ eloszlásfüggvénye, P [a ≤ ξ < b] = Fξ(b) − Fξ(a) , P [ξ ≥ x] = 1 − Fξ(x) .<br />

A.3. Valós változó várható értéke: Az Eξ := ∫Ω ξ dP absztrakt definició a következő<br />

képpen konkretizálható: Ha ξ ≥ 0 akkor Eξ = limn Eξn = supn Eξn , ahol ξn a ξ értékének<br />

n jegyre történő kerekítésével kapott diszkrét változó. Az általános esetben Eξ a ξ pozitív<br />

és negatív része várható értékeinek különbsége, feltéve hogy az nem ∞ − ∞ alakú. A<br />

várható érték monoton, homogén és additív funkcionál, Eξ ≤ Eη ha ξ ≤ η és α, β ∈ R<br />

esetén E(αξ + βη) = αEξ + βEη , továbbá<br />

lim<br />

n→∞ Eξn = E lim ξn illetve E<br />

n<br />

∞<br />

ηn =<br />

n=1<br />

∞<br />

Eηn<br />

n=1<br />

29<br />

(A3.1)<br />

ha a ξn sorozat korlátos, illetve ha ηn ≥ 0 . A diszkrét esetben egyszerűen ellenőrizhető<br />

azonosságok, mint például (O1.7) vagy (O1.8), a fenti konstrukció, illetve (A3.1) segítségével<br />

az általános esetre is kiterjeszthetőek, (O1.6) bonyolultabb ügy.


30<br />

Ha Fξ differenciálható (abszolút folytonos), és fξ(x) := F ′ ξ (x) a sűrűségfüggvénye,<br />

továbbá ϕ : R ↦→ R folytonos (vagy mérhető), akkor<br />

∞<br />

Eϕ(ξ) = ϕ(x)fξ(x) dx (A3.2)<br />

−∞<br />

A valószínűség és a várható érték kapcsolatát P (A) = E1A adja, ahol 1A az A esemény<br />

indikátora: 1A(ω) = 1 ha ω ∈ A , egyébként pedig 1A = 0 . A monotonitás következménye a<br />

Markov egyenlőtlenség: P [ξ ≥ α] ≤ 1<br />

αE|ξ| ha α > 0 . A Borel-Cantelli lemma a ΣP (An) =<br />

EΣ1An azonosságból is levezethető.<br />

Nevezetes várható értékek: D2 (ξ) := E(ξ − Eξ) 2 = Eξ2 − (Eξ) 2 a ξ szórásnégyzete, a<br />

D(ξ) szórás ennek négyzetgyöke. Steiner tétele szerint E(ξ−a) 2 = D2 (ξ)+(a−Eξ) 2 , tehát<br />

D2 (ξ) = min {E(ξ − a) 2 : a ∈ R} , vagyis Eξ a ξ-t legjobban közelítő szám. Ha minden<br />

z ∈ R értéknél véges, akkor az Mξ(z) := Eezξ , z ∈ R momentum generáló függvény és<br />

a Ψξ(z) := Eeızξ karakterisztikus függvény egymás analitikus folytatásai. Előfordul hogy<br />

Mξ csak egy intervallumon definiált, aminek esetleg 0 az egyetlen pontja.<br />

A karakterisztikus függvény mindig létezik és folytonos, |Ψξ(z)| ≤ Ψξ(0) = 1 , továbbá<br />

Ψ ′ ξ (0) = ıEξ , illetve Ψ′′<br />

ξ (0) = −Eξ2 ha ezek a momentumok láteznek. Ha ξ abszolút<br />

folytonos eloszlású, akkor Ψξ az fξ sűrűségfüggvényének Fourier transzformáltja:<br />

∞<br />

Ψξ(z) =<br />

−∞<br />

e ızx fξ(x) dx , és így fξ(z) = 1<br />

2π<br />

∞<br />

−∞<br />

e −ızx ψξ(z) dz (A3.3)<br />

ha Ψξ integrálható, ami arra utal hogy Ψξ a ξ eloszlását egyértelműen meghatározza.(O1.8)<br />

szerint független változók összegének karakterisztikus függvénye a karakterisztikus függvények<br />

szorzata.<br />

A3.F1: Lehetséges-e hogy Ee ıξ = 1 ?<br />

A.4. Együttes eloszlások: Több változó együttes eloszlását a P [ξ1 ∈U1, ξ2 ∈U2, ..., ξn ∈<br />

Un] valószínűségek határozzák meg. Ha<br />

<br />

Eϕ(ξ1, ξ2, ..., ξn) = ϕ(x1, x2, ..., xn) f(x1, x2, ..., xn) dx1dx2 · · · dxn (A4.1)<br />

R n<br />

például minden folytonos és korlátos ϕ : Rn ↦→ R függvénnyel teljesül, akkor azt mondjuk<br />

hogy f a ξ1, ξ2, ..., ξn változók együttes sűrűségfüggvénye. Persze f ≥ 0 és az integrálja<br />

1 . Ha n = 2 és ϕ csak a az egyik változótól függ, akkor a másikat kiintegrálva kapjuk a<br />

peremeloszlások<br />

∞<br />

∞<br />

fξ(x) = f(x, y) dy és fη(y) = f(x, y) dx (A4.2)<br />

−∞<br />

sűrűségfüggvényeit. Több független változó együttes sűrűségfüggvénye az egyes változók<br />

sűrűségeinek szorzata. Ha tehát ξ és η független, akkor<br />

∞ ∞<br />

∞<br />

Eϕ(ξ + η) = ϕ(x + y)fξ(x)fη(y) dxdy = ϕ(u)fξ+η(u) du ,<br />

−∞<br />

−∞<br />

−∞<br />

−∞


ahol fξ+η = fξ ∗ fη az fξ és fη konvolúciója,<br />

∞<br />

fξ+η(u) = fξ(u − y)fη(y) dy . (A4.3)<br />

Konvolúció Fourier transzformáltja a Fourier transzformáltak szorzata.<br />

A4.F1∗: Abból hogy Ψξ+η = ΨξΨη , nem következik hogy ξ és η független!<br />

−∞<br />

A4.F2: ξn ∼ Exp(λ) , n ∈ N , az α > 0 milyen értékeinél lesz a ξn/(log n) α sorozat 1<br />

valószínűséggel korlátos, illetve konvergens? Mi a helyzet akkor, ha ξn ∼ N(0, 1)?<br />

A.5. Korrelálatlan változók: A ξ és η változók korrelálatlanok ha Eξη = EξEη , vagyis<br />

Cov(ξ, η) := E(ξ − Eξ)(η − Eη) = 0 . Mivel<br />

E(η − zξ) 2 = Eη 2 − 2zEηξ + z 2 Eξ 2 ≡ c − 2bz + az 2 ≥ 0<br />

ha z ∈ R , b2 ≤ ac , tehát igaz az |Eξη| ≤ (Eξ2 ) 1/2 (Eη2 ) 1/2 Cauchy-Schwarz egyenlőtlenség,<br />

és az egyenlőség csak akkor teljesül ha η/ξ állandó. Eszerint Cov(ξ, η) ≤ D(ξ)D(η) és<br />

az<br />

Cov(ξ, η)<br />

R(ξ, η) :=<br />

D(ξ)D(η) ≡ E (ξ − Eξ)(η − Eη) <br />

(A5.1)<br />

E(ξ − Eξ) 2 E(η − Eη) 2<br />

regressziós együttható értéke mindig −1 és +1 közé esik; |R(ξ, η)| = 1 esetén η − Eη =<br />

R(ξ, η)(ξ − Eξ) .<br />

Ha ξ1, ξ2, ..., ξn páronként korrelálatlan sorozat, akkor<br />

D 2 (ζn) = D 2 (ξ1) + D 2 (ξ2) + · · · + D 2 (ξn) (A5.2)<br />

ahol ζn := ξ1+ξ2+· · ·+ξn . Innen a Markov egyenlőtlenség segítségével azonnal következik a<br />

nagy számok gyenge (Bernoulli-Csebisev) törvénye. Pontosabban, ha Eξk = m és D2 (ξk) ≤<br />

K minden k ∈ N-re, akkor a páronkénti korrelálatlanság miatt D2 (ζn) ≤ Kn , vagyis<br />

P [|ζn/n − m| > ε] = P [(ζn − nm) 2 > n2ε2 ] ≤ K/nε2 , tehát tetszőleges ε > 0 esetén<br />

P |ζn/n − m| > ε → 0 ha n → ∞ . Ilyenkor azt mondjuk hogy ζn/n sztochasztikusan<br />

konvergál az m várható értékéhez.<br />

A várható érték és a szórás becslésére általában<br />

¯ξn := 1<br />

n<br />

n<br />

k=1<br />

ξk illetve ¯σ 2 n(ξ) := 1<br />

n − 1<br />

n<br />

(ξk − ¯ ξn) 2<br />

k=1<br />

31<br />

(A5.3)<br />

használatos, ahol ξ1, ξ2, ..., ξn függetlenek, és ugyanolyan eloszlásúak, mint ξ . Persze E ¯ ξn =<br />

Eξ mindig igaz, míg E¯σ 2 n(ξ) = D 2 (ξ) a korrelálatlanságból következik. A nagy számok<br />

törvénye szerint ezek a becslásek sztochasztikusan konvergálnak a keresett paraméterhez.<br />

A.6. Nagy eltérések: Legyen ξ1, ξ2, ..., ξn, ... független és ugyanolyan eloszlású, közös<br />

sűrű ségük (a diszkrét esetben eloszlásuk) f = f(x) , Eξk = m , továbbá ρ > m és z ≥ 0 .<br />

Ekkor (O1.8) és a Markov egyenlőtlenség alapján ζn = ξ1 + ξ2 + · · · + ξn eloszlására<br />

P [ζn ≥ nρ] ≤ e −nzρ e nJ(z)<br />

adódik, ahol J(z) := log Ee zξk<br />

∞<br />

= log e zx f(x) dx ,<br />

−∞


32<br />

feltéve hogy z ≥ 0 . Tegyük fel hogy J(z) minden z ∈ R esetén véges, ekkor J analitikus<br />

egész függvény, és<br />

J ′ ∞<br />

(z) = xfz(x) dx , J ′′ ∞<br />

(z) = (x − J ′ (z)) 2 fz(x) dx > 0 , (A6.1)<br />

−∞<br />

ahol fz(x) := e zx−J(z) f(x) a Cramer féle gerjesztés, szintén sűrűségfüggvény. Ezek szerint<br />

J(0) = 0 , J ′ (0) = m és J ′ szigorúan monoton nő.<br />

Mivel mindig van olyan θ közbülső érték hogy zρ − J(z) = z(ρ − J ′ (θ)) , ρ > m és z < 0<br />

esetén zρ − J(z) < 0 mert J ′ (θ) < ρ , tehát igaz az úgynevezett Csernov korlát:<br />

−∞<br />

P [ζn ≥ nρ] ≤ e −nS(ρ) , ahol S(ρ) := sup{zρ<br />

− J(z)} .<br />

z<br />

(A6.2)<br />

Látható hogy S(ρ) > S(m) = 0 ha ρ = m , továbbá S konvex, de értéke +∞ is lehet.<br />

Ha ρ < m akkor ugyanígy igazolható hogy a P [ζn ≤ nρ] valószínűség csökken exponenciálisan,<br />

tehát a Borel-Cantelli lemma segítségével a nagy számok erős törvénye innen<br />

már következik: P [ζn/n → m] = 1 . Ennél érdekesebb az hogy a fenti becslés pontos, mert<br />

a következő alsó korlát is igaz.<br />

Tegyük fel hogy ρ > m és van olyan z > 0 hogy ρ = J ′ (z) , vagyis a gerjesztett fz<br />

sűrűségű ˜ ξk változók várható értéke éppen ρ . Legyen ˜ ζn = ˜ ξ1 + ˜ ξ2 + · · · + ˜ ξn , ahol a ˜ ξk<br />

sorozat független. Ekkor f(x)/fz(x) = exp J(z) − zx miatt<br />

P [ζn ≥ nρ] ≥ e nJ(z) E 1 [ ˜ ζn≥nρ] e−z ˜ ζn ≥ e nJ(z)−zρ−zε P [nρ ≤ ˜ ζn ≤ nρ + nε] . (A6.3)<br />

A rövidesen sorrakerülő centrális határeloszlás tétel szerint a jobboldali valószínűség n →<br />

∞ esetén 1/2-hez konvergál hacsak ε > 0 . Mivel ρ = J ′ (z) miatt zρ − J(z) = S(ρ) , (A6.2)<br />

figyelembevételével<br />

1<br />

lim<br />

n→∞ n log P [ζn ≥ nρ] = −S(ρ) . (A6.4)<br />

Az S exponens (entrópia) meghatározását gyakran megkönnyíti hogy J ′ és S ′ egymás<br />

inverz függvényei. Ha ρ ≈ m akkor S(ρ) ≈ (ρ − m) 2 /2σ 2 , ahol σ = D(ξ) . Normális<br />

eloszlás esetén ez a közelítés pontos.<br />

A6.F1: Meghatározandó az S(ρ) exponens a B(1, p) , B(r, p) , N(m, σ 2 ) , P(λ) és Exp(λ)<br />

esetén!<br />

A6.F2: Legyen a := infz J ′ (z) , b := sup z J ′ (z) , ekkor P [a ≤ ξk ≤ b] = 1 > P [ã ≤ ξk ≤ ˜ b]<br />

ha a ≤ ã ≤ ˜ b ≤ b de | ˜ b − ã| < |b − a| !<br />

A6.F3: Ha ξn független P(λn) sorozat, akkor <br />

n ξn pontosan akkor konvergens 1 valószínűséggel<br />

amikor <br />

n λn < +∞ !<br />

A6.F4 ∗ : Ha ξn független N(0,σ 2 n) sorozat, akkor <br />

n ξ2 n és <br />

n σ2 n egyszerre konvergens!<br />

A.7. Eloszlások konvergenciája: Azt mondjuk hogy a ξn sorozat gyengén (eloszlásban)<br />

konvergál a ξ változóhoz ha limn Eϕ(ξn) = Eϕ(ξ) minden folytonos és korlátos ϕ : R ↦→ R


esetén. A gyenge konvergencia messze nem jelenti azt hogy maguk a változók valamilyen<br />

értelemben konvergálnak, csak az eloszlásaik konvergenciájáról van szó. A sűrűségfüggvények<br />

pontonkénti konvergenciájából a gyenge konvergencia persze következik,<br />

de ez az elégséges feltétel általában nem teljesül; diszkrét változók is konvergálhatnak<br />

folytonoshoz ebben az értelemben. A gyenge konvergencia mindig együtt jár a karakterisztikus<br />

függvények pontonkénti konvergenciájával, és a két állítás egyenértékű. Ennek<br />

igazolásához először tételezzük fel hogy ϕ integrálható, és legyen ϕσ := ϕ ∗ fσ , ahol<br />

fσ az N(0, σ 2 ) sűrűségfüggvény. Vegyük észre hogy ha η N(0, 1) eloszlású, akkor (A3.1)<br />

értelmében<br />

ϕσ(x) = Eϕ(x + ση) −→ ϕ(x) amikor σ → 0 . (A7.1)<br />

Mivel fσ Fourier transzformáltja éppen σ −1√ 2πf 1/σ , írhatjuk hogy<br />

ϕσ(x) := 1<br />

σ √ ∞<br />

ϕ(y) exp<br />

2π −∞<br />

−(x − y) 2 /2σ 2 ) dy (A7.2)<br />

= 1<br />

∞ ∞<br />

ϕ(y) exp<br />

2π −∞ −∞<br />

ızx − ızy − z 2 σ 2 /2 dydx<br />

∞<br />

= e ızx gσ(z) dz ahol gσ(z) := e−z2 σ 2 /2 ∞<br />

ϕ(y)e<br />

2π<br />

−ızy dy ,<br />

−∞<br />

tehát ϕσ várható értéke konvergál amikor n → ∞ ,<br />

∞<br />

Eϕσ(ξn) = Ψξn (z)gσ(z)<br />

∞<br />

dz −→ Ψξ(z)gσ(z) dz = Eϕσ(ξ) .<br />

−∞<br />

Mivel ϕσ → ϕ amikor σ → 0 , és a konvergencia egyenletes ha ϕ egyenletesen folytonos,<br />

állításunk ebben az esetben bizonyítást nyert.<br />

Legyen most χℓ : R ↦→ [0, 1] olyan sima függvény hogy |χ ′ | ≤ 1 és a [−ℓ, ℓ] intervallumon<br />

χℓ = 1 , míg χℓ(x) = 0 ha |x| > ℓ + 1 ; ekkor limℓ→∞ sup n Eχℓ(ξn) = 1 . Mivel χℓ(x)ϕ(x)<br />

már egyenletesen is folytonos és integrálható ha ϕ folytonos, Eχℓ(ξn)ϕ(ξn) → Eχℓ(ξ)ϕ(ξ) ,<br />

amiből az állítás végleges formája egyszerűen következik.<br />

(I2.2) levezetéséhez hasonlóan kapjuk hogy ha ξn gyengén konvergál ξ-hez, akkor az<br />

eloszlásfüggvények is konvergálnak: Fξn (x) → Fξ(x) minden olyan x helyen ahol Fξ<br />

folytonos. Ez is ekvivalens a gyenge konvergencia definíciójával, de az Eϕ(ξn) → Eϕ(ξ)<br />

változat általánosítható akár olyan változókra is, melyek értékei függvények, vagy még<br />

sokfélébb objektumok.<br />

A7.F1: Legyen ηn := min{ξ1, ξ2, ..., ξn} ahol ξ1, ξ2, ..., ξn független E(0, 1) változók. Bizonyítandó<br />

hogy P [limn ηn = 0] = 1 és limn P [nηn > x] = e −x !<br />

A.8. Centrális határeloszlástétel: Legyen η1, η2, ..., ηn ugyanolyan eloszlású független<br />

sorozat, Eηk = m , D(ηk) = σ > 0 , ζn := η1 + η2 + · · · + ηn és ˜ ζn := (ζn − nm)/σ √ n ;<br />

ekkor minden z ∈ R-re, az ˜ηk := (ηk − m)/σ jelöléssel,<br />

lim<br />

n→∞ Eeız ˜ ζn = lim<br />

n<br />

−∞<br />

−∞<br />

z −z<br />

Ψ˜ηk √n = e<br />

n→∞<br />

k=1<br />

2 /2<br />

= ΨN(0,1) (A8.1)<br />

33


34<br />

mivel Ψ˜ηk (u) = 1 − u2 /2 + o(u 2 ) , ahonnan a fenti gondolatmenettel következik hogy az ˜ ζn<br />

standardizált összeg aszimptotikusan normális eloszlású.<br />

Egy kicsit pontosabb számolással Lindeberg tétele is bizonyítható. Legyen ˜ ζn := ηn,1 +<br />

ηn,2 + · · · + ηn,n ahol ηn,k , k = 1, 2, ..., n független, nulla várható értékű változók, és<br />

n<br />

n<br />

lim Eη<br />

n→∞<br />

k=1<br />

2 n,k = 1 , lim E|ηn,k|<br />

n→∞<br />

k=1<br />

2 δ = 0 (A8.2)<br />

minden δ > 0 esetén; |x|δ := |x| ha |x| > δ , egyébként pedig nulla. Ekkor ˜ ζn határeloszlása<br />

standard normális. A második, Lindeberg feltétel lényegében annyit jelent hogy az ηn,k<br />

összeadandók mind kicsik.<br />

A.9. Poisson határeloszlástétel: Ha ζn = ηn,1 +ηn,2 +· · ·+ηn,n független, nemnegatív<br />

egész értékű változók összege, akkor a határeloszlása tipikusan Poisson:<br />

ahol λ ≈ Eζn . A tétel feltételei:<br />

n<br />

lim<br />

n→∞ P [ζn = m] = λm<br />

m! e−λ , (A9.1)<br />

lim P [ηn,k = 1] = λ , lim<br />

n→∞<br />

n→∞<br />

k=1<br />

max<br />

1≤k≤n P [ηn,k = 1] = 0 , lim<br />

n→∞<br />

k=1<br />

A bizonyítás a karakterisztikus függvénynél egyszerűbben használható<br />

Gη(r) := Er η =<br />

n<br />

P [ηn,k > 1] = 0 .<br />

∞<br />

r m P [η = m] ha |r| ≤ 1 (A9.2)<br />

m=0<br />

generátorfüggvény segítségével is elvégezhető; Gη(r) ≡ Mη(log r) . A Poisson eloszlás<br />

generátorfüggvénye G(r) = e λr−λ , míg Gηn,k (r) = 1−λn,k+λn,kr+εn,k ≈ exp(λn,kr−λn,k)<br />

ha λn,k := P [ηn,k = 1] , tehát a feltételek alapján Gζn (r) → eλr−λ = G(r) ha n → ∞ .<br />

Weierstrass tétele szerint a generátorfüggvények konvergenciájából az eloszlások konvergenciája<br />

következik.<br />

A.10. Feltételes várható érték: Ha η valós, véges szórású változó, ξ tetszőleges, akkor<br />

az E(η − ψ(ξ)) 2 =min! regressziós feladat ψ ∗ = ψ ∗ (ξ) megoldása az E(η|ξ) := ψ ∗ (ξ)<br />

feltételes várható érték; az E(η|ξ = x) := ψ ∗ (x) jelölés is használatos. Mivel<br />

E(η − ψ ∗ (ξ)) 2 ≤ E(η − ψ ∗ (ξ) + αφ(ξ)) 2<br />

= E(η − ψ ∗ (ξ)) 2 + 2αE (η − ψ ∗ (ξ))φ(ξ) + α 2 Eφ 2 (ξ)<br />

minden α ∈ R számmal és ψ (korlátos) függvénnyel teljesül, Eηφ(ξ) = Eψ ∗ (ξ)φ(ξ) is<br />

mindig igaz. A φ ≡ 1 választással kapjuk a teljes feltételes várható érték tételét: EE[η|ξ] =<br />

Eη . A fenti ortogonalitási relációk a ψ ∗ függvényt akkor is egyértelműen meghatározzák


ha csak E|η| < +∞ a feltételünk. Például ha ξ és η diszkrét, η értékkészlete Y ⊂ R , akkor<br />

a megoldás<br />

E[η|ξ = x] = <br />

y P [η = y|ξ = x] , (A10.1)<br />

y∈Y<br />

vagyis az η feltételes eloszlása szerint képezett átlag, lásd (O1.6). Ha η és ξ együttes<br />

sűrűsége f(y, x) , akkor az f(y|x) feltételes sűrűség szerint integrálunk:<br />

∞<br />

E[ϕ(η)|ξ = x] = ϕ(y)f(y|x) dy , f(y|x) := f(y, x)/fξ(x) . (A10.2)<br />

−∞<br />

Mivel minden ϕ = ϕ(y, x) kétváltozós függvény közelíthető ψk(y)φk(x) alakú függvényekkel,<br />

(O1.6) is általános igazság:<br />

Steiner tétele is általánosítható:<br />

Eϕ(η, ξ) = Eψ ∗ ϕ(ξ) ahol ψ ∗ ϕ(x) = E[ϕ(η, x)|ξ = x] . (A10.3)<br />

E[(η − Eη) 2 |ξ] = E[(η − E[η|ξ]) 2 |ξ] + (E[η|ξ] − Eη) 2<br />

35<br />

(A10.4)<br />

Valamely A esemény feltételes valószínűségét P [A|ξ = x] := E[1A|ξ = x] definiálja.<br />

Például, P [A|C] = P [A|1C = 1] = P (AC)/P (C) ha P (C) > 0 .<br />

A feltételes várható érték létezése legegyszerűbben a Hilbert tér elméletéből következik.<br />

A véges szórású változók terében az Eξη = (ξ, η) bilineáris alak játssza a skaláris szorzat<br />

szerepét, ezért beszéltünk ortogonalitásról E[η|ξ] definiálásakor. Tegyük fel hogy a ψn<br />

sorozat olyan hogy<br />

Mivel<br />

lim<br />

n→∞ E(η − ψn(ξ)) 2 = D 2 := inf E(η − ψ(ξ))<br />

ψ 2 .<br />

2E(η − ψn) 2 + 2E(η − ψm) 2 = E(ψn − ψm) 2 + E(2η − ψn − ψm) 2<br />

≥ 4D 2 + E(ψn − ψm) 2 ,<br />

látjuk hogy E(ψn(ξ) − ψm(ξ)) 2 → 0 ha n, m → 0 , ami a közelítő sorozat konvergenciájára<br />

utal: ψ ∗ (ξ) = limn→∞ ψn(ξ) négyzetátlagban igaz.<br />

A feltételes várható érték fogalmát gyakran a következő formában tálalják. Ha F ⊂ A<br />

σ-algebra, akkor a vonatkozó feltételes várható érték az az E[η|F] := η ∗ F-érhető válto´zo,<br />

amely eleget tesz az Minden<br />

<br />

A<br />

<br />

η dP =<br />

η<br />

A<br />

∗ dP , vagyis E1Aη = E1Aη ∗ ha A ∈ F (A10.5)<br />

azonosságnak. Minden F ⊂ A σ-algebra előállítható az F = Aξ := {[ξ ∈ U : U ∈ X }<br />

alakban, ahol ξ : Ω ↦→ (X, X ) valamilyen absztrakt valószínűségi változó; például (X, X ) =


36<br />

(Ω, F) , ξ(ω) = ω ∀ω ∈ Ω . Ez a definíció nem különbözik az előzőtől, E[η|Aξ] ≡ E[η|ξ] .<br />

Érdemes észrevenni hogy ha F1 ⊂ F2 és η ∗ := E[η|F2] akkor érvényes az E[η ∗ |F1] =<br />

E[η|F1] vetítési azonosság.<br />

A10.F1: Bizonyítandó hogy Aξ σ-algebra!<br />

A10.F2 ∗ : Ha η valós és Aη ⊂ Aξ akkor van olyan g : X ↦→ R mérhetőfüggvény hogy<br />

η = g(ξ) !<br />

A10.F3 ∗ : A Fx(y) := P [η < y|ξ = x] feltételes valószínűségek definiálhatóak úgy, hogy<br />

Fx majdnem minden x esetén eloszlásfüggvény lesz!<br />

A.11. Centrált sorozatok és martingálok: Valós változók η1, η2, ..., ηt, ... sorozata<br />

centrált a σ-algebrák F0 ⊂ F1 ⊂ · · · ⊂ Ft ⊂ · · · ⊂ A bővülő rendszerére (filtráció) nézve<br />

ha adaptált, vagyis ηt Ft-mérhető, és E[ηt+1|Ft] = 0 minden t ≥ 0 egész esetén. Legyen<br />

ζ0 := 0 , ζt := η1 + η2 + · · · + ηt és tegyük fel hogy Eη2 k < +∞ ∀k , ekkor érvényes az<br />

Eζ 2 t = Eη 2 1 + Eη 2 2 + · · · + Eη 2 t<br />

(A11.1)<br />

ortogonalitási tulajdonság (Pitagorasz tétel).<br />

Centrált sorozat ζn részletösszegei martingált alkotnak: ζt is Ft-mérhető és minden<br />

t ∈ Z+ esetén E[ζt+1|Ft] = ζt . Fordítva, ha (ξt, Ft) , t ∈ Z+ martingál, akkor ξt = ξ0 +η1 +<br />

η2 + · · · ηt , ahol az ηk := ξk − ξk−1 sorozat centrált. Az Ft filtrációhoz adaptált ξt sorozat<br />

szubmartingál ha E[ξt+1|Ft] ≥ ξt ∀t . Például, E[ζ 2 t+1|Ft] ≥ ζ2 t a ϕ(x) = x2 függvény<br />

konvexitása miatt. Általában is igaz hogy martingál konvex függvénye szubmartingál ha<br />

a várható értéke véges; szubmartingálnak csak monoton növő konvex függvénye lesz ismét<br />

szubmartingál. Martingál tipikus példája a ξt := E[φ|Ft] feltételes várható érték.<br />

Ha ξ0, ξ1, ..., ξt, ... Markov lánc, Ft = σ{ξ0, ξ1, ...ξt} és ϕ = Pϕ korlátos harmonikus<br />

függvény, akkor (ϕ(ξt), Ft) martingál. Általánosabban, (ζt, Ft) is martingált alkot, ahol<br />

ϕ : X ↦→ R tetszőleges korlátos és mérhető függvény, míg<br />

ζt =<br />

t <br />

ϕ(ξk) − Pϕ(ξk−1) .<br />

k=1<br />

A τ nemnegativ egész értékű változó megállási szabály, ha a [τ ≤ t] nívóhalmazai mindig<br />

Ft elemei. Jó tudni hogy τ ≡ T megállási idő, és két megállási idő τ ∨ σ maximuma,<br />

valamint τ ∧ σ minimuma is az.<br />

Doob opciós lemmája szerint az Ft-adaptált ξt sorozat akkor és csak akkor szubmartingál<br />

ha Eξτ ≥ Eξσ bármely két korlátos τ ≥ σ megállási időre teljesül. Valóban, mivel<br />

ξτ = ξ0 +<br />

∞<br />

1 [τ>t]ηt+1 , ξσ = ξ0 +<br />

t=0<br />

ahol, mint korábban, ηt+1 = ξt+1 − ξt , tehát<br />

Eξτ = Eξ0 +<br />

∞<br />

E 1 [τ>t]E[ηt+1|Ft] ≥ Eξ0 +<br />

t=0<br />

∞<br />

1 [σ>t]ηt+1 ,<br />

t=0<br />

∞<br />

E 1 [σ>t]E[ηt+1|Ft] = Eξσ<br />

t=0


mivel E[ηt+1|Ft] ≥ 0 és 1 [τ>t] ≥ 1 [σ>t] . Fordítva, ha t > s , A ∈ Fs és τ := t ha 1A = 1 ,<br />

τ := s egyébként, akkor τ ≥ s megállási idő, tehát E1Aξt + E1A cξs = Eξτ ≥ Eξs mivel<br />

σ ≡ s persze szintén megállási idő. Tehát E(1Aξt) ≥ E(1Aξs) , vagyis E[ξt|Fs] ≥ ξs .<br />

Eszerint a megállított ξ τ t := ξτ∧t sorozat (szub)martingál ha ξt az.<br />

Minden (ξt, Ft) szubmartingál eleget tesz a<br />

P max<br />

t≤n ξt ≥ α ≤ E|ξn|+<br />

, (A11.2)<br />

α<br />

maximális (Kolmogorov) egyenlőtlenségnek, ahol α > 0 , |x|+ pedig az x szám pozitív része.<br />

Valóban, legyen ξ ∗ n := maxt≤n ξt , míg τ := min{t ≤ n : ξt ≥ α} ha van ilyen index, τ := n<br />

egyébként. Ekkor az opciós lemma és a Markov egyenlőtlenség miatt<br />

Eξn ≥ Eξτ ≥ αP [ξτ ≥ α] + E ∗<br />

1 [ξτ


38<br />

vagyis a ζt sorozat egy valószínűséggel konvergens. Az általános eset a folyamat megállításával<br />

bizonyítható, sőt ha sup t |ηt| négyzetesen integrálható, akkor a fenti konvergenciatartomány<br />

pontos. A három-sor tétel következménye a nagy számok Kolmogorov törvénye:<br />

ha ζn := ξ1 + ξ2 + · · · ξn független és ugyanolyan eloszlású sorozat részletösszege, és a<br />

közös m = Eξk várható értékük létezik, akkor ζn/n → m egy valószínűséggel igaz amikor<br />

n → ∞ . Ez az eredmény az un. ergodikus sorozatokra is kiterjeszthető, de a várható érték<br />

végességének feltétele nem hagyható el. Például, független és ugyanolyan Cauchy változók<br />

számtani közepei +∞ és −∞ között ingadoznak a BC II. lemma miatt.<br />

Minden szubmartingál felbontható egy martingál és egy monoton nem csökkenő sorozat<br />

összegére:<br />

<br />

n−1<br />

n−1<br />

ξn = ξ0 + ηt+1 = ξ0 +<br />

t=0<br />

<br />

ηt+1 − E[ηt+1|Ft] n−1 <br />

+ E[ηt+1|Ft] (A11.6)<br />

t=0<br />

ahol ηt = ξt − ξt−1 . Látható hogy az utolsó összeggel adott monoton komponens jósolható,<br />

vagyis Fn−1-mérhető.<br />

Doobnak az átmetszések számáról szóló lemmája a (szub)martigálok konvergenciájának<br />

tisztázásához szükséges, de a folytonos paraméterű folyamatok vizsgálatánál is alapvető<br />

szerepet játszik. Adott α < β esetén legyen σ1 az első olyan (véletlen) időpont amikor<br />

ξσ1 ≤ α ; τ1 ≥ σ1 ezután az első index ahol ξτ1 ≥ β , és így tovább. Ha valamelyik<br />

megállási idő nem realizálódik, akkor értéke +∞ . Tehát σt < τt < σt+1 hacsak τt < +∞ .<br />

Ezek szerint Un(α, β) := max{t : τt ≤ n} éppen az [α, β] intervallumon alulról felfelé<br />

történő átmetszések száma a t = n időpontig; megmutatjuk hogy<br />

(β − α)EUn(α, β) ≤ E|ξn − α|+<br />

Legyen ξ ′ t := |ξt∧n − α|+ , ami szintén szubmartingál. Mivel σn ≥ n ,<br />

|ξn − α|+ = ξ ′ σ1 +<br />

n−1 <br />

t=1<br />

ξ ′ τt − ξ′ σt<br />

n−1<br />

<br />

+<br />

t=1<br />

t=0<br />

ξ ′ σt+1 − ξ′ τt<br />

<br />

(A11.7)<br />

(A11.8)<br />

könnyen ellenőrizhető azonosság. Az első összeg (β − α)Un felső korlátja, a többi tag<br />

várható értéke pedig nem lehet negatív, tehát mindkét oldal várható értékét véve kapjuk<br />

hogy<br />

(β − α)EUn(α, β) ≤ E|ξn − α|+ − E|ξ0 − α|+ , (A11.9)<br />

ami több mint a bizonyítandó állítás.<br />

Innen egyszerűen következik Doob alaptétele a szubmartingálok konvergenciájáról: Ha<br />

sup t E|ξt|+ < +∞ akkor majdnem biztosan létezik a ξ∞ = limt→∞ ξt határérték, és<br />

E|ξ∞| < +∞ . Ha most ξt egyenletesen integrálható, vagyis<br />

lim<br />

a→∞ sup<br />

<br />

|ξt| dP = 0 (A11.10)<br />

t |ξt|≥a<br />

akkor limt→∞ E|ξt − ξ∞| = 0 is igaz, sőt E[ξ∞|Ft] ≥ ξt , és martingálok esetén E[ξ∞|Ft] =<br />

ξt . Megfordítva, ha ξ martingál vagy nemnegatív szubmartingál, és E[ξ∞|Ft] ≥ ξt , akkor


ξt egyenletesen integrálható. Ehhez főleg azt kell megmutatni, hogy (A11.10) az alábbi<br />

feltétellel ekvivalens:<br />

lim<br />

a→∞ sup E |ξt| − a = 0 . + (A11.11)<br />

t<br />

Valóban, |ξt| − a + is szubmartingál, tehát E |ξt| − a| ≤ E |ξ∞| − a . Végül, (A11.11) az<br />

(A11.10) nyilvánvaló következménye, a másik irány pedig az elemi E1 [η≥2a]η ≤ 2E|η − a|+<br />

egyenlőtlenség folyománya.<br />

F. Sztochasztikus Folyamatok<br />

Időfüggő jelenségek modelljeit ismertetjük, sok a csupán jelzés értékű észrevétel.<br />

F.1. Autoregresszív idősorok: Legyen η1, η2, ...ηt, ... ugyanolyan eloszlású független<br />

sorozat, Eηk = 0 , D(ηk) = σ . Definiáljuk a ξ0 = x ∈ R értékből kiindulva a ξt+1 =<br />

θξt + ηt+1 idősort, ahol θ valós paraméter. Innen is, de még inkább a<br />

ξn = θ n x +<br />

n<br />

t=1<br />

θ n−t ηt<br />

39<br />

(F1.1)<br />

megoldó képletből látható hogy (F1.1) az Ornstein-Uhlenbeck folyamat diszkretizált változata.<br />

Ha |θ| < 1 akkor az idősor aszimptotikusan stacionárius.<br />

ξ0, ξ1, ..., ξn megfigyelt értéke alapján a θ paraméter legkisebb négyzetes becslése (LNB)<br />

ˆθn =<br />

n−1<br />

t=0 ξtξt+1<br />

n−1<br />

t=0 ξ2 t<br />

tehát ˆ θn = θ +<br />

n−1<br />

t=0 ξtηt+1<br />

n−1<br />

t=0 ξ2 t<br />

(F1.2)<br />

Tegyük fel hogy |θ| < 1 . A (közös) nevező várható értéke aszimptotikusan nσ 2 /(1 − θ 2 ) ,<br />

míg ˆ θn − θ számlálójának várható értéke 0 , szórásnégyzete nσ 4 (1 − θ 2 ) nagyságrendű,<br />

tehát azt várjuk hogy √ n( ˆ θn − θ) ∼ N(0, ρ 2 ) ahol ρ 2 = 1/(1 − θ 2 ) . (F1.1) segítségével ez<br />

igazolható, de a centrális határeloszlás tétel közvetlenül még a számláló kiértékelésére sem<br />

alkalmas.<br />

F.2. Wiener folyamat: Az (I3) szakasz alapján így nevezzük valószínűségi változók<br />

W (t) , t ≥ 0 rendszerét ha W (0) = 0 , a folyamat W (tk)−W (tk−1) növekményei függetlenek<br />

és eloszlásuk rendre N(0, tk+1 − tk) hacsak 0 = t0 < t1 < · · · < tn . Tehát a Wiener folyamat<br />

független növekményű Gauss folyamat. Látható hogy Cov(W (t), W (s)) = min{t, s} ,<br />

továbbá a Wa(t) := √ aW (t/a) és a W s(t) := W (s + t) − W (s) folyamat is Wiener. Sőt,<br />

a W s(t) folyamat független a W (t) folyamat [0, s] szakaszától, amit W [0, s] jelöl. Konstruálható<br />

olyan (Ω, A, P ) valószinűségi mező, ami akár a Lebesgue mértékkel felszerelt<br />

[0, 1] intervallum is lehet, hogy a rajta definiált W (t) = W (t, ω) véletlen trajektóriák<br />

1 valószínűséggel folytonosak, de sehol sem differenciálhatóak. Az önmagához való hasonlóság<br />

W (t) ∼ √ aW (t/a) skálatörvénye is az utóbbi mellett szól.<br />

F2.F1: Meghatározandó a K(s, t) =Cov(η(t), η(s)) kovarianciafüggvény, ahol W (t) a<br />

Wiener folyamat, és (i) η(t) = √ aW (t/a) , (ii) η(t) = tW (1/t) , (iii) η(t) = e −λt W (e 2t ) ,<br />

(iv) η(t) = W (t) − tW (1) , 0 ≤ t ≤ 1 !


40<br />

F2.F2 ∗ : Meghatározandó E[W (t)W (s)|W (1)=0] értéke, ahol 0 < t, s < 10 , W a Wiener<br />

folyamat!<br />

F.3. Kvadratikus variáció: Mivel W (s + t) − W (s) = O( √ t) , a Wiener folyamat<br />

trajektóriái nem korátos változásúak. Legyen 0 = t0 < t1 < · · · < tn−1 < tn = t a γ-val<br />

jelölt felosztás,<br />

σ 2 n−1 <br />

γ(t) := W (tk+1) − W (tk) 2 , (F3.1)<br />

k=0<br />

továbbá Wk = W (tk) , ∆Wk := W (tk+1) − W (tk) , és ∆tk := tk+1 − tk . Mivel E(∆Wk) 2 =<br />

∆tk , E (∆Wk) 2 2 − ∆tk = 2(∆tk) 2 , de ∆Wk és ∆Wj független ha j = k , vagyis ilyenkor<br />

E((∆Wk) 2 − ∆tk)((∆Wj) 2 − ∆tj) = 0 , tehát σ2 γ(t) − t = ((∆Wk) 2 − ∆tk) miatt<br />

E σ 2 γ(t) − t n−1<br />

2 <br />

= 2<br />

k=0<br />

(tk+1 − tk) 2<br />

(F3.2)<br />

nullához konvergál amikor a γ felosztás minden határon túl finomodik, tehát σ 2 γ(t) → t a<br />

fenti értelemben (négyzetátlagban). Eszerint<br />

W 2 n−1<br />

(t) = 2<br />

<br />

W (tk) W (tk+1) − W (tk) n−1 <br />

+ W (tk+1) − W (tk) 2 k=0<br />

k=0<br />

(F3.3)<br />

jobboldalán az első összeg is konvergál a felosztás finomodásakor, amit a W 2 (t) = t +<br />

2 ∫ t 0 W (s) dW (s) speciális Ito formulaként értelmezünk. Az ∫ t 0 W dW sztochasztikus integrál<br />

annak ellenére is definiálható, hogy (Lebesgue-) Stieltjes integrálként nics értelme.<br />

F.4. Wiener folyamat és a hővezetés egyenlete: Legyen u(t, x) := Eϕ(x + W (t)) ,<br />

ahol ϕ : R ↦→ R kétszer folytonosan differenciálható, és a második deriváltja is korlátos.<br />

Megmutatjuk hogy<br />

Eϕ(x + W (t)) = ϕ(x) + 1<br />

t<br />

Eϕ<br />

2 0<br />

′′ (x + W (s)) ds , (F4.1)<br />

vagyis u a ∂tu(t, x) = 1<br />

2 ∂2 xu(t, x) hővezetési egyenlet u(0, x) = ϕ(x) kezdőértékhez tartozó<br />

megoldása. Ezt ugyan közvetlenül is ellenőrizhetnénk, mivel W (t) ∼ N(0, t) miatt (I3.2)<br />

érv ´ ’enyes, viszont a következő számolási technikának messzemenő következményei lesznek.<br />

Egyszerűség kedvéért tegyük fel hogy ϕ négyszer folytonosan differenciálható, és ϕ iv is<br />

korlátos. A fenti jelölésekkel<br />

n−1 <br />

ϕ(x + W (t)) = ϕ(x) + ϕ(x + Wk+1) − ϕ(x + Wk) , (F4.2)<br />

k=0<br />

ϕ(x + Wk+1) − ϕ(x + Wk) = ϕ ′ (x + Wk)∆Wk + (1/2)ϕ ′′ (x + Wk)(∆Wk) 2<br />

+ (1/6)ϕ ′′′ (x + Wk)(∆Wk) 3 + (1/24)ϕ iv (θk)(∆Wk) 4 ,


ahol θk alkalmas közbülső érték. Tekintve hogy Wk és ∆Wk független, a sorfejtés páratlan<br />

tagjainak várható értéke 0 . Hasonlóan, Eϕ ′′ (x + Wk)(∆Wk) 2 = ∆tkEϕ ′′ (x + Wk) , míg a<br />

negyedrendű tagok (∆tk) 2 nagyságrendűek, amiből (F4.1) a felosztás finomításával adódik.<br />

F.5. Feynman-Kac formula: Legyen ϕ mint fent, V : R ↦→ R felülről korlátos és<br />

folytonos, ekkor<br />

<br />

t<br />

<br />

v(t, x) := E ϕ(x + W (t)) exp V (x + W (τ)) dτ<br />

0<br />

41<br />

(F5.1)<br />

a ∂tv(t, x) = 1<br />

2∂2 xv(t, x) + V (x)v(t, x) egyenlet v(0, x) = ϕ(x) kezdeti értékhez tartozó<br />

megoldása. A t = 0 helyen az idő szerinti differenciálást (F4.1) alapján végezhetjük el, az<br />

eredmény valóban a kívánt ∂tv(0, x) = 1<br />

2ϕ′′ (x) + V (x)ϕ(x) = 1<br />

2∂tv(0, x) + V (x)v(0, x) .<br />

Minthogy v(t + s, x) = E ϕ(x + W (s) + W s(t))ξη ahol<br />

t<br />

s<br />

ξ := exp V (x + W (s) + W s(τ)) dτ , η := exp V (x + W (τ)) dτ ,<br />

0<br />

0<br />

(O1.7) bátor alkalmazásával, vagyis a várható értéket két lépésben, először W (s) és η<br />

rögzített értéke mellett számolva kapjuk hogy<br />

<br />

s<br />

<br />

v(t + s, x) = E v(t, x + W (s)) exp V (x + W (τ)) dτ . (F5.2)<br />

0<br />

Tehát v(t + s, x) értékét ugyanazzal az eljárással kapjuk a v(t, ·) függvényből, mint v(t, x)et<br />

v(0, ·) = ϕ-ből. Ilyenformán a t > 0 időpontban – az s → 0 határátmenettel – az<br />

idő szerinti differenciálást ugyanúgy lehet végrehajtani, mint a t = 0 helyen a t → 0<br />

határátmenet végrehajtásával, ami éppen a kívánt eredményt adja.<br />

F.6. Ito kalkulus: A Wiener folyamat szerinti sztochasztikus integrál a következőképpen<br />

definiálható. Semmi kétség ha η = η(s) trajektóriái lépcsős függvények, vagyis van olyan<br />

0 = τ0 < τ1 < · · · < τn < · · · felosztás hogy η(t) = η(τk) ha τk ≤ t < τk+1 , ilyenkor<br />

t<br />

η(s) W (ds) :=<br />

0<br />

=<br />

n(t)−1 <br />

k=0<br />

η(τk) W (τk+1) − W (τk) + η(τ n(t)) W (t) − W (τ n(t)) <br />

∞<br />

η(τk) W (τk+1 ∧ t) − W (τk ∧ t) <br />

k=0<br />

(F6.1)<br />

ahol n(t) = n az utolsó olyan index hogy τn < t . Ha most azt is tudjuk hogy η(τk) és<br />

W (τk+1) − W (τk) független, akkor érvényes az<br />

<br />

E<br />

t<br />

<br />

2 t<br />

η(s) W (ds) = Eη<br />

0<br />

0<br />

2 (s) ds (F6.2)


42<br />

azonosság, ami lehetővé teszi az<br />

t<br />

0<br />

t<br />

t<br />

η(s) W (ds) := lim ηn(s) W (ds) ha lim E<br />

n→∞<br />

0<br />

n→∞<br />

0<br />

η(s) − ηn(s) 2 ds = 0 (F6.3)<br />

konstrukciót. A közelítő sztochasztikus integrálok négyzetátlagban konvergálnak.<br />

Ez a konstrukció csak akkor működik ha az η folyamat nem függ a jövőtől, vagyis η(s) és<br />

W (s + t) − W (s) mindig független hacsak s, t ≥ 0 . Nem könnyű, de a (A11.?) Kolmogorov<br />

egyenlőtlenség segítségével bizonyítható hogy nemcsak W , de az integrálással kapott<br />

t<br />

ξ(t) = ξ(0) + η(s) W (ds) , röviden dξ = η dW (F6.4)<br />

0<br />

folyamat trajektóriái is majdnem biztosan folytonosak. Az F.3 – F.4 számolások szintéziseként<br />

kapjuk Ito lemmáját:<br />

t<br />

ϕ(ξ(t)) = ϕ(ξ(0)) +<br />

0<br />

ϕ ′ (ξ(s)) W (ds) + 1<br />

t<br />

ϕ<br />

2 0<br />

′′ (ξ(s)) ds (F6.5)<br />

ha dξ = η dW , ami a sztochasztikus analízis Newton-Leibnitz stílusú alaptétele.<br />

F.7. Langevin egyenlet: A ˙ ξ = b(ξ)+ζ jobboldalán álló ζ = ζ(t) fehér zaj korrelálatlan,<br />

stacionárius Gauss folyamat. Mivel a Wiener folyamat növekményei függetlenek, kézenfekvő<br />

azt mondani hogy a ζ fehér zaj a Wiener folyamat (nem létező) derivátja: ζ(t) = ˙ W (t) .<br />

Az értelmezés fogalmi és technikai nehézségeit úgy kerülhetjük meg hogy a ξ sztochasztikus<br />

folyamatot a<br />

t<br />

ξ(t) = ξ(0) + b ξ(s) ds + W (t) (F7.1)<br />

0<br />

integrálegyenlet megoldásaként definiáljuk; ezt röviden dξ = b(ξ) dt + dW jelöli.<br />

Mivel a Wiener trajektóriák folytonosak, F7.1 megoldásainak létezése és egyértelműsége<br />

ugyanúgy tárgyalható, mint a determinisztikus esetben. Ha b Lipschitz folytonos akkor<br />

szukcesszív approximációval, vagy más közelítő módszerrel lehet megoldásokat konstruálni.<br />

Eszerint a megoldás a Wiener folyamat [0, t] szakaszának ξ(t) = Ψ(t, x, W [0, t]) funkcionáljaként<br />

állítható elő, ahol x = ξ(0) és W [0, t] := {W (s) : s ≤ t} . Az is látható hogy<br />

ξ(s + t) = Ψ(t, ξ(s), W s[0, t]) , továbbá ξ[0, s] és W s egymástól független, tehát ξ Markov<br />

folyamat. Néhány speciális esetben megoldóképlet is van. Például, a dξ = −γξ dt + dW<br />

lineáris egyenlet megoldása a<br />

ξ(t) = ξ(0)e −γt + e −γt<br />

t<br />

e γs W (ds) (F7.2)<br />

Ornstein-Uhlenbeck folyamat.<br />

Lényeges újdonság viszont az hogy a (F4.1) egyenlethez hasonlóan<br />

t<br />

Eϕ(ξ(t)) = ϕ(ξ(0)) +<br />

0<br />

0<br />

Eϕ ′ (ξ(s))b ′ (ξ(s)) ds + 1<br />

t<br />

Eϕ<br />

2 0<br />

′′ (ξ(s)) ds . (F7.3)


Sőt, az Ito formula szerint dϕ(ξ) = ϕ ′ (ξ) dξ + 1<br />

2 ϕ′′ (ξ) dt , pontosabban<br />

t<br />

ϕ(ξ(t)) = ϕ(ξ(0)) +<br />

0<br />

ϕ ′ (ξ(s)) b ′ (ξ(s)) ds + W (ds) + 1<br />

t<br />

ϕ<br />

2 0<br />

′′ (ξ(s)) ds . (F7.4)<br />

Szintén nem szokványos tény hogy ha az η = η(s) folyamat nem függ a jövőtől, akkor<br />

dξ = ηξ dW megoldását a<br />

<br />

ξ(t) = ξ(0) exp<br />

t<br />

η(s) W (ds) −<br />

0<br />

1<br />

t<br />

η<br />

2 0<br />

2 <br />

(s) ds<br />

Maruyama-Girsanov formula adja, aminek korrekt volta az Ito lemmával ellenőrizhető.<br />

43<br />

(F7.5)<br />

F.8. Ito folyamatok, többváltozós kalkulus: Tegyük fel hogy a Wi = Wi(t) i =<br />

1, 2, ..., n függetlenWiener folyamatok mindegyike adaptált az Ft , t ≥ 0 filtrációhoz, és<br />

a bi = bi(t) , σi,j = σi,j(t) folyamatok is ilyenek. Ha az alábbi sztochasztikus integrálok<br />

definiálhatóak,<br />

t<br />

n<br />

t<br />

ξi(t) = ξi(0) + bi(s) ds + σi,j(s) dWj(s) (F8.1)<br />

vagyis dξi = bi dt + n<br />

j=1 σi,j dWj , akkor Ito többváltozós formulája:<br />

dϕ(t, ξ(t)) = ϕ ′ 0(t, ξ) dt +<br />

ahol ϕ : R n+1 ↦→ R , a ϕ ′ i<br />

, és ϕ′′<br />

i,j<br />

0<br />

n<br />

i=1<br />

j=1<br />

ϕ ′ i(t, ξ) dξi + 1<br />

2<br />

0<br />

n<br />

n<br />

i=1 j=1<br />

ϕ ′′<br />

i,j(t, ξ) dξidξj<br />

parciális deriváltak folytonosak, végül<br />

dξidξj :=<br />

(F8.2)<br />

n<br />

σi,ℓ(t)σj,ℓ(t) dt (F8.3)<br />

ℓ=1<br />

a két folyamat keresztvariációja.<br />

Ha a filtrációt maguk a Wiener folyamatok generálják, akkor – Ito nevezetes tétele<br />

szerint – minden négyzetesen integrálható η martingál egyértelműen állítható elő mint<br />

η(t) = η(0) +<br />

n<br />

t<br />

ψi(s) dWi(s) , (F8.4)<br />

i=1<br />

ahol a ψi folyamatok mind adaptáltak és négyzetesen integrálhatók.<br />

Bizonyítható hogy Wiener folyamatok által generált F W t filtráció jobbról folytonos:<br />

F W s = F W s+ := <br />

t>0 Fs+t . A trajektóriák folytonossága miatt F W s− = F W s mindig igaz.<br />

Ezek a tulajdonságok az alábbi konstrukcióban lényegesek. A τ ≥ 0 változó megállási<br />

szabály (stopping time) ha [τ ≤ t] ∈ Ft ∀t > 0 . Sztochasztikus integrál felső határa<br />

megállási szabály is lehet.<br />

F8.F1: Ha τ és σ megállási szabály akkor min{τ, σ} és max{τ, σ} is az!<br />

0


44<br />

F8.F2: Fτ := {A ∈ A : A ∩ [τ ≤ t] ∈ Ft ∀t > 0} σ-algebra ha τ megállási szabály!<br />

F.9. Független sorozatok konstrukciója: Eddig nem szóltunk arról hogy milyen<br />

valószínűségi mezőn hogyan definiálhatóak a kívánt tulajdonságú változók. Legyen például<br />

(Ω, A, P ) a Lebesgue mértékkel felszerelt [0, 1] intervallum. Ekkor ξ = ξ(ω) := ω nyilván<br />

egyenletes eloszlású: P [ξ < x] = x , míg η : − log ξ esetén<br />

1<br />

1<br />

∞<br />

Eϕ(η) = ϕ(η(ω)) dω = ϕ(− log ω) dω = ϕ(y)e −y dy ,<br />

0<br />

0<br />

vagyis η ∼ Exp(1) , amit P [η > y] = P [ξ < e−y ] = e−y is bizonyít. Általánosabban,<br />

ha P [η < y] = F (y) szigorúan monoton és folytonos, akkor F (η) = ξ ∼ E(0, 1) mert<br />

P [ξ < x] = P [η < F −1 (F (x))] = x . Fordítva, ha ξ ∼ E(0, 1) adott, akkor η = F −1 (ξ)<br />

eloszlásfüggvénye éppen F lesz. A véletlen számok generátorai általában független E(0, 1)<br />

változókat gyártanak, ezekből a fenti transzformációval kapjuk a kívánt eloszlásúakat.<br />

Az ω ∈ Ω = [0, 1] szám ω = ∞ n=1 ωn2−n bináris kifejtésének ωn jegyei független<br />

valószínűségi változók, és P [ωn = 1] = P [ωn = 0] = 1/2 ∀n , tehát ξ(ω) := ω ∼ E(0, 1)<br />

független tagokból álló sor összege. A<br />

ξp = ξp(ω) :=<br />

∞<br />

n=1<br />

ωp n2−n<br />

változók, ahol p > 1 egész szám, ugyanúgy egyenletes eloszlású mint maga ξ , mert az<br />

ω1, ω2, ..., ωn, ... és az ωp, ωp2, ..., ωpn, ... sorozatok a valószínűségszámítás szempontjából<br />

azonosak. Ha tehát p a prímszámok sorozatából való, akkor a különböző {pn } indexhalmazok<br />

páronként diszjunktak, vagyis a ξp változók is függetlenek.<br />

F.10. A Wiener folyamat folytonos: Független N(0, 1) változók ηn,k , n ∈ Z+ ,<br />

k ∈ N rendszeréből kiindulva megkonstruáljuk a Wiener folyamat W (t) = W (t, ω) , t ≥ 0<br />

trajektóriáit; az előzőszakasz értelmében akár az ω ∈ [0, 1] lehetőséggel is élhetünk. Az<br />

elsőlépés egyértelmű, W (0) = 0 míg W (n) := η0,1 + η0,2 + · · · η0,n ha n ∈ N . Ezután W (τ)<br />

értékét a τ = k2 −n diadikusan racionális pontokban, indukcióval definiáljuk. Ha t, s > 0 ,<br />

W (s) és W (s + t) már megvan, akkor W (τ) , τ = s + t/2 értékét ugy kell megadni, hogy<br />

W (τ) − W (s) és W (s + t) − W (τ) független (korrelálatlan) legyen. Ennek feltétele<br />

W (τ) =<br />

W (s) + W (s + t)<br />

2<br />

+ η√ t<br />

2<br />

ahol η ∼ N(0, 1) a W (s) és W (s + t) változóktól is független. Tehát a rekurzió<br />

W (k2 −n + 2 −n−1 ) := 1<br />

−n −n −n −1−n/2<br />

W (k2 ) + W (k2 + 2 ) + 2 ηn,k+1<br />

2<br />

szerint halad.<br />

Jelölje Wn(t) a W (k2 −n ) pontok között lineáris interpolácóval kapott trajektóriát.<br />

Wn+1(t) − Wn(t) = 1<br />

4<br />

0<br />

(F10.1)<br />

(F10.2)<br />

∞<br />

ηn,k+1hn,k(t) (F10.3)<br />

k=0


ahol hn,k a [k2 −n , (k + 1)2 −n ] intervallumra épített, 2 −1−n/2 magasságú háztetőfüggvény.<br />

Ezek diszjunkt tartójúak, tehát<br />

max<br />

t≤T |Wn+1(t) − Wn(t)| ≤ 2 −1−n/2 Mn(T ) , Mn(T ) := max<br />

k≤T 2 n |ηn,k+1| . (F10.4)<br />

A Schwarz egyenlőtlenség kétszeri alkalmazásával<br />

EMn(T ) ≤<br />

<br />

EM 4 1/4 <br />

n(T ) ≤<br />

k≤T 2 n<br />

η 4 n+1,k<br />

1/4<br />

≤ (3 · 2 n T ) 1/4<br />

45<br />

(F10.5)<br />

tehát E ∞<br />

n=0 2−1−n/2 Mn(T ) < +∞ , ami csak úgy lehetséges ha a folytonos függvények<br />

n−1 <br />

Wn(t) = W0(t) + Wk+1(t) − Wk(t)<br />

k=1<br />

sorozata – 1 valószínűséggel – egyenletesen konvergens. Ilyenkor a W (t) határérték is<br />

folytonos, könnyű ellenőrizni hogy ő a Wiener folyamat.<br />

Wiener eredeti konstrukciója a fehér zaj trigonometrikus sorfejtéséből indult ki, ahol az<br />

ηk ∼ N(0, 1) együtthatók függetlenek. A<br />

ζ(t) = η0<br />

<br />

2<br />

√π +<br />

π<br />

∞<br />

2 n −1<br />

n=1 k=2n−1 ηk cos kt (F10.6)<br />

sor persze mindenütt divergens, de a tagonkénti integrálásával kapott sor – legalábbis a<br />

(F10.6) szerinti blokkosított változatban – már egyenletesen konvergens. Az itt követett<br />

eljárás tulajdonképpen a fehér zaj Haár féle sorfejtésére épül.<br />

F.11. A Wiener folyamat nem differenciálható: Ha valamelyik trajektória a [0, 1]<br />

intervallumban valahol differenciálható, akkor az<br />

A(n, ℓ, k) :=<br />

2<br />

j=0<br />

|W (k + j + 1)n −1 − W (k + j)n −1 | ≤ ℓ/n <br />

(F11.1)<br />

események valamilyen ℓ ∈ N és k < n − 2 választással már biztosan teljesülnek ha n elég<br />

nagy, tehát<br />

A := <br />

A(n, ℓ, k) (F11.2)<br />

ℓ∈N<br />

m∈N<br />

n>m<br />

k


46<br />

hogy tetszőleges 0 = t0 < t1 < · · · < tn esén az N(tk+1) − N(tk) növekmények független<br />

P(λtk+1 − λtk) változók. Mindez a momentum generáló függvény, M(ϕ) alábbi képletéből<br />

is levezethető,<br />

M(ϕ) := E exp<br />

∞<br />

k=1<br />

∞<br />

ϕ(τk) = exp λ(e<br />

0<br />

ϕ(t) − 1) dt (F12.1)<br />

ha ϕ egy véges intervallumon kívül eltűnik. Valóban, e ϕ1+ϕ2 − 1 = e ϕ1 − 1 + e ϕ2 − 1 ha<br />

ϕ1 és ϕ2 diszjunkt tartójú. (F12.1) bizonyításához jeölje C a jobboldalát, ekkor<br />

M(ϕ) = lim E exp<br />

n→∞<br />

n<br />

k=1<br />

∞<br />

1<br />

= lim<br />

n→∞ (n − 1)!<br />

ϕ(τk) = lim<br />

n→∞<br />

0<br />

<br />

<br />

· · ·<br />

0 0 időpontban. Mivel az árfolyamok közvetlenül nem befolyásolhatóak, a<br />

ΨT = V (T ) cél elérését a µ és ν mennyiségek alkalmas megválasztásával kell biztosítani.<br />

Teljesen elfogadott hogy a történelmet valamilyen jobbról folytonos Ft , t ≥ 0 filtráció<br />

írja le, B(t) és S(t) adaptált, míg µ(t) és ν(t) jósolható, vagyis az {Fs : s < t} σ-algebrák<br />

egyesítése által generált Ft− szerint is mérhetőek. A Ψ = ΨT követelés természetesen<br />

ismert, és FT szerint mérhető. A probléma modellje az A := FT σ-algebrán adott P<br />

valószínűségi mérték, a B és S folyamatok eloszlása.


Önfinanszírozó stratégiák: A kitűzött feladatot külső forrás bevonása nélkül, vagyis úgy<br />

kell megoldani hogy közben teljesüljön az önfinanszírozás dV = µ dB + 〈ν, dS〉 feltétele.<br />

Ez utóbbi azt fejezi ki, hogy a csomag értékének változása kizárólag az árfolyamok változásának<br />

köszönhető; diszkrét idejű alakja a tőke megmaradásának µ(t + h)B(t + h) +<br />

〈ν(t + h), S(t + h)〉 = µ(t)B(t + h) + 〈ν(t), S(t + h)〉 elve. Ha van önfinanszírozó stratégia,<br />

akkor a ΨT követelés reális ára éppen az őt megvalásító V (t) portfólió folyamat x = V (0)<br />

kezdeti értéke lesz; különben kockázat nélkül biztos nyereséget lehetne szerezni.<br />

Ez a feladat olykor megoldható az Ito kalkulus segítségével. Időfüggő problémák tárgyalásakor<br />

igen hasznosak a megmaradási elvek (első integrálok). Sztochasztikus rendszereknél<br />

ezek többnyire hiányoznak, a megmaradó mennyiségek szerepét a martingálok<br />

veszik át; nekik legalább a (feltételes) várható értékük ismert a múltból. Legyen ζi(t) :=<br />

Si(t)/B(t) az i részvény diszkontált árfolyama, η(t) := V (t)/B(t) = µ(t)+〈ν(t), ζ(t)〉 pedig<br />

a csomag diszkontált értéke, végül ψT := ΨT /B(T ) . Feltehetjük hogy d 2 B = dBdζ = 0 ,<br />

ilyenkor dS = ζ dB + B dζ , tehát az önfinanszírozás követelménye miatt<br />

dV = η dB + B dη = µ dB + 〈ν, dS〉 = µ dB + B〈ν, dζ〉 + 〈ν, ζ〉 dB , (F13.2)<br />

vagyis dη = 〈ν, dζ〉 . Ha η martingál volna, akkor ψT ismeretében a folyamatot η(t) =<br />

E[ψT |Ft] alakban állíthatnánk elő, amiből – megfelelő reprezentációs tétel segítségével –<br />

a νi és a µ = η − 〈ν, ζ〉 együtthatókat, és ezzel a keresett önfinanszírozó stratégiát meg is<br />

határozhatnánk. A differenciálegyenletek egyik megoldási technikája megmaradási elvek<br />

(első integrálok) keresése a multiplikátorok (integráló tényezők) módszerével; a termodinamikai<br />

entrópia fogalma is így vezethető be. A jelen helyzetben ez olyan Θ = Θ(t) folyamat<br />

meghatározását jelenti, hogy ha maga η nem is martingál, de Θ(t)η(t) igen. Valóban,<br />

ha ez így van, akkor a fenti gondolatmenet a Θ(t)η(t) = E[Θ(T )ψT |Ft] azonosságból kiindulva<br />

valósítható meg. Látni fogjuk hogy Θ(T ) > 0 martingál, továbbá EΘ(T ) = 1 ,<br />

tehát d P = ΘdP olyan P segédeloszlást definiál, amely szerint η martingál, vagyis η(t) =<br />

E[ψT |Ft] , ahol E a P szerinti várható érték. Mivel Θ(t) E[ψT |Ft] = E[Θ(T )ψT |Ft] ,<br />

mindkét eljárás ugyanarra az eredményre vezet.<br />

Közvetlenül látható hogy a martingáló P ≫ P mérték létezése a keresett stratégia<br />

létezése mellett annak egyértelműségét is garantálja, mert ha ˜ν is eléri a ψT célt, és a<br />

hozzá rendelt diszkontált érték ˜η , akkor<br />

t<br />

∆T := ˜η(0) − η(0) + 〈˜ν(s) − ν(s), ζ(ds)〉 = 0<br />

Másrészt viszont<br />

0<br />

E∆ 2 T = E ˜η(0) − η(0) 2 + Q(˜ν − ν) = 0 ,<br />

ahol Q pozitiv definit kvadratikus alak, csak ugy lehetséges ha η(0) = ˜η(0) és ν(t) = ˜ν(t)<br />

∀t , tehát η(t) = ˜η(t) miatt µ(t) = ˜µ(t) is teljesül.<br />

A kitűzött feladatnak elég általános feltételek mellett van megoldása, amit konkrét<br />

modellek esetén meg is lehet határozni. Black és Scholes nyomán feltesszük hogy loglineáris<br />

modell érvényes:<br />

dB = r(t)B dt , dSi = λi(t)Si dt + Si<br />

47<br />

d<br />

σi,j(t)) Wj(dt) , (F13.3)<br />

j=1


48<br />

ahol Wi , i = 1, 2, ..., d független Wiener folyamatok rendszere, ezek együttes eloszlása P ,<br />

Ft = F W t := σ{W (s) : s ≤ t} . Az r , λi és σi,j együtthatók ismert adaptált folyamatok;<br />

a σ mátrix nem szinguláris, sőt az inverze is korlátos. 1 Feltehetjük hogy B(0) = 1 , ekkor<br />

B(t) = exp t<br />

0 r(s) ds .<br />

A fentiek értelmében a diszkontált folyamatokra koncentrálunk, Ito szerint dη = 〈ν, dζ〉 ,<br />

továbbá<br />

dζi = λi(t) − r(t) ζi dt + ζi<br />

d<br />

σi,j(t) Wi(dt) = ζi<br />

j=1<br />

d<br />

σi,j(t) θj(t) dt + Wj(dt) (F13.4)<br />

j=1<br />

vagyis d log ζ = σ d W − a dt/2 , ahol θ = (θ1, θ2, ..., θd) a<br />

r<br />

σi,j(t)θj(t) = λi(t) − r(t) (F13.5)<br />

j=1<br />

egyenletrendszer megoldása, ai := d<br />

j=1 σ2 i,j , a = (a1, ..., ad) , végül<br />

t<br />

Wi(t) := Wi(t) + θi(s) ds (F13.6)<br />

A keresett Θ integráló tényező a dΘη = ηdΘ + Θdη + dΘdη = 〈 ˜ϕ, dW 〉 egyenletből<br />

határozható meg. Mivel dη = 〈 ˜ φ, d W 〉 alakú, nem kötelező, de emberileg lehetséges kitalálni<br />

hogy dΘ = −Θ〈θ, dW 〉 univerzális megoldást ad; nem függ az ismeretlen ν kontrollváltozóktól.<br />

Innen<br />

<br />

Θ(t) := exp −<br />

d<br />

t<br />

i=1<br />

0<br />

0<br />

θi(s) Wi(ds) − 1<br />

2<br />

d<br />

t<br />

i=1<br />

0<br />

θ 2 <br />

i (s) ds<br />

(F13.7)<br />

martingál, és a d P = Θ dP formula olyan P valószínűségi mértéket (modellt) definiál az<br />

Ft filtrácó mentén, ami szerint Wi i = 1, 2, ..., r független és standard Wiener folyamatok<br />

rendszereként viselkedik. Ezt kerestük, többé nem kell aggódnunk a kívánt stratégia<br />

létezését illetően. A tőzsdei műveletek νi(t) paramétereit a következőképpen határozhatjuk<br />

meg.<br />

Mivel ˜ηT (t) := E[ψT |Ft] = M(t)/Θ(t) , ahol M(t) := E[Θ(T )ψT |Ft] , Ito reprezentációs<br />

tétele alapján létezik olyan egyértelműen meghatározott, adaptált φ = (φ1, φ2, ..., φd) folyamat<br />

hogy<br />

M(t) = t<br />

EψT + 〈φ(s), W (ds)〉 (F13.8)<br />

1 Ezek az együtthatók elvileg valamennyi árfolyamtól, sőt még a kontrollparaméterektől is függhetnek,<br />

de ilyenkor mindent megoldó képletekre nem számíthatunk; explicit formulák helyett olyan egyenleteket<br />

kapunk amelyek numerikus megoldása sem könnyű. Az efféle általános modellek mégis érdekesek, mivel<br />

a tőzsde szokatlan viselkedésének megértése csak nemlineáris modellek alapján várható. Igazán kritikus<br />

viselkedést (ciklikus, vagyis periodikus vagy majdnem periodikus jelenségek) csak végtelen rendszerek<br />

mutatnak. A járulékos technikai nehézségek jelentősek, de a végtelen dimenziós Girsanov elmélet is rendelkezésre<br />

áll!<br />

0


Mivel dMΘ −1 = Θ −1 dM −MΘ −2 dΘ+MΘ −3 d 2 Θ−Θ −2 dMdΘ , továbbá dM = 〈ϕ, dW 〉 ,<br />

dΘ = −Θ〈θ, dW 〉 , d 2 Θ = Θ 2 θ 2 dt , dMdΘ = −Θ〈ϕ, θ〉 dt ,<br />

˜ηT (t) = <br />

t<br />

t<br />

φ(s) + M(s)θ(s) , θ(s) ds + W (ds)<br />

EψT +<br />

= ˜ηT (0) + 〈<br />

Θ(s)<br />

˜ φ, d W 〉 (F13.9)<br />

0<br />

ahol ˜ φ = (φ + Mθ)/Θ . 2 Másrészt viszont dη = 〈ϕ, d W 〉 , vagyis<br />

t<br />

η(t) = V (0) + 〈ϕ(s), W (ds)〉 ahol ϕj(s) :=<br />

0<br />

0<br />

49<br />

d<br />

νi(s)ζi(s)σi,j(s) , (F13.10)<br />

tehát η(t) ≡ ˜ηT (t) megvalósítható a V (0) = EψT és a ϕ(t)Θ(t) = ˜ φ(t) egyenletek megoldásával.<br />

Ezután a µ(t) := η(t) − 〈ν, ζ〉 választással kapjuk a keresett önfinanszírozó<br />

stratégiát.<br />

A feladat tényleges megoldásához a ΨT célváltozót a Wi (vagy a Wi) folyamatok funkcionáljaként<br />

kell előállítani, innen számolandóak a stratégia meghatározó νi tényezői. Elvileg<br />

ez már nem gond, de kevés az explicit formában megoldható modell. Ez a helyzet amikor<br />

az r , λi , σi,j paraméterek ismert számok, és a követelés ΨT = f S1(T ) = |S1(T ) − p|+<br />

típusú opció, ami annyit jelent hogy T idő múlva p összegért kapunk 1 darab 1 nevű<br />

részvényt, de ha az aktuális árfolyam ennél alacsonyabb akkor nem kell megvenni. Mivel<br />

d log ζ = σ d W − a dt/2 ,<br />

d ζi(t) = ζi(0) exp<br />

j=1<br />

i=1<br />

σi,j Wj(t) − t<br />

2<br />

d<br />

j=1<br />

σ 2 i,j<br />

<br />

(F13.11)<br />

ismert lognormális eloszlású homogén Markov folyamat: ζ1(T ) = ζ1(t)e bY −b2 /2 ahol, P<br />

szerint Y standard normális vátozó, b 2 = a1(T − t) , tehát<br />

˜ηT (t) = e −rT <br />

E rT<br />

f e ζ1(T ) <br />

|Ft =: vT t, ζ1(t) , (F13.12)<br />

vT (t, z) := e−rT<br />

√ 2π<br />

∞<br />

f<br />

−∞<br />

ze rT +by−b2 /2 e −y2 /2<br />

dy<br />

Az f(u) = |u − p|+ esetben Black és Scholes Nobel díjas képletét kapjuk:<br />

vT (t, z) = zΦ(α − b) − pe −rT Φ(α) ahol α = b 1 p rT<br />

+ log −<br />

2 b z b<br />

(F13.13)<br />

míg Φ a standard normális eloszlásfüggvény. Tehát az opció méltányos ára éppen x =<br />

vT 0, ζ1(0) , továbbá Ito lemmájával dtvT (t, ζ1) = ∂zvT dζ1 = 〈ν, dζ〉 mivel η = ˜ηT martingál<br />

P szerint. Innen ν1(t) = ∂xvT (t, x) , νi(t) = 0 ha i > 1 . Az hogy dη további, korlátos<br />

2Ha tudjuk hogy ψT mérhető F W T szerint, akkor a második egyenlet közvetlenül is felírható; ehhez csak<br />

P ≪ P kell, vagy az hogy ΨT a W folyamat funkcionáljaként is megadható.


50<br />

változású tagjai kiejtik egymást, vagyis ∂vT + 1<br />

2 a1z 2 ∂ 2 zvT = 0 , az alábbi összefüggésekből<br />

is következik.<br />

A fentinél valamivel általánosabb<br />

ΨT = f S(T ) T<br />

+ g S(t) dt (F13.14)<br />

esetben is alkalmazható a pályaintegrálok technikája, legalábbis elvi vagy numerikus szinten.<br />

Ha ξ(t) eléggé reguláris homogén Markov folyamat, Ex pedig a ξ(0) = x feltétellel<br />

vett várható érték, akkor<br />

u(t, x) = Ex<br />

<br />

f ξ(t) exp t t <br />

∫ h(ξ(s)) ds + Ex<br />

0<br />

0<br />

0<br />

g ξ(s) exp s<br />

∫ 0<br />

<br />

h(ξ(τ)) dτ ds (F13.15)<br />

a ∂tu = Lu+h(x)u+g(x) egyenlet u(0, x) = f(x) kezdeti értékhez tartozó megoldása, ahol<br />

az L operátor a h ≡ g ≡ 0 választással azonosítható; ő a folyamat generátora. Ha ξ nem<br />

homogén, mint fentebb, akkor a ¯ ξ(t) := (ξ(t), t) az lesz, tehát f, g, h is függhet az időtől.<br />

(F13.15) érvényessége a Feynman–Kac formulához hasonlóan, a Markov félcsoportok elméletének<br />

segítségével bizonyítható.<br />

Megengedett stratégiák: Látható hogy önfinanszírozó stratégia esetén V (t) ≥ 0 hacsak<br />

ΨT ≥ 0 . Bonyolultabb a helyzet amikor a csomag terhére c(t) ≥ 0 sebességgel kifizetés<br />

történik. Ilyenkor sérül a tőke megmaradásának elve: dV = µ dB + 〈ν, dS〉 − c(t) dt<br />

lesz a csomag értékének (infinitezimális) változása, és azt mondjuk hogy a ν stratégia<br />

megengedett ha V (t) ≥ 0 ∀t ≤ T . Jelölje γ(t) := c(t)/B(t) a diszkontált felhasználást,<br />

most dη = 〈ν, dζ〉 − γ dt , tehát<br />

t<br />

η(t) = V (0) − Γ(t) + 〈φ(s), t<br />

W (ds)〉 ahol Γ(t) := γ(s) ds . (F13.16)<br />

0<br />

Megmutatjuk hogy az innen adódó EΓ(T ) ≤ x egyenlőtlenség egyben elegendő is olyan<br />

megengedett stratégia megkonstruálásához amelynél V (0) = x ; ecélból legyen ¯ηT (t) :=<br />

x + E[Γ(T )|Ft] − EΓ(T ) . Az η(t) ≡ ¯ηT (t) − Γ(t) azonosítással, ugyanúgy mint fentebb,<br />

meghatározható a kívánt ν stratégia, ami ¯ηT (t) ≥ 0 miatt megengedett.<br />

Optimális felhasználás: Adott c felhasználás és ΨT ≥ 0 végső igény mellett fedezeti<br />

stratégiáról beszélünk akkor, ha az megengedett, és kielégíti a ΨT = V (T ) követelést.<br />

Legyen ΣT = Γ(T ) + ψT a teljes diszkontált követelés, x = V (0) = EΣT , η∗ T (t) :=<br />

(t) − Γ(t) azonosítása után olyan ν stratégiát kapunk, ami<br />

E[ΣT |Ft] ; ekkor η(t) és η∗ T<br />

η∗ T (t) ≥ Γ(t) miatt tényleg fedezeti (megengedett) stratégia.<br />

Adott U : R+ ↦→ R+ hasznossági kritérium, q : [0, T ] ↦→ (0, 1] diszkontálás, és x =<br />

V (0) ≥ 0 kezdőtőke ismeretében törekedhetünk a<br />

T<br />

Qc(x) := E q(t)U c(t) dt (F13.17)<br />

0<br />

0


átlagos nyereség maximalizálására a ΨT végcélnak megfelelő fedezeti stratégiák mentén.<br />

Feltesszük hogy U monoton és szigorúan konkáv, továbbá U(0) = 0 míg U ′ (c) → 0 amikor<br />

c → +∞ . Az eddigi jelölésekkel legyen<br />

Q ∗ (x) := sup{Qc(x)<br />

:<br />

c<br />

EΣT ≤ x} (F13.18)<br />

Mivel U monoton nő, feltehetjük hogy EΣT = x az optimális esetben. Ha tehát Σ∗ T<br />

felhasználáshoz rendelt teljes diszkontált követelés, x = EΣ∗ T , akkor<br />

Qc∗(x) − Qc(x)<br />

T<br />

≥ E<br />

0<br />

51<br />

a c∗<br />

q(t)U ′ c ∗ (t) c ∗ (t)−c(t) dt = Z(x) EΣ ∗<br />

T − <br />

EΣT ≥ 0 (F13.19)<br />

hacsak q(t) U ′ c ∗ (t) B(t)=Z(x)Θ(t) , ahol a Z(x) normáló tényezőt úgy kell megválasztani<br />

hogy az EΣT = x mellékfeltétel teljesüljön. Jelölje Y az U ′ függvény inverzét, ekkor<br />

c ∗ (t) = Y<br />

<br />

Z(x)Θ(t)<br />

T<br />

, E Θ(t)c<br />

q(t)B(t)<br />

0<br />

∗ (t) dt = x − EΘ(T )ΨT ; (F13.20)<br />

a második egyenlet U ′ (+∞) = 0 miatt teljesíthető, és Z(x) értékét egyértelműen meghatározza.<br />

Ezek az egyenletek definiálják a c ∗ optimális felhasználást, feltéve hogy EψT ≤ x .<br />

Ezután a ν és µ kontrollváltozókat a korábbi eljárással számoljuk.<br />

Bellman egyenlete: Az utóbbi feladat az optimális kontroll elméletéhez tartozik, beilleszthető<br />

a következő általános keretbe. Tegyük fel hogy a c = c(t) , t ≥ 0 kontrollstratégia<br />

minden megengedett c ∈ C trajektóriájához hozzárendelhető a ξc = ξc(t) Markov folyamat<br />

és a<br />

Qc(s, x) := Es,xK T, ξc(T ) T<br />

+ Es,x U t, ξc(t), c(t) dt (F13.21)<br />

átlagos nyereség, ahol Es,xφ := E[φ|ξc(s) = x] , míg T > 0 lehet adott végpont, de lehet<br />

valamely előírt célhalmaz első elérésének (véletlen) időpontja is. A c stratégia maga is<br />

(adaptált) sztochasztikus folyamat, gyakori a c(t) = ϕ(t, ξc(t)) Markov stratégia. Feladatunk<br />

a Q ∗ (s, x) = sup c∈C Qc(s, x) optimum és a hozzá vezető stratégia meghatározása,<br />

például az s = 0 kezdőponthoz. Bellman elve szerint optimális stratégia minden szakasza is<br />

az, ha tehát c ∗ ilyen, és minden c ∈ C stratégi folytatható optimális módon, akkor minden<br />

τ > s értéknél<br />

Q ∗ (s, x) =Eτ,xQ ∗ τ, ξc ∗(τ) + Es,x<br />

≥Eτ,xQ ∗ τ, ξc(τ) + Es,x<br />

s∧T<br />

τ∧T<br />

s∧T<br />

τ∧T<br />

s∧T<br />

U ξc∗(t), c∗ <br />

(t) dt<br />

Általában ismerünk olyan Lc operátort hogy ha φ elég sima akkor<br />

U <br />

ξc(t), c(t) dt (F13.22)<br />

∂τ Es,xφ(τ, ξc(τ)) τ=s = (∂s + Lc(s))φ(s, x) ; (F13.23)


52<br />

diffúziós folyamatoknál ezt Ito lemmája szolgáltatja. Ha tehát Q = Q ∗ sima akkor τ szerint<br />

a τ = s helyen differenciálva kapjuk Bellman egyenletét:<br />

0 = (∂s + Lc∗)Q(s, x) + U(s, x, c∗ <br />

) = ∂sQ(s, x) + max LcQ(s, x) + U(s, x, c)<br />

c<br />

(F13.24)<br />

Az optimális kontroll c ∗ (s) = ϕ(s, x) értékét (Q ismeretében) a szélsőérték feladat megoldásaként<br />

kapjuk, ezután Q a baloldali egyenletből a Q(T, x) = K(T, x) peremfeltétel<br />

figyelembevételével számolható.<br />

Nem mindig tudjuk hogy van optimális stratégia, de ha c ∗ (s) és Q(s, x) az (F13.24)<br />

Bellman egyenlet megoldása, akkor formális számolással<br />

E0,xQ T, ξc∗(T ) T<br />

= Q(0, x) − E0,x U s, ξc∗(t), c∗ (t) dt<br />

0<br />

T<br />

≥ Q(0, x) − E0,x U s, ξc(t), c(t) dt (F13.25)<br />

hacsak c is megengedett stratégia. Innen a peremfeltétel felhasználásával Qc(0, x) ≤<br />

Q(0, x) = Qc∗(0, x) adódik, vagyis optimális stratégiát találtunk. A fenti gondolatmenet<br />

korrekt voltát konkrét esetekben ellenőrizni kell, különösen olyankor amikor T a vétlentől is<br />

függhet. Bellman elve és egyenlete, aminek egy nevezetes speciális esetét Hamilton és Jacobi<br />

fedezték fel, természetesen inhomogén, és különféle mellékfeltételekkel súlyosbított<br />

problémákra is kiterjeszthető. A mellékfeltételek korlátozhatják a végrehajtás átlagos<br />

költségét, de azt is megkövetelhetik hogy a (ξc, c) folyamat valamilyen előírt halmazban<br />

haladjon.<br />

Az optimális felhasználásról szóló feladat azért olyan egyszerű mert ott a célfüggvény<br />

csak a stratégiától függ, bár bonyolítja hogy a megengedett stratégiák inplicit v módon<br />

korlátozottak. Egyszerűség kedvéért legyen csak egy részvény, ΨT = 0 , B = q = 1 ,<br />

dS = σS(θ dt + dW ) , ahol σ és θ állandó, vagyis dV = σ(V − µ)(θ dt + dW ) − c dt ; tehát<br />

a V folyamathoz rendelt operátor nem függ ν-től:<br />

0<br />

Lµ,cφ(v) = (σv − σµ − c)φ ′ (v) + σ2<br />

2 (v − µ)2 φ ′′ (v) (F13.26)<br />

A megengedett stratégiák halmaza persze függ ν-től is. Mivel K = 0 és U = U(c) , Bellman<br />

egyenlete<br />

<br />

∂sQ + max Lµ,cQ + U(c)<br />

µ,c<br />

= 0 (F13.27)<br />

alakú, ahol L a Q = Q(t, v) függvény második változójára hat; a peremfeltétel Q(T, v) =<br />

0 . Az előző gondolatmenet szerint a fenti Bellman egyenlet minden megoldása Q ∗ felső<br />

korlátja: Q ∗ (x) ≤ Q(0, x) . Sajnos (F13.27) megoldása nem könnyű. Mivel U konkáv,<br />

U ′ (c) = ∂vQ(s, v) az optimális helyzetben, míg az ésszerű ∂ 2 vQ < 0 feltevés mellett a<br />

µ = v + θ∂vQ(s, v)/σ∂ 2 vQ(s, v) összefüggéshez jutunk, tehát<br />

∂sQ(s, v) − θ2 U ′2 (c)<br />

2∂ 2 vQ(s, v) + U(c) − cU ′ (c) = 0 , U ′ (c) = ∂vQ(s, v) (F13.28)


a megoldandó egyenlet, ami elég reménytelen. Mivel időben homogén folyamatokról van<br />

szó, az s > 0 és V (s) = v kezdeti feltétellel az optimumfeladat korábban megismert<br />

megoldása<br />

Q ∗ (s, v) : = E<br />

E<br />

T −s<br />

0<br />

T −s<br />

0<br />

U Y (ZΘ(t)) dt ahol<br />

Θ(t)Y ZΘ(t) dt = v<br />

53<br />

(F13.29)<br />

tehát Z = Z(s, v) . Megmutatjuk hogy Q ∗ kielégíti Bellman (F13.27–28) egyenletét. A<br />

második egyenletből<br />

∂vZ(s, v)E<br />

T −s<br />

0<br />

Θ 2 (t)Y ′ ZΘ(t) dt = 1 ,<br />

EΘ(T − s)Y ZΘ(T − s) = ∂sZE<br />

T −s<br />

0<br />

Θ 2 (t)Y ′ (ZΘ(t)) dt = ∂sZ(s, v)<br />

∂vZ(s, v)<br />

(F13.30)<br />

tehát Q ∗ definiciója szerint ∂vQ ∗ (s, v) = Z(s, v) = U ′ (c) . Az idő szerinti deriválás valamivel<br />

bonyolultabb, az (U(Y (ax)) ′′ = a(xY (ax)) ′′ − aY ′ (ax) azonosság felhasználásával<br />

∂sQ ∗ (s, v) = Z∂sZ<br />

∂vZ − EUY (ZΘ(T − s)) = ZEΘ(T − s)Y ZΘ(T − s) <br />

−U(c) − θ2 Z 2<br />

2 E<br />

T −s<br />

0<br />

= ZEΘ(T − s)Y ZΘ(T − s) − U(c)<br />

<br />

Y ′ ZΘ(t) + ZΘ(t)Y ′′ ZΘ(t) <br />

Θ 2 (t) dt<br />

+ ZY (Z) − ZEΘ(T − s)Y ZΘ(T − s) + θ2 Z 2<br />

2∂vZ<br />

ami éppen a bizonyítandó állítás mivel ZY (Z) = cU ′ (c) . Mivel tudjuk hogy Q ∗ (s, v) ≤<br />

Q(s, v) hacsak Q az (F13.27) Bellman egyenlet megoldása, azt kaptuk hogy Q ∗ a minimális<br />

megoldás, lásd (F13.F4)<br />

F13.F1: Ha ξ ≥ 0 szupermartingál, és τ az első olyan időpont ahol ξ(τ) = 0 akkor ξ a τ<br />

után már végig nulla.<br />

F13.F2: Csak egy fedezeti stratégia van!<br />

F13.F3: Ha az EΣT ≤ x mellékfeltételt EΓ(T ) ≤ x helyettesíti, akkor az optimális<br />

startégia eredménye V (T ) = 0 !<br />

F13.F4 Bizonyítandó hogy Q ∗ (s, v) a v monoton és konkáv függvénye, tehát tényleg<br />

kielégíti Bellman egyenletét.


54<br />

S. Matematikai Statisztika<br />

Arról van szó hogy elképzeléseink tapasztalati tényekkel hogyan szembesíthetőek. Sajnos<br />

a legtöbb használható módszer a normális eloszláshoz kötődik.<br />

S.1. Többváltozós normális eloszlás, N(m, Σ): Várható értéke az m vektor, kovariancia<br />

mátrixa Σ , ami négyzetalakú és nemnegatív definit. Az n-dimenziós standard normális<br />

eloszlás n darab független ξk ∼ N(0, 1) változó együttes eloszlása. Ennek várható értéke a<br />

0 vektor, kovarianciája az egységmátrix, sűrűsége az x = (x1, x2, ..., xn) helyen éppen<br />

fξ(x) = fξ(x1, x2, ..., xn) = (2π) −n/2 exp − 1<br />

2<br />

n<br />

k=1<br />

x 2 k<br />

−n/2 1<br />

= (2π) exp − 〈x, x〉<br />

2<br />

(S1.1)<br />

ahol 〈x, y〉 a szokásos skaláris szorzat, az x, y ∈ R n vektorok koordinátáinak szorzatösszege.<br />

Az x ∈ R n vektor hossza (normája) x := 〈x, x〉 .<br />

Általában normálisnak nevezzük az η = m+Aξ lineáris transzformációval származtatott<br />

η = (η1, η2, ..., ηd) változók együttes eloszlását; részletesen kiírva<br />

ηk = mk +<br />

n<br />

A(k, j)ξj , k = 1, 2, ..., d (S1.2)<br />

j=1<br />

Látható hogy itt m az mk = Eηk várható értékek vektora, míg a kovarianciák Σ mátrixa<br />

Σ(k, j) := Cov(ηk, ηj) =<br />

n<br />

A(k, ℓ)A(j, ℓ) (S1.3)<br />

vagyis Σ = AA T , ahol T a transzponálás jele. Látható hogy a Σ mátrix szimmetrikus és<br />

pozitív definit: 〈y, Σy〉 ≥ 0 ∀y ∈ R d , és ha invertálható akkor pozitív alsó korátja is van,<br />

vagyis található olyan α > 0 szám (például a legkisebb sajátérték) hogy 〈y, Σy〉 ≥ αy 2 .<br />

Ilyenkor η sűrűségfüggvénye az y = (y1, y2, ..., yd) helyen<br />

<br />

ZB =<br />

j=1 k=1<br />

ℓ=1<br />

fm,Σ(y1, y2, ..., yd) = fm,Σ(y) = 1<br />

exp<br />

ZB<br />

− 1<br />

2 〈y − m, By − Bm〉 ,<br />

d d<br />

〈y − m, By − Bm〉 = B(k, j)(yk − mk)(yj − mj) (S1.4)<br />

exp − 1<br />

2 〈y − m,By − Bm〉 dy = (2π)n/2<br />

√ Det B = (2π) n/2√ Det Σ<br />

ahol B a Σ kovarianciamátrix inverze, B = Σ−1 , tehát ő is pozitív definit, vagyis a ZB<br />

normáló tényező véges.<br />

Két változó együttes sűrűsége öt paramétert tartalmaz, mi<br />

r = R(η1, η2) . A 2 × 2 méretű kovariancia mátrix és inverze<br />

= Eηi , σi = D(ηi) és<br />

<br />

2 σ1 rσ1σ2<br />

Σ =<br />

rσ1σ2<br />

σ 2 2<br />

Σ −1 = 1<br />

1 − r 2<br />

<br />

2 1/σ1 r/σ1σ2<br />

<br />

r/σ1σ2<br />

1/σ 2 2<br />

(S1.5)


tehát a sűrűségfüggvény<br />

f(y1, y2) =<br />

1<br />

√<br />

2πσ1σ2 1−r2 exp<br />

<br />

− (y1 − m1) 2<br />

2(1−r2 )σ2 +<br />

1<br />

r(y1−m1)(y2−m2)<br />

(1 − r2 )σ1σ2<br />

− (y2 − m2) 2<br />

2(1−r2 )σ2 <br />

2<br />

55<br />

(S1.6)<br />

(A9.2) segítségével kiszámolható hogy E[η1|η2 = y2] = m1 + rσ1(y2 − m2)σ −1<br />

2 , de ezt<br />

olcsóbban is megkaphatjuk.<br />

Az m és Σ paraméterek értelmezése (S1.4) alapján a következő. Mivel ∇f integrálja<br />

nulla, ∇fm,Σ = fm,Σ(y)(Bm − By) , látható hogy mk = Eηk . A második parciális deriváltak<br />

integrálásával adódik a Σ(k, j) = E(ηk − mk)(ηj − mj) = Cov(ηk, ηj) értelmezés.<br />

Valóban, ha xy T az x és y vektorok diadikus szorzatát jelenti, akkor a<br />

∇ 2 fm,Σ(y) = fm,Σ(y) (By − Bm)(By − Bm) T − B <br />

mátrix mindegyik ∂ 2 f/∂xk∂xj komponensének is nulla az integrálja, vagyis BΣB T = B ,<br />

tehát B = Σ −1 .<br />

A fölösleges változók kiintegrálásakor az<br />

∞<br />

exp(−a<br />

−∞<br />

2 u 2 + 2bu) du =<br />

<br />

π<br />

a2 exp b2 a2 <br />

(S1.7)<br />

azonosság alapján látható hogy együttesen normális eloszlású változók részrendszerei is<br />

együttesen normálisak. A tér invertálható lineáris transzformációi a normális sűrűség<br />

alakját megtartják, tehát együttesen normális változókból lineáris transzformációval ismét<br />

együtt is normális változókat kapunk. Diagonális mátrix inverze is az, tehát páronként<br />

korrelálatlan és együttesen normális változók függetlenek; az ”együttesen normális“ feltétel<br />

nem hagyható el. Tegyük fel hogy Cov(ηk, ηj) = 0 ha 1 ≤ k ≤ d ′ míg d ′ < j ≤ d , vagyis<br />

Σ diagonális blokkokra bomlik szét:<br />

<br />

Σ1 0<br />

Σ =<br />

0 Σ2<br />

és így Σ −1 =<br />

Σ −1<br />

1<br />

0<br />

0 Σ −1<br />

2<br />

<br />

(S1.8)<br />

tehát fm,Σ(y1, y2) = fm1,Σ1 (y1)fm2,Σ2 (y2) , ahol y = (y1, y2) és m = (m1, m2) az y<br />

és m vektorok fentiek szerinti particionálása. Eszerint normális változók csoportjainak<br />

páronkénti korrelálatlanságából teljes függetlenség következik. A fenti összefüggések a<br />

karakterisztikus függvény<br />

Ψη(z) := Ee ı〈z,η〉 = e ı〈z,m〉 exp − 1<br />

〈z, Σz〉<br />

2<br />

formulájából is kiolvashatóak, ahol szokás szerint z = (z1, z2, ..., zm) .<br />

S1.F1: Ha a ξ ∼ N(m, Σ) akkor Ee ı〈z,ξ〉 = e ı〈z,m〉 exp(−(1/2)〈z, Σz〉) !<br />

(S1.9)<br />

S1.F2 ∗ : Bizonyítandó hogy ha ξ és η együttesen normális, és Eξ = Eη = 0 , akkor<br />

E(ξ 2 η 2 ) = Eξ 2 Eη 2 + 2E 2 (ξη) !


56<br />

S1.F3: ξ és η együttes sűrűségfüggvénye f(x, y) = c exp(−a 2 x 2 + 2bxy − y 2 ) . Melyek<br />

az a, b, c paraméterek megengedett értékei? Határozza meg Eη , D 2 (η) , E[η|ξ] és D 2 [η|ξ]<br />

képleteit!<br />

S1.F4: ξ és η együttesen normális, egyenként N(0, 1) eloszlású. A b paraméter milyen<br />

értékeinél lehet η és η + bξ független, és ilyenkor E[η|ξ] = ?<br />

S.2. Lineáris regresszió: Tegyük fel hogy ξ = (ξ1, ξ2, ..., ξn) vektorváltozó, η valós,<br />

〈c, ξ〉 = c1ξ1 + c1ξ1 + · · · + cnξn ; ˜c = (˜c1, ˜c1, ..., ˜cn) pedig az E(η − 〈c, ξ〉) 2 =min! feladat<br />

megoldása. A legkisebb négyzetek módszerével ˜c meghatározására az<br />

E(ηξk) =<br />

n<br />

cjE(ξjξk) , k = 1, 2, ..., n (S2.1)<br />

j=1<br />

lineáris egyenletrendszert kapjuk, ami nem más mint az E[η|ξ] = ψ∗ (ξ) váltózót meghatározó<br />

Eηφ = Eψ∗φ feltételrendszer egy része: φ csak a ξ valamelyik komponense lehet.<br />

Legyen tehát ˜c az (S2.1) rendszer megoldása; ˜η := 〈c, ξ〉 . Általában ξ1 ≡ 1 ; a ξk ≡ ξ k−1<br />

2<br />

polinomiális regresszió is gyakori, de más függvényeket is választhatunk. Az η ∼ ξ1ecξ2 feladatot a log η ∼ log ξ1 + cξ2 alakba szokás átírni, igy keletkeznek a loglineáris modellek.<br />

Az n = 2 , ξ1 ≡ 1 esetben egyszerű számolással adódik az<br />

˜η − Eη<br />

D(η)<br />

Cov(η, ξ2) ξ2 − Eξ2<br />

=<br />

D(η)D(ξ2) D(ξ2) ≡ R(η, ξ2) ξ2 − Eξ2<br />

D(ξ2)<br />

(S2.2)<br />

formula. Valóban, azt eleve tudjuk hogy ha E(η − a − bξ2) 2 =min, akkor a = Eη − bEξ2 ,<br />

vagyis<br />

E η − Eη − b(ξ2 − Eξ2) 2 = D 2 (η) + b 2 D 2 (ξ2) − 2bCov(η, ξ2)<br />

minimumát kell meghatározni, ami éppen b = Cov(η, ξ2)/D 2 (ξ2) esetén valósul meg; ez az<br />

(elméleti) regressziós egyenes meredeksége.<br />

Tegyük fel hogy η, ξ1, ξ2, ..., ξn együttesen normális, és ˜η = 〈˜c, ξ〉 a fenti lineáris regressziós<br />

feladat megoldása. Ekkor a konstrukció szerint η − ˜η és a ξ vektor komponensei<br />

korrelálatlanok, tehát függetlenek is. Emiatt Eηφ(ξ) = E ˜ηφ(ξ) általában is igaz,<br />

vagyis E[η|ξ] = ˜η = 〈˜c, ξ〉 a lineáris regressziós feladat megoldása. Az is látható hogy a<br />

D 2 [η|ξ] := E[(η − ˜η) 2 |ξ] feltételes szórásnégyzet nem függ a ξ feltételtől mert maga η − ˜η<br />

is független tőle. Ezért D 2 (η|ξ) = D 2 (η) − D 2 (˜η) = Eη 2 − E ˜η 2 .<br />

S.3. A két legfontosabb statisztika eloszlása: Legyen ξ1, ξ2, ..., ξn független és ugyanolyan<br />

N(m, σ 2 ) eloszlású sorozat, ¯ ξn nyilván N(m, σ 2 /n) eloszlású. Könnyű ellenőrizni<br />

hogy ¯ ξn és ξk − ¯ ξn korrelálatlan: E( ¯ ξn − m)(ξk − ¯ ξn) = 0 ∀k , tehát ¯ ξn és ¯σn független<br />

egymástól.<br />

Legyen e (1) , e (2) , ..., e (n) az R n tér páronként merőleges egységvektorainak olyan rendszere,<br />

ahol az e (1) mindegyik koordinátája 1/ √ n , a többi tetszőleges. A<br />

n<br />

k=1<br />

x 2 k =<br />

n<br />

〈e (k) , x〉 2<br />

k=1<br />

(S3.1)


azonosságból, ahol x = (x1, x2, ..., xn) , e (k) = (ek,1, ek,2, ..., ek,n) , a<br />

n<br />

(ξk − ¯ ξn) 2 =<br />

k=1<br />

n<br />

(ξk − m) 2 − n( ¯ ξn − m) 2 =<br />

k=1<br />

n<br />

k=2<br />

η 2 k<br />

57<br />

(S3.2)<br />

felbontást kapjuk. A kovarianciák (S1.3) alapján számolhatóak; mivel az (ek,j) mátrix<br />

ortogonális, azt kapjuk hogy az<br />

n<br />

ηk := ek,j(ξj − m) , k = 1, 2, ..., n , (S3.3)<br />

j=1<br />

változók függetlenek, és N(0, σ2 ) eloszlásúak. Eszerint (n − 1)σ−2 ¯σ 2 n(ξ) eloszlása χ2 n−1 , és<br />

azt is beláttuk hogy<br />

<br />

n(n − 1)( ξn<br />

¯ − m)<br />

Tn,m := <br />

n<br />

k=1 (ξk − ¯ ξn) 2<br />

≡ √ n ¯ ξn − m<br />

(S3.4)<br />

¯σn(ξ)<br />

Student eloszlású, éspedig (n − 1) szabadsági fokkal. Mindez onnan is látszik hogy az<br />

(S3.2) kvadratikus alak mátrixa A = I − E/n ahol E az a mátrix aminek mindegyik eleme<br />

1 . Tehát Ae (1) = 0 és Ay = y ha 〈e (1) , y〉 = 0 , vagyis (ξk − ¯ ξn)/σ együttes eloszlása –<br />

főtengely transzformáció után – n − 1 dimenziós standard normális lesz.<br />

S.4. Statisztikai problémák: Általában egy (vagy több) valószínűségi változó eloszlásáról<br />

szeretnénk információt nyerni a konkrétan megfigyelt (mért) értékei(k) alapján.<br />

Feltételezzük hogy az egyes mérések egymást nem befolyásolják, és reprodukálhatóak,<br />

ezért az észlelt x = (x1, x2, ..., xn) sorozatot olyan ξ = (ξ1, ξ2, ..., ξn) vektorváltozó – a<br />

statisztikai minta – aktuális értékeként értelmezzük, ahol a ξk komponensek függetlenek<br />

és ugyanolyan eloszlásúak. A továbbiakban mξ illetve σξ a ξk változók közös várható<br />

értékét, illetve szórását jelölik; F = Fξ a közös eloszlásfüggvényük. Gyakran még egy η =<br />

(η1, η2, ..., ηn ′) minta is adott, ilyenkor a (ξk, ηk) párok függetlenek, és együttes eloszlásuk<br />

azonos; mη := Eηk , ση := D(ηk) . Ha több változóról van szó akkor a ξk koordináta<br />

maga is vektornak tekinthető; a kényelmesen használható statisztikai programcsomagok<br />

(MATLAB, STATGRAF, MINITAB, SPSS, SAS) az adatokat mátrix formátumban (is)<br />

tárolják, ezért fontos a mátrix aritmetika jelölésmódjának ismerete.<br />

Az a legjobb, ha az eloszlás típusa ismert, tehát csak a benne szereplő paramétereket<br />

kell megbecsülni. Ha egy paraméter (vagy valamilyen függvénye) várható értékként értelmezhető,<br />

akkor – a nagy számok törvényére hivatkozva – használhatjuk a megfelelő<br />

számtani közepet. Például, az exponenciális eloszlás paraméterének reciprokát lehet így<br />

becsülni. A szintén nagyon általános maximum likelihood (ML) elv szerint a paraméternek<br />

azt az értékét választjuk, amelyiknél az aktuális megfigyelés a leginkább valószínű, feltéve<br />

hogy ilyen van, és egyértelműen meghatározható. Például, ha ξ folytonos eloszlású, és<br />

sűrűségfüggvénye f = f(x, θ) , ahol a θ vektor is lehet, akkor adott x = (x1, x2, ..., xn)<br />

esetén azt a θ = ˆ θn(x) értéket keressük, amelyik az<br />

n<br />

fn(x, θ) ≡ fn(x1, x2, ..., xn, θ) := f(xk, θ) (S4.1)<br />

k=1


58<br />

együttes sűrűség maximumát adja, ami differenciálással gyakran meghatározható; többnyire<br />

a hn = log fn függvénnyel számolunk. Ha a minta diszkrét eloszlású akkor a megfelelő<br />

valószínűségekkel tesszük ugyanezt.<br />

Normális eloszlásnál a θ = (m, σ 2 ) párra az<br />

m = ¯xn := 1<br />

n<br />

n<br />

k=1<br />

xk , σ 2 = ˆσ 2 n(x) := 1<br />

n<br />

n<br />

(xk − ¯xn) 2 ≡<br />

értékeket kapjuk. Ez egyáltalán nem meglepő, mert a Steiner típusú<br />

k=1<br />

n<br />

(xk − m) 2 = nˆσ 2 n(x) + n(¯xn − m) 2<br />

k=1<br />

n − 1<br />

n ¯σ2 n(x) (S4.2)<br />

azonosság miatt a ξ minta együttes sűrűsége fn(x, m, σ 2 ) = h(¯xn, ¯σ 2 n(x), m, σ 2 , n) alakú;<br />

ez a tényleges magyarázata annak a szokásnak hogy normális eloszlású adatok elemzésekor<br />

mindig csak az ¯xn és a ¯σ 2 n mennyiségeket használjuk. P(λ) eloszlású mintánál<br />

log P [ξ1 = x1, ξ2 = x2, ..., ξn = xn] = −λn +<br />

n<br />

k=1<br />

<br />

xk log λ − log xk! <br />

tehát λ ML becslése megint csak az ¯xn számtani közép lesz. Az exponenciális eloszlás esete<br />

még egyszerűbb, ott fn a ¯ ξn függvénye, tehát ő az egyetlen kitüntetett statisztika. Viszont<br />

Weibull eloszlásnál ilyen redukált tárgyalásra nincs lehetőség.<br />

A Tn = Tn(ξ) statisztika elégséges ha adott értéke mellett a minta feltételes eloszlása<br />

nem függ a paraméterektől. Exponenciális és Poisson eloszlásnál ilyen a ¯ ξn mintaközép,<br />

normális eloszlásnál pedig a ( ¯ ξn, ¯σ 2 n(ξ)) pár. E(a, b) esetén a (ξ ∗ 1 + ξ ∗ n, ξ ∗ n − ξ ∗ 1) pár alkot<br />

elégséges statisztikát, ahol ξ ∗ 1 a minta legkisebb, ξ ∗ n a legnagyobb eleme. Elégséges statisztika<br />

nem mindig van, de ha igen, akkor eljárásunkat – az elmélet szerint is – mindig őreá<br />

kell építeni.<br />

A szórásnégyzetn ˆσ 2 n becslése nem torzítatlan; xk helyére ξk-t írva azt kapjuk hogy<br />

ˆσ 2 n(ξ) várható értéke nem σ 2 hanem (n − 1)σ 2 /n . Normális eloszlásnál ennek a becslésnek<br />

a négyzetes hibája E ˆσ 2 n(ξ) − σ 2 2 = (2n − 1)σ 4 /n 2 , ami kicsit kisebb mint D 2 (¯σn(ξ)) =<br />

2σ 4 /(n − 1) .<br />

Valamely ¯ θn = ¯ θn(ξ) becslés E( ¯ θn − θ) 2 négyzetes hibája tájékoztat a becslés pontosságáról,<br />

de gyakran ennél sokkal részletesebb információ is rendelkezésre áll. Például, ha<br />

a minta N(m, σ 2 ) eloszlású, akkor minden 0 < ε < 1 szinthez megadható az uε küszöbérték<br />

úgy hogy<br />

P [−uε < √ n( ¯ ξn − m)/σ < uε] = 2Φ(uε) − 1 = 1 − ε (S4.3)<br />

teljesüljön. Ehhez csak a Φ(uε) = 1 − ε/2 egyenlet megoldását kell a Φ táblázatából<br />

kikeresni. Ha tehát σ ismert, akkor olyan konfidencia intervallumot tudunk konstruálni,<br />

amely az m elméleti várható értéket 1 − ε valószínűségel tartalmazza. Konkrétabban:<br />

P [ ¯ ξn − σuε/ √ n < m < ¯ ξn + σuε/ √ n] = 1 − ε . (S4.4)


A végeredmény közlésekor ¯ ξn helyére persze ¯xn értékét írjuk, az ε szint (0.05, 0.01, stb)<br />

feltüntetésével. Konfidencia intervallum készítésére több módszer is elképzelhető, és amelyik<br />

mindig a legkeskenyebb intervallumot adja, az a legjobb. Ilyen kétségkívül optimális<br />

eljárás általában nem létezik.<br />

Ha a szórás nem ismert, akkor ilyen egyszerűen nem boldogulunk, de a paraméterek<br />

értékére vonatkozó hipotézis tesztelésére mindig van lehetőség. Ha például azt gondoljuk<br />

hogy ξ eloszlása N(0, 1), akkor √ n ¯ ξn értéke 1 − ε valószínűséggel a [−uε, uε] intervallumba<br />

esik, ahol Φ(uε) = 1 − ε/2 . Ha nem ez történt, akkor alapos okunk van arra, hogy – ε<br />

szinten – az eloszlásra vonatkozó hipotézisünket elvessük.<br />

Egy tesztelési eljárás hatékonysága csak akkor minősíthető, ha alkalmasan választott<br />

alternatívával állítjuk szembe, vagyis mérlegeljük az első- és a másodfajú hiba viszonyát.<br />

Ha a két hipotézist pontosan meg tudjuk fogalmazni, és az egyik hiba szintjét előírjuk,<br />

akkor az optimális döntést a (O3.1) Neyman-Pearson stratégia adja. Több hipotézis közül<br />

csak akkor tudunk optimális módon választani, ha ismert az egyes tévedési lehetőségek<br />

költsége. Ilyenkor a maximum a-posteriori valószínűség Bayes elvét alkalmazzuk.<br />

S.5. Cramer-Rao egyenlőtlenség: A becslések pontosságának elvi alsó korlátja van.<br />

Tegyük fel hogy a szóbanforgó f = f(x, θ) sűrűségfüggvény a θ paraméter folytonosan<br />

differenciálható függvénye, és ˆ θn = ˆ θn(ξ1, ξ2, ..., ξn) ≡ ˆ θn(ξ) a θ paraméter torzítatlan<br />

becslése. Ekkor<br />

θ = E ˆ <br />

θn(ξ) = ˆθn(x)fn(x, θ) dx (S5.1)<br />

R n<br />

differenciálásával E∂θ log fn(ξ, θ) = 1 adódik. Másrészt fn integrálja mindig 1 , vagyis<br />

∂θfn integrálja 0 , tehát E∂θ log fn(ξ, θ) = 0 , amiből a Cauchy-Schwarz egyenlőtlenség<br />

alkalmazásával<br />

1 = E ( ˆ θn(ξ) − θ)∂θ log fn(ξ, θ) ≤ D( ˆ <br />

θn) E ∂θ log fn(ξ, θ) 2 . (S5.2)<br />

A négyzetgyök alatti kifejezés kiértékelésével kapjuk a Cramer-Rao egyenlőtlenséget:<br />

D 2 ( ˆ θn) ≥ 1<br />

nI(θ)<br />

∞ <br />

ahol I(θ) := ∂θ log f(x, θ) 2 f(x, θ) dx (S5.3)<br />

a Fisher féle információ.<br />

Elégséges statisztika függvényeként konstruált torzítatlan becslés mindíg optimális (minimális<br />

szórású). Elég általános típusú, de nem mindig teljesülő regularitási feltételek<br />

mellett a maximum likelihood becslés aszimptotikusan optimális, vagyis eléri a fenti elvi<br />

korlátot: limn nD 2 ( ˆ θn) = 1/I(θ) . Ráadásul ilyenkor ˆ θn aszimptotikusan normális, vagyis<br />

a paraméter értékére vonatkozó hipotézis tesztelésére is lehetőség van.<br />

Különösen érdekes az egyenletes eloszlás esete, itt a maximum likelihood elv semmit sem<br />

mond. Ha ξ eloszlása E(0, a) , akkor 2 ¯ ξn az a torzítatlan becslése, melynek szórása a/ √ 3n .<br />

Ugyanakkor a ξ ∗ n = max{ξ1, ξ2, ..., ξn} becslés nem torzítatlan, Eξ ∗ n = an/(n + 1) mivel<br />

P [ξ ∗ n < x] = (x/a) n ha 0 < x < a , továbbá Eξ ∗2<br />

n = na 2 /(n + 2) . Tehát a ∗ n = ξ ∗ n(n + 1)/n<br />

az a torzítatlan becslése, és E(a ∗ n − a) 2 = a 2 /(n 2 + 2n) . Nincs ellentmondás: az egyenletes<br />

−∞<br />

59


60<br />

sűrűségfüggvény az intervallum végpontjaiban nem differenciálható, ezért (S5.2) első fele<br />

sem igaz.<br />

S.6. Lineáris modellek Gauss–Markov elmélete: A feladat a β = (β1, β2, ..., βr)<br />

paraméter vektor becslése az<br />

ηk =<br />

r<br />

xk,ℓβℓ + εk , k = 1, 2, ..., n (S6.1)<br />

ℓ=1<br />

modell alapján, amit tömören az η = Xβ + ε alakban is felírhatunk. Az X mátrix elemei<br />

általunk választott mérési pontok, tehát ismert számok, η = y + ε pedig az y = Xβ<br />

mennyiség ε hibával megfigyelt értéke. Feltesszük hogy az S := XT X mátrix invertálható,<br />

Eεk = 0 , D(εk) = σ , és Eεkεj = 0 ha k = j . A legkisebb négyzetek módszere szerint β<br />

becslésére a<br />

n<br />

2 2<br />

≡ η − Xβ = min! (S6.2)<br />

k=1<br />

ηk − Σ r ℓ=1xk,ℓβℓ<br />

feladat ¯ βn = (X T X) −1 X T η ≡ Aη megoldását használjuk. Valóban, η−Xβ pontosan akkor<br />

merőleges az X oszlopvektorai által kifeszített, r-dimenziós Hr altérre ha X T Xβ = X T η .<br />

Ez a becslés torzítatlan: ¯ βn = β + Aε miatt E ¯ βn = β . A becslés hibája E ¯ βn − β 2 =<br />

σ 2 TrAA T = σ 2 TrS −1 .<br />

A P = X(X T X) −1 X T n × n méretű mátrix szimmetrikus, és a négyzete önmaga; ez<br />

a P nem más mint az X oszlopai által kifeszített Hr altérre való merőleges vetítés, tehát<br />

Eη = EP η és így ε 2 = η − Eη 2 = η −P η 2 +P η − EP η 2 . Mivel EP η − EP η 2 =<br />

EP ε 2 = σ 2 TrP P T = rσ 2 ,<br />

ˆσ 2 n = 1<br />

n − r 〈η, η − X(XT X) −1 X T η〉 ≡<br />

η − P η2<br />

n − r<br />

(S6.3)<br />

a σ 2 torzítatlan becslése: Eˆσ 2 n = σ 2 . Normális eloszású hibák esetén ˆσ 2 n/σ 2 eloszlása χ 2 n−r ,<br />

ilyenkor konfidencia intervallum készítésére és hipotézisvizsgálatra is lehetőség van.<br />

Tegyük fel hogy B olyan r × n méretű mátrix hogy ˜ βn = Bη a β vektor torzítatlan<br />

becslése, vagyis E ˜ βn = β = BXβ miatt BX = I . Ekkor BA T = AA T miatt ˜ βn − ¯ βn<br />

koordinátái a ¯ βn egyik koordinátájával sem korrelálnak, vagyis igaz az<br />

E ˜ βn − β 2 = E ¯ βn − β 2 + E ˜ βn − ¯ βn 2<br />

(S6.4)<br />

Steiner típusú felbontás. Ez azt jelenti hogy a legkisebb négyzetek módszerével kapott ¯ βn<br />

a legkisebb szórású torzítatlan becslés, tehát ilyen értelemben optimális.<br />

Ha a D(εk) = σk szórások nem egyenlőek, de ismert számok, akkor (S6.1) k-ik egyenletét<br />

σk-val végigosztva a feladatot az egyenlő szórások már tisztázott esetére vezettük vissza,<br />

tehát az optimális becslés a<br />

n<br />

1<br />

σ<br />

k=1<br />

2 k<br />

ηk −<br />

r<br />

ℓ=1<br />

2 xk,ℓβℓ = min! (S6.5)


feladat megoldásával nyerhető. Még általánosabban, ha az ε hibavektor változatlanul<br />

0 várható értékű, és a Σ kovariancia mátrixa ismert, akkor az egyenletek Σ −1/2 η =<br />

Σ −1/2 Xβ + Σ −1/2 ε alakjában az új ε ′ = Σ −1/2 ε hibavektor már korrelálatlan, tehát β<br />

optimális becslése ilyenkor ¯ βΣ,n = (X T Σ −1 X) −1 X T Σ −1 η .<br />

S.7. Konfidenciaintervallumok konstrukciója: Csak akkor lehetséges ha ismerünk<br />

olyan Tn = Tn(ξ1, ξ2, ..., ξn, θ) függvényt, amelynek eloszlása a becsülni kívánt θ paramétertől<br />

nem függ, vagyis a P [vε,n < Tn < uε,n] = 1 − ε egyenlet, például a P [Tn ≤ vε,n] =<br />

ε/2 = P [Tn ≥ uε,n] módon, megoldható. Elvileg lehetséges hogy a vε,n < Tn < uε,n<br />

egyenlőtlenség megoldásával θ-ra nem intervallumot kapunk. Mindig többdimenziós konfidencia<br />

tartomány keletkezik ha θ maga is több komponensből áll. Ilyenkor lehetőleg annyi<br />

Tn függvényre van szükség, amennyi a paraméterek száma. Ha megtaláltuk őket, akkor az<br />

egyes paraméterek becslésének megbízhatóságait egymástól függetlenül is szabályozhatjuk.<br />

Exponenciális eloszlás: Ha λ a paraméter, akkor Tn = nλ ¯ ξn eloszlása Γ(n, 1) ismert, tehát<br />

a v és u szinteket alkalmas táblázatból kikeresve a vε,n/n¯xn < λ < uε,n/n¯xn konfidencia<br />

intervallum keletkezik.<br />

Normális eloszlás: Az m és σ paraméterek konfidencia intervallumai ¯ ξn , illetve ¯σn eloszlására<br />

épülnek. Az S3 szakasz szerint<br />

Tn,σ := 1<br />

σ 2<br />

n<br />

(ξk − ¯ ξn) 2 ≡ (n − 1) ¯σ2 n(ξ)<br />

σ2 k=1<br />

61<br />

(S7.1)<br />

eloszlása χ 2 n−1 típusú, amiből kiindulva konfidencia intervallum készíthető σ részére. Azt is<br />

tudjuk, lásd (S3.4), hogy Tn,m tn−1 (Student) eloszlású, ami az m várható érték konfidencia<br />

intervallumának meghatározását is lehetővé teszi.<br />

A két konfidencia intervallum egyidejűleg is érvényes 1 − ε valószínűséggel, ha olyan ε1<br />

és ε2 szinthez választottuk őket, hogy ε1 + ε2 = ε . Ez a becslés a Tn,σ és Tn,m együttes<br />

eloszlásának ismeretében javítható.<br />

S.8. A regressziós egyenes meredekségéről: Legyen η = (η1, η2, ..., ηn) és ξ =<br />

(ξ1, ξ2, ..., ξn) valamely normális eloszlású pár megfigyelt értékeit leíró minta, vagyis az<br />

(ηk, ξk) , k = 1, 2, ..., n párok függetlenek és ugyanolyan kétváltozós normális eloszlásúak.<br />

Közös paramétereiket értelemszerűen mη, mξ, ση, σξ és rη,ξ jelölik. Az elméleti regressziós<br />

egyenes az alábbi módon is felírható:<br />

ηk − mη = b(ξk − mξ) + ζk , ahol b = rη,ξ ση/σξ (S8.1)<br />

miatt ξk és ζk korrelálatlan, tehát független is. A ζ = (ζ1, ζ2, ..., ζn) hibavektor várható<br />

értéke 0 , míg D 2 (ζk) =: σ 2 ζ = D2 (ηk)−b 2 D 2 (ξk) . A konkrét adatokból számolt ¯ bn becslést<br />

szintén valószínűségi változónak tekintjük:<br />

¯ bn = ¯ bn(η, ξ) :=<br />

n<br />

k=1 (ηk − ¯ηn)(ξk − ¯ ξn)<br />

n<br />

k=1 (ξk − ¯ ξn) 2<br />

≡ 〈η − ¯ηn1, ξ − ¯ ξn1〉<br />

ξ − ¯ ξn1 2<br />

A tömören felírt második képletben a1 az a vektor melynek mindegyik koordinátája a .<br />

(S8.2)


62<br />

Az (S8.1) egyenletek összeadásával ¯ηn − mη = b( ¯ ξ − mξ) + ¯ ζn adódik, tehát<br />

és így n<br />

k=1 (ξk − ¯ ξn) = 0 miatt (S8.2) a<br />

ηk − ¯ηn = b(ξk − ¯ ξn) + ζk − ¯ ζn , k = 1, 2, ..., n (S8.3)<br />

¯ bn(η, ξ) − b =<br />

n k=1 ζk(ξk − ¯ ξn)<br />

n k=1 (ξk − ¯ ξn) 2 ≡ 〈eξ, ζ〉<br />

ξ − ¯ ξn1<br />

(S8.4)<br />

alakba írható át, ahol az eξ egységvektor komponensei a (ξk − ¯ ξn)/ξ − ¯ ξn1 véletlen<br />

számok. Mivel az 〈eξ, ζ〉 változó N(0, σ2 ζ eloszlású, σ2 ζ = σ2 η − b2σ2 ξ , bevezetjük a<br />

Tn,b :=<br />

n<br />

√ <br />

n<br />

n − 2 ( ¯bn − b) k=1 (ξk − ¯ ξn) 2<br />

k=1 (ηk − ¯ηn) 2 − ¯ b 2 n<br />

n<br />

k=1 (ξk − ¯ ξn) 2<br />

statisztikát, és megmutatjuk hogy az tn−2 eloszlású. (S8.3) miatt<br />

n<br />

(ηk − ¯ηn) 2 = ζ − ¯ ζn1 2 + b 2 ξ − ¯ ξn1 2 + 2b〈ξ − ¯ ξn1, ζ〉 ,<br />

k=1<br />

ahol 〈ξ − ¯ ξn1, ζ〉 = ξ − ¯ ξn1〈eξ, ζ〉 , míg (S8.4) szerint<br />

¯ b 2 nξ − ¯ ξn1 2 = bξ − ¯ ξn1 + 〈eξ, ζ〉 2 = b 2 ξ − ¯ ξn1 2 + 2bξ − ¯ ξn1〈eξ, ζ〉 + 〈eξ, ζ〉 2 ,<br />

vagyis Tn,b nevezőjében a négyzetgyök alatt<br />

η − ¯ηn1 2 − ¯ b 2 nξ − ¯ ξn1 2 = ζ 2 − 〈e (1) , ζ〉 2 − 〈eξ, ζ〉 2<br />

áll, ahol e (1) = n −1/2 1 . Legyen e (2) = eξ , ekkor<br />

Tn,b =<br />

√<br />

n − 2 〈eξ, ζ〉<br />

=<br />

ζ2 − 〈e (1) , ζ〉 2 − 〈eξ, ζ〉 2<br />

√<br />

n − 2 〈eξ, ζ〉<br />

<br />

n<br />

k=3 〈e(k) , ζ〉 2<br />

(S8.5)<br />

(S8.6)<br />

Mivel e (1) és eξ mindig merőleges egymásra, az S3 gondolatmenet értelmében állíthatjuk<br />

hogy Tn,b a ξ vektor minden rögzített értéke mellett ugyanolyan, éspedig tn−2 eloszlású,<br />

de akkor a feltétel nélküli eloszlása is tn−2 .<br />

Tehát a |Tn,b| < un,ε egyenlőtlenséget b-re megoldva kapjuk a b konfidencia intervallumát;<br />

un,ε értékét a tn−2 táblázatából kell kikeresni.<br />

S.9. Hipotézisvizsgálat: Akkor is működhet amikor konfidencia intervallum konstrukciójára<br />

nincs lehetőség. Sőt, minden olyan, a ξ változó eloszlására vonatkozó hipotézis<br />

tesztelhető a ξ = (ξ1, ξ2, ..., ξn) minta megfigyelt értéke, x = (x1, x2, ..., xn) alapján,<br />

amikor a hipotézis elegendő valamely Tn = Tn(ξ) statisztika eloszlásának meghatározására.


Ilyenkor minden 0 < ε < 1 szinthez meg lehet határozni olyan Uε ∈ R tartományt, hogy<br />

P [Tn(ξ) ∈ Uε] ≥ 1 − ε . Ha most Tn(x) /∈ Uε akkor a hipotézist – az előre megadott ε szinten<br />

– elutasítjuk; ellenkező esetben nem, de ez sohase jelentse azt, hogy a hipotézis máris<br />

bizonyítást nyert. Extrém példa a Tn ≡ 0 statisztika, ezzel semmit sem lehet elutasítani,<br />

de megerősíteni sem. Ha több paraméter van, akkor a hipotézis lehet olyan, hogy egyes<br />

paraméterek értéke ismert, másoké nem.<br />

Nem indokolt olyankor tesztelni amikor konfidencia intervallum készítésére is képesek<br />

vagyunk. Nem ez a helyzet a regressziós együtthatóval, ennek<br />

¯Rn(ξ, η) :=<br />

n<br />

k=1 (ξk − ¯ ξn)(ηk − ¯ηn)<br />

n<br />

k=1 (ξk − ¯ ξn) 2 n<br />

k=1 (ηk − ¯ηn) 2<br />

63<br />

(S9.1)<br />

becslése együttesen normális eloszlású (ξk, ηk) , k = 1, 2, ..., n minta esetén ismert ugyan,<br />

de a sűrűségfüggvénye függ az r = R(ξ, η) paramétertől. Képlete bonyolult, de az S3 és<br />

S8 szakaszok módszereivel könnyű megmutatni hogy r = 0 esetén a<br />

Tn,0 := ¯ Rn(ξ, η) √ n − 2<br />

<br />

1 − R¯ 2<br />

n(ξ, η)<br />

statisztika tn−2 eloszlású, tehát az r = 0 hipotézis tesztelhető.<br />

Megjegyzésre érdemes hogy E ¯ Rn = r + O(n −1 ) ,<br />

míg a Fisher féle Z statisztika,<br />

aszimptotikusan normális, és<br />

EZn = 1 1 + r<br />

log<br />

2 1 − r +<br />

(S9.2)<br />

D 2 ( ¯ Rn) = (1 − r2 ) 2 11r<br />

1 +<br />

n<br />

2 −3<br />

+ O(n ) (S9.3)<br />

2n<br />

Zn = 1<br />

2 log 1 + ¯ Rn(ξ, η)<br />

1 − ¯ Rn(ξ, η)<br />

(S9.4)<br />

r<br />

2n − 2 + O(n−2 ) , D(Zn) = 1 4 − r2<br />

+<br />

n − 1 2(n − 1) 2 + O(n−3 ) (S9.5)<br />

ami nemcsak az r értékére vonatkozó hipotézis tesztelését, de konfidencia intervallum konstrukcicióját<br />

is lehetővé teszi. Az n kis értékeihez van táblázat.<br />

Az alábbi tesztelési eljárások mind a Neyman-Pearson lemmára épülnek, és alternatív<br />

hipotézisek egész osztályaival összevetve is optimálisak. Ezért csak az elsőfajú hiba szintjét<br />

állítjuk be, és bízunk abban hogy a konkrét feladathoz tartozó másodfajú hiba kicsi lesz.<br />

S.10. Kétmintás t próba: Ha két egymástól is független, normális eloszlású mintánk<br />

van, és tudjuk hogy σξ = ση , akkor a<br />

Tn,n ′ :=<br />

¯ξn − ¯ηn<br />

<br />

(n − 1)¯σ 2<br />

n(ξ) + (n ′ − 1)¯σ 2 n ′(η)<br />

<br />

nn ′ (n + n ′ − 2)<br />

n + n ′<br />

(S10.1)


64<br />

statisztika mξ = mη esetén tn+n ′ −2 eloszlású, tehát alkalmas az mξ = mη hipotézis tesztelésére.<br />

Ha hipotézisünk mξ ≤ mη , akkor a döntés uε küszöbét P [tn+n ′ −2 > uε] = 1 − ε<br />

megoldásaként határozzuk meg, és ha Tn,n ′ > uε , akkor a hipotézist elutasítjuk. Ha nem<br />

tudjuk hogy σξ = ση , akkor egzakt teszt nincs. Welch javasolt közelítő eljárást, amit<br />

nevével, vagy a ”pooled“ utasítással jeleznek a statisztikai programcsomagok.<br />

S.11. Egyszerű osztályozás: Tegyük fel hogy r > 2 egymástól is független mintánk van,<br />

ξ i = (ξ i 1, ξ i 2, ..., ξ i ni ) , melyek eloszlása ξi k ∼ N(mi, σ 2 ) , n = n1 + n2 + · · · + nr . Gyakori az<br />

a helyzet hogy nincs elég adat ahhoz hogy mindegyik mi csoportátlag részére egyidejűleg<br />

érvényes konfidencia intervallumot készítsünk. Vegyük észre hogy ha<br />

Q : =<br />

Q0 =<br />

r ni <br />

i=1 k=1<br />

r<br />

n<br />

i=1 k=1<br />

(ξ i k − ¯ ξn) 2 , ¯ ξn := 1<br />

(ξ i k − ¯ ξ i ni )2 , Q1 =<br />

r<br />

ni<br />

n<br />

i=1<br />

¯ ξni<br />

r<br />

ni( ¯ ξ i ni − ¯ ξn) 2 ,<br />

i=1<br />

akkor Steiner típusú felbontás van: Q = Q0 + Q1 , és így<br />

r ni <br />

(ξ i k) 2 = Q + n( ¯ ξn) 2 = Q0 + Q1 + n( ¯ ξn) 2<br />

i=1 k=1<br />

(S11.1)<br />

(S11.2)<br />

Az 〈x, Ax〉 kvadratikus alak szabadsági foka az A mátrix rangja, ami A képterének dimenziója.<br />

Fisher és Cochran tétele szerint ha független és azonos szórású normális változók<br />

négyzetösszegét úgy sikerült kvadratikus alakok összegére felbontani hogy a szabadsági<br />

fokainak összege éppen az összeadandók száma, akkor ezek a kvadratikus alakok – mint<br />

valószínűségi változók – függetlenek. Ehhez csak azt kell megmutatni hogy ha<br />

x 2 = 〈x, A0x〉 + 〈x, A1x〉 + · · · + 〈x, Adx〉 ∀x ∈ R n , (S11.3)<br />

és az Aℓ szimmetrikus mátrixok rangjainak összege n , akkor ezek a mátrixok egymásra<br />

is merőleges vetítések. Ha d = 1 akkor ez majdnem nyilvánvaló mert ha A0x = 0 akkor<br />

A1x = x , és viszont, tehát A0 és A1 egymásra merőleges vetítések. Az általános eset innen<br />

indukcióval triviális. Esetünkben d = 2 és a szabadsági fokok rendre n − r , r − 1 és 1 .<br />

Q0 ∼ σ 2 χ 2 n−r mindig igaz, és ha m1 = m2 = · · · = mr akkor Q1 ∼ σ 2 χ 2 r−1 is teljesül,<br />

vagyis (n − 1)Q1/(r − 1)Q0 ∼ Fr−1,n−r , tehát lehetőségünk van a várható értékek<br />

egyenlőségétkimondó hipotézis tesztelésére. Ha F túl nagy akkor a hipotézist elutasítjuk,<br />

de az is gyanus ha F túl kicsi, arról hogy melyik átlag tér el a többitől, nem kapunk<br />

tájékoztatást. Erre a kétmintás t próba alkalmas, de egy rókáról sok bőrt lehúzni nem<br />

lehet: ugyanannak a mintának többszöri felhasználásakor a hibaszintek összeadódnak.<br />

S.12. Kétszempontos szóráselemzés: Tegyük fel hogy pq darab N(mi,j, σ 2 ) , mintánk<br />

van, ξi,j = (ξ i,j<br />

1 , ξi,j 2<br />

¯ξnpq , de a ¯ ξi,j n cellaátlagokon kívül itt p + q csoportátlag is van, ¯ ξi· nq illetve ¯ ξ ·j<br />

nj<br />

, ..., ξi,j<br />

n ) , i = 1, 2, ..., p , j = 1, 2, ..., q . Az összesített minta középértéke<br />

, típusúak,


és a teljes Q hibanégyzet négy négyzetösszegre bomlik fel: Q = Q0 + Q1 + Q2 + Q1,2 , ahol<br />

Q : =<br />

Q0 : =<br />

p<br />

q<br />

i=1 j=1 k=1<br />

p<br />

Q2 : = np<br />

q<br />

i=1 j=1 k=1<br />

n<br />

(ξ i,j<br />

n<br />

(ξ i,j<br />

k − ¯ ξnpq) 2 , ¯ ξ i·<br />

nq := 1<br />

q<br />

k − ¯ ξ i,j<br />

n ) 2 , Q1 := nq<br />

q<br />

( ¯ ξ ·j<br />

np − ¯ ξnpq) 2 , Q1,2 := n<br />

j=1<br />

p<br />

q<br />

j=1<br />

p<br />

i=1<br />

i=1 j=1<br />

¯ξ i,j<br />

n , ¯ ξ ·j<br />

np := 1<br />

p<br />

( ¯ ξ i·<br />

nq − ¯ ξnpq) 2<br />

q<br />

( ¯ ξ i,j<br />

p<br />

i=1<br />

¯ξ i,j<br />

n ,<br />

n − ¯ ξ i·<br />

nq − ¯ ξ ·j<br />

np + ¯ ξnpq) 2<br />

65<br />

(S12.1)<br />

A négyzetöszegek mátrixainak rangja rendre f = npq − 1 , f0 = npq − pq , f1 = p − 1 ,<br />

f2 = q −1 , míg f1,2 = pq −p−q +1 , vagyis f = f0 +f1 +f2 +f1,2 , tehát a Q0 , Q1 , Q2 , és<br />

Q1,2 változók függetlenek. Q0 ∼ σ2χ2 most is mindig igaz, a többiről ilyesmit egyenlőre<br />

f0<br />

nem mondhatunk.<br />

Modellünk a ξ i,j<br />

k = m + ai + bj + ci,j + ε i,j<br />

k<br />

módon is felírható, ahol εi,j<br />

k ∼ N(0, σ2 )<br />

független változók, és mi,j = m + ai + bj + ci,j , tehát m = E ¯ ξnpq , ai := E ¯ ξ i·<br />

nq − m ,<br />

bi = E ¯ ξ ·j<br />

np − m , ci,j := mi,j − ai − bj + m . Három alaphipotézis tesztelésére van lehetős ´ ’eg:<br />

H1 ≡ {ai = 0 ∀i} , H2 ≡ {bi = 0 ∀j} míg H1,2 ≡ {ci,j = 0 ∀i, j} . Valóban, ha valamelyik<br />

hipotézis igaz, akkor a hozzárendelt négyzetösszeg χ 2 eloszlású, tehát az F-póba alkalmazható.<br />

Például ha H1,2 igaz, akkor Q1,2 ∼ χ 2 f1,2 , tehát Q1,2 és Q0 összehasonlításával<br />

rákérdezhetünk. Ha elfogadjuk akkor Q0 és Q1,2 összevonható. H1,2 elutasításakor azt<br />

mondjuk hogy a modellben kölcsönhatás van, egyébként csak az osztályozás két szempontjának<br />

elkülönített hatását vizsgáljuk. Kombinált hipotézisek is tesztelhetőek, esetleg<br />

több lépésben, de figyelni kell a hibák halmozódására. Különösen érdekes az a helyzet<br />

amikor H1 és H2 igaznak bizonyul, de H1,2 nem.<br />

Nem feltétlenül szükséges hogy minden cellában ugyanannyi adat legyen, de ezek az<br />

ni,j számok nem lehetnek tetszőlegesek, a kisérletet előre meg kell tervezni. Üres cellák is<br />

előfordulhatnak, és az osztályozásnak persze kettőnél több szempontja is lehet. Az ε i,j<br />

k ∼<br />

N(0, σ 2 ) feltétel fontos, D(ε i,j = σ ∀i, j nélkülözhetetlen. Ezek az eljárások általában<br />

ANOVA (analysis of variance) névre hallgatnak.<br />

Olyan lineáris modellek is elképzelhetőek ahol az osztályozás szempontjaihoz valós értékű<br />

x i,j kisérő változók is járulnak, vagyis<br />

ξ i,j<br />

k = m + ai + bj + ci,j + βζ i,j<br />

k + εi,j<br />

k , 1 ≤ i ≤ p , 1 ≤ j ≤ q , 1 ≤ n (S12.3)<br />

lineáris modellel van dolgunk, ahol ε i,j<br />

k ∼ N(0, σ2 ) , az x i,j<br />

k számok ismertek. Ilyenkor a<br />

feladatot a<br />

n<br />

p<br />

k=1 i=1 j=1<br />

q i,j<br />

ξ<br />

k − m − ai − bj − cj,k − βx i,j<br />

k<br />

p<br />

ai =<br />

i=1<br />

q<br />

bj =<br />

j=1<br />

p<br />

i=1 j=1<br />

2 = min! (S12.4)<br />

q<br />

ci,j = 0 (S12.5)


66<br />

mellékfeltétellel kell megoldani. Az eljárás neve ANCOVA (analysis of covariance).<br />

S.13. Szórások egyezése, F-próba: A sima kétmintás t-próba csak akkor használható<br />

ha σξ = ση , ami számos más esetben is lényeges. Ha tényleg ez a helyzet akkor<br />

˜Tn,n ′ :=<br />

n k=1 (ξk − ¯ ξn) 2<br />

n ′<br />

k=1 (ηk − ¯ηn ′)2<br />

<br />

n ′ − 1<br />

n − 1 ≡ ¯σ2 n(ξ)<br />

¯σ 2 n ′(η)<br />

(S13.1)<br />

eloszlása Fn−1,n ′ −1 , tehát ez a hipotézis is egzakt módszerrel tesztelhető. Ha mindig a<br />

nagyobb négyzetösszeget írjuk a számlálóba, akkor figyelembe kell venni hogy ζ > 0 és<br />

z > 1 esetén P [max{ζ, 1/ζ} > z] = P [ζ > z] + P [ζ < 1/z] , vagyis az elutasítás szintjét<br />

másképp kell meghatározni.<br />

Több minta szórásának egyenlősége, ami a szóráselemzés előfeltétele, az úgynevezett<br />

Bartlett teszttel ellenőrizhető. Ha r darab N(mi, σ 2 ) független mintánk van egyenként ni ,<br />

i = 1, 2, ..., r elemszámmal, akkor – konstans szorzótól eltekintve – az<br />

If :=<br />

r<br />

i=1<br />

(ni − 1) log ¯σ2 n(ξ)<br />

¯σ 2 ni (ξi)<br />

(S13.2)<br />

statisztika közelítőleg χ 2 f eloszlású, ahol f = n1 + n2 + · · · + nr − r , ξ pedig a ξi minták<br />

egyesítése.<br />

S.14. Eloszlások vizsgálata χ 2 próbával: Legyen U = {U1, U2, ..., Ur} változónk értékkészletének<br />

(diszjunkt) felosztása, νi,n a ξ = (ξ1, ξ2, ..., ξn) mintában a [ξk ∈ Ui] esemény<br />

bekövetkezéseinek száma. Hosszadalmas és nem túl szellemes számolással megmutatható<br />

hogy ha a pi := P [ξk ∈ Ui] , i = 1, 2, ..., r hipotézis teljesül, és n elég nagy, akkor a<br />

γn(U) :=<br />

r<br />

i=1<br />

(νi,n − npi) 2<br />

npi<br />

(S14.1)<br />

statisztika eloszlása közelítőleg χ 2 r−1 . Azt a centrális határeloszlás tételéből is tudjuk hogy<br />

ηi := (νi,n−npi)/ √ npi aszimptotikusan N(0, 1−pi) eloszlású; a korrekció a r<br />

i=1 νi,n = n<br />

kényszerfeltételnek köszönhető. Pontosabban,<br />

P [ν1 = n1, ν2 = n2, ..., νr = nr] =<br />

n!<br />

n1!n2! · · · nr! pn1 1 pn2 2 · · · pnr r<br />

tehát az ηi változók kovariancia mátrixa Σ(i, j) = √ pipj ha i = j míg Σ(i, i) = 1 − pi . A<br />

Stirling formulával ηi = O(1) esetén azt kapjuk hogy<br />

P [η1 = y1, η2 = y2, ..., ηr = yr] ≈ exp −(1/2)(y 2 1 + y 2 2 + · · · y 2 r) <br />

(2nπ) r−1 p1p2 · · · pn<br />

és ez az eloszlás az e (p) := ( √ p1, √ p2, ..., √ pr) vektorra merőleges altérre van koncentrálva.<br />

Mivel Σe (p) = 0 és Σy = y ha 〈e (p) , y〉 = 0 , az állítás lényege most már főtengely transzformácóval<br />

következik.


Mivel χ 2 eloszlása erősen aszimmetrikus, az előírt ε szinthez úgy szokás az uε kritikus<br />

értéket meghatározni hogy ε = P [χ 2 r−1 > uε] teljesüljön. Ha most γn(U) > uε akkor a<br />

P [ξ ∈ Ui] = pi , i = 1, 2, ..., r hipotézist elutasítjuk. Persze az is gyanús ha γn(U) túl kicsi,<br />

ez az adatok manipulációjára utal. Az eljárás neve: illeszkedésvizsgálat.<br />

Homogenitásvizsgálat: Azt a hipotézist hogy két változó eloszlása azonos, úgy tesztelhetjük<br />

hogy a ξ = (ξ1, ξ2, ..., ξn) mintától független η = (η1, η2, ..., ηn ′) mintából is kiszámoljuk<br />

az [ηk ∈ Ui] események µi,n ′ gyakoriságait, és a<br />

γn,n ′(U) := nn′<br />

r (νi,n/n − µi,n ′/n′ ) 2<br />

i=1<br />

νi,n + µi,n ′<br />

67<br />

(S14.2)<br />

statisztikát. Ha a hipotésis igaz akkor ennek határeloszlása χ 2 r−2 , mert itt két lineáris<br />

összefüggés van, tehát tesztelhetünk vele. Ez a kétmintás próba illeszkedés vizsgálatára<br />

is használható úgy, hogy az egyik mintát mesterségesen állítjuk elő, véletlen számok<br />

táblázatából, vagy számítógépen.<br />

Függetlenség vizsgálata: A független párok (ξ1, η1), (ξ2, η2), ..., (ξn, ηn) sorozatából elkészítjük<br />

a<br />

r s (νi,j,n − νi,nµj,n/n)<br />

γn(U, V) := n<br />

2<br />

(S14.3)<br />

i=1 j=1<br />

νi,nµj,n<br />

statisztikát, ahol U a ξk-k, V = {V1, V2, ..., Vs} pedig az ηk-k értékkészletének valamilyen<br />

felosztása. Látható hogy a [ξk ∈ Ui] és [ηk ∈ Vj] események együttes bekövetkezésének<br />

νi,j,n gyakoriságait hasonlítjuk össze az egyenkénti gyakoriságok szorzataival. Mivel a<br />

νi,j,n , νi,n , µj,n változók között r + s − 1 lineáris összefüggés van, γn(U, V) határeloszlása<br />

olyan χ2 f lesz, ahol f = rs − r − s + 1 = (r − 1)(s − 1) a szabadsági fokok száma.<br />

S.15. Wilcoxon próba: Ez is homogenitássvizsgálat, két egymástól is független mintánk<br />

van, ξ és η . Jelölje Rk a ξ1, ξ2, ..., ξn, η1, η2, ..., ηn ′ sorozatban a ξk ξk értéknél kisebbek<br />

számát,<br />

Un,n ′ :=<br />

n <br />

Rk + 1 − k . (S15.1)<br />

k=1<br />

Ha Fξ és Fη folytonos, továbbá P [ξk < ηk] = 1/2 , akkor Un,n ′ eloszlása nem függ az Fξ és<br />

Fη függvényektől, tehát a hipotézis – táblázat segítségével – tesztelhető. Egyébként Un,n ′<br />

aszimptotikusan normális, EUn,n ′ = nn′ /2 míg D 2 (Un,n ′) = nn′ (n + n ′ + 1)/12 .<br />

S.16. Empirikus eloszlásfüggvények: Tegyük fel hogy változónk F eloszlásfüggvénye<br />

folytonos, és jelölje ξ ∗ 1 < ξ ∗ 2 < · · · < ξ ∗ n a ξ1, ξ2, ..., ξn mintaelemek nagyság szerint<br />

elrendezett sorozatát; ez a rendezett minta. Az empirikus (tapasztalati) eloszlásfüggvény<br />

Fξ,n(x) := k/n ha ξ ∗ k ≤ x < ξ∗ k+1 , míg Fξ,n(x) = 0 ha x < ξ ∗ 1 , Fξ,n(x) = 1 ha ξ ≥ ξ ∗ n .<br />

Kolmogorov és Szmirnov vezették be a<br />

∆n := sup<br />

x<br />

|Fξ,n(x) − F (x)| és ∆ + n := sup Fξ,n(x) − F (x) (S16.1)<br />

x


68<br />

statisztikákat. Mivel F (ξk) eloszlása E(0, 1) és ∆n = max1≤k≤n |k/n − F (ξ∗ k )| , míg ∆+ n =<br />

max1≤k≤n{k/n−F (ξ∗ k )|} , egyik statisztika eloszlása sem függ F -től, mert ugyanaz mint az<br />

egyenletes eloszlás esetében. Aránylag kis mintanagyságnál a küszöbértékek táblázatokban<br />

találhatóak, a statisztikai programcsomagok is ismerik őket. Határeloszlásuk is aránylag<br />

könnyen meghatározható. Kolmogorov szerint<br />

lim<br />

n→∞ P [√n∆n < y] = <br />

(−1) n e −2n2y 2<br />

n∈Z<br />

ha y > 0 , (S16.2)<br />

ami az Fξ(x) ≡ F (x) hipotézis tesztelését teszi lehetővé. A Szmirnov féle próbafüggvénynél<br />

lim<br />

n→∞ P [√ n∆ + n < y] = 1 − e −2y2<br />

ami az Fξ(x) < F (x) , x ∈ R hipotézis ellenőrzésére alkalmas.<br />

ha y > 0 , (S16.3)<br />

Kétmintás próbák: Jelölje Fn és Gn a ξ illetve η mintából számolt empirikus eloszlásfüggvényeket;<br />

∆ ∗ n := sup x{Fn(x) − Gn(x) . Tekintsük a ξ és η minták összevonása után kapott<br />

ζ ∗ 1 < ζ ∗ 2 < · · · < ζ ∗ 2n rendezett mintát; ϑk := 1 ha ζ ∗ k a ξ mintából való, egyébként ϑk := −1 ,<br />

végül Θk := ϑ1 + ϑ2 + · · · + ϑk . Közvetlenül látható hogy n∆ ∗ n = Θ ∗ n := maxk y] = e −2y2<br />

ha y > 0 . (S16.5)<br />

A max |Fn − Gn| eloszlása, sőt az (S15.2) és (S15.3) állítások bizonyítása is hasonlóan,<br />

bolyongások segítségével történik.<br />

Grafikus módszerek: n méretű minta esetén jelölje x∗ k,n , k = 1, 2, ..., n a tesztelendő eloszlás<br />

kvantilisait, vagyis az F (x∗ k,n ) = k/(n+1) egyenletek megoldásait. Mivel az F (ξk) ∼ E(0, 1)<br />

sorozat független, EF (ξ∗ k ) = k/(n + 1) , tehát azt várjuk hogy a (ξ∗ k , x∗ k,n ) , k = 1, 2, ..., n<br />

pontok az y = x egyenes mentén helyezkednek el. Ha most η = m + σξ és σ > 0 , akkor az<br />

(η∗ k , x∗ k,n ) pontok az y = m + σx egyenes mentén várhatóak, ami mξ és σξ leolvasását is<br />

lehetővé teszi. Például, ha az x∗ k,n kavantiliseket a standard normális eloszlásfüggvényből<br />

számoljuk, akkor az egyenes meredeksége a szórás, tengelymetszete a várható érték. Ennek<br />

az eljárásnak is van kétmintás változata: az x∗ k,n vonatkoztatási pontokat kell a másik,<br />

szintén n nagyságú rendezett minta elemeivel helyettesíteni. Nagyon kényelmes trükk az<br />

etalomként használt minta generálása; így elkerülhetjük a kvantilisek számolását.<br />

A módszer másik változata szerint csak r ≤ n kvantilist használunk, és νi,n a [ξk < x∗ i,r ]<br />

események gyakorisága. A nagy számok törvénye szerint az (yi,r, x∗ i,r pontok az y = x


egyenes mentén várhatóak. Ez az eljárás is alkalmas mξ és σξ leolvasására, és kétmintás<br />

próbaként is alkalmazható.<br />

S.17. Störmer és Sarkadi teszt: Exp(λ) minta esetén az<br />

η ∗ k :=<br />

n−1<br />

k=1 (n − k)(ξ∗ k+1<br />

n k=1 ξ∗ k<br />

− ξk)<br />

69<br />

(S17.1)<br />

változók együttesen is olyan eloszlásúak mintha E(0, 1) minta rendezésével kaptuk volna<br />

őket. Tehát a Kolmogorov vagy a Kolmogorov-Szmirnov próba segítségével az exponencialitás<br />

ténye a paraméter ismerete nélkül is tesztelhető.<br />

A normlitás tényének ellenőrzésére Sarkadi a következő eljárást javasolta. Legyen<br />

¯ξ ′ n :=<br />

√ 2 ¯ ξn + √ n(ξn − 1 + ξn)<br />

√ 2n + 2 √ n<br />

és S 2 := 2n2 ˆσ 2 n(ξ) − n(ξn−1 − ξn) 2 − 2 ¯ ξn<br />

n(n − 2)<br />

(S17.2)<br />

ekkor az ηk := (ξk − ¯ ξn)ψ(|ξn−1 − ξn|/S)/S változók E(0, 1) minta elemei, feltéve hogy<br />

ψ = ψ(t) a P [χn−2 > ψ] = P [|tn−2| < t] egyenlet megoldása. Ezután Kolmogorov vagy<br />

Kolmogorov-Szmirnov próba alkalmazandó.<br />

S.18. Az első- és másodfajú hiba: Kényes kérdés a tesztelési eljárások hatékonyságának<br />

minősítése. A legegyszerűbb az az eset amikor hipotézisként csak két eloszlás jöhet<br />

szóba, tehát ξ sűrűsége (a diszkrét esetben eloszlása) vagy f1 vagy f2 , és nekünk csak azt<br />

kell eldönteni, hogy melyik a valódi. Legyen<br />

hn(x) := log f1,n(x)<br />

f2,n(x) =<br />

n<br />

k=1<br />

log f1(xk)<br />

f2(xk)<br />

ahol fi,n(x) :=<br />

n<br />

fi(xk) (S18.1)<br />

és jelölje Pi illetve Ei , i = 1, 2 a megfelelő valószínűségeket illetve várható értékeket. A<br />

Neyman-Pearson lemma szerint optimális döntést hozunk ha hn(x) ≥ un esetén a P1 ,<br />

egyébként a P2 hipotézist fogadjuk el. f1 és f2 ismeretében a döntési szabály meghatározható,<br />

és kellemes esetekben csak az un küszöb függ a hipotézisek konkrét megfogalmazásától.<br />

Például, ha azonos szórású normális eloszlások várható értékeire vonatkozó<br />

hipotézist tesztelünk, akkor mindig az ¯xn mintaközép a döntés kritériuma.<br />

Az elsőfajú hiba valószínűsége pn(e1) := P1[hn(ξ) < un] , a másodfajú hibáé pn(e2) :=<br />

P2[hn(ξ) ≥ un] . Ezek közül az egyik értéke az un küszöb alkalmas megválasztásával előírt<br />

szintre állítható be, ilyenkor n növelésekor a másik exponenciálisan csökken. Valóban,<br />

legyen α > 0 és vegyük észre hogy<br />

∞<br />

E1hn(ξ) = nI(f1|f2) , I(f1|f2) :=<br />

E2hn(ξ) = −nI(f2|f1) , továbbá D 2 1(hn) = nΣ 2 1 , ahol<br />

Σ 2 1 =<br />

−∞<br />

−∞<br />

k=1<br />

f1(x) log f1(x)<br />

dx , (S18.2)<br />

f2(x)<br />

∞ <br />

log f1(x)<br />

2 f1(x) dx − I<br />

f2(x)<br />

2 (f1|f2) , (S18.3)


70<br />

√<br />

tehát a centrális határeloszlás tétel értelmében, un = nI(f1|f2)−αΣ1 n esetén az elsőfajú<br />

hiba aszimptotikus szintje limn→∞ pn(e1) = 1 − Φ(α) lesz, ami α változtatásával szabályozható.<br />

A másodfajú hiba kiértékelése tipikus nagy eltérés probléma, ahol ρ = I(f1|f2)<br />

nagyobb mint a P2 szerinti −I(f2|f1) várható érték, vagyis z > 0 , míg<br />

∞<br />

J(z) := log<br />

−∞<br />

f z 1 (x) f 1−z<br />

2 (x) dx (S18.4)<br />

Rényi típusú entrópia. Mivel J(1) = 0 , J ′ (1) = I(f1|f2) ; zρ − J(z) maximumát a z = 1<br />

helyen veszi fel, vagyis S(ρ) = I(f1|f2) , tehát<br />

log pn(e2)<br />

lim<br />

n→∞ n<br />

= −I(f1|f2) . (S18.5)<br />

A J(z) és I információelméleti mennyiségeknek a statisztikában is számos további alkalmazása<br />

van.<br />

S.19. Szekvenciális eljárások: Az előírt hibaszintek eléréséhez szükséges n mintanagyság<br />

átlagosan csökkenthető a döntés elodázásával, ha arra lehetőség van. Ilyenkor a<br />

h1(x), h2(x),... sorozatot figyeljük, és csak akkor döntünk amikor az kilép valamely (v, u)<br />

intervallumból. Jelölje ν = ν(x) az első ilyen (véletlen) időpontot; ha hν(x) ≥ u akkor P1 ,<br />

ha hν(x) ≤ v akkor P2 mellett döntünk. Mivel<br />

1 − p(e1) = P1[hν(ξ) ≥ u] ≥ e u P2[hν(ξ) ≥ u] = e u p(e2) és<br />

1 − p(e2) = P2[hν(ξ) ≤ v] ≥ e −v P1[hν(ξ) ≤ v] = e −v p(e1) , (S19.1)<br />

u ≤ log((1 − p(e1))/p(e2)) és v ≥ log(p(e1)/(1 − p(e2))) , ami a döntési küszöbértékek egész<br />

jó közelítése.<br />

Az átlagosan várható lépésszámot is könnyű megbecsülni az<br />

E1hν(ξ) = I(f1|f2)E1ν(ξ) és E2hν(ξ) = −I(f2|f1)E2ν(ξ) (S19.2)<br />

Wald azonosságok alapján, melyek levezetésében a G1 = I(f1|f2) , G2 = −I(f2|f1) és<br />

νn = min{ν, n} jelöléseket használjuk.<br />

nGi = Eihn(ξ) = Eihνn (ξ) + Ei(hn(ξ) − hνn (ξ)) = Eihνn (ξ) (S19.3)<br />

n<br />

+ Ei[hn(ξ) − hk(ξ)|νn = k]P [νn = k] = Eihνn (ξ) + Gi(n − Eνn) ,<br />

k=1<br />

vagyis GiEiνn = Eihνn (ξ) , amiből Wald egyenletei az n → ∞ határátmenettel következnek.<br />

Mivel E1hν(ξ) ≥ u , míg E2hν(ξ) ≤ v , az E1ν ≥ u/I(f1|f2) és E2ν ≥ −v/I(f2|f1) ,<br />

szintén jól használható becsléseket kapjuk. Összefoglalva:<br />

u ≈ log<br />

v ≈ log<br />

1 − p(e1)<br />

p(e2)<br />

, E1ν ≈ log(1 − p(e1)) − log p(e2)<br />

I(f1|f2)<br />

p(e1)<br />

1 − p(e2) , E2ν ≈ log(1 − p(e2)) − log p(e1)<br />

I(f2|f1)<br />

(S19.4)


Ajánlott irodalom:<br />

Takács Lajos – Ziermann Margit: Valószínűségszámítás és Matematikai Statisztika, Műszaki<br />

Könyvkiadó, 1977<br />

Fazekas István: Bevezetés a Valószínűségszámításba, Eger, 1993<br />

W. Feller: Bevezetés a Valószínűségszámításba és Alkalmazásaiba, Műszaki Könyvkiadó,<br />

1978<br />

Ya. G. Sinai: Probability Theory, An Introductory Course, Springer 1992<br />

Pál Lénárd: A Valószínűségszámítás és a Statisztika Alapjai 1.–2., Akadémiai Kiadó, 1995<br />

Jánossy Lajos: A Valószínűségelmélet Alapjai és Néhány Alkalmazása, Tankönyvkiadó,<br />

1967<br />

Prékopa András: Valószínűségelmélet Műszaki Alkalmazásokkal, Műszaki Könyvkiadó,<br />

1972<br />

Dévényi Dezső – Gulyás Ottó: Matematikai Statisztikai Módszerek a Meteorológiában,<br />

Tankönyvkiadó, 1988<br />

Rényi Alfréd: Valószínűségszámítás, Tankönyvkiadó, 1966<br />

L. Arnold: Sztochasztikus Differenciálegyenletek, Műszaki Könyvkiadó, 1972<br />

Vincze István: Matematikai Statisztika Műszaki Alkalmazásokkal, Műszaki Könyvkiadó,<br />

1969<br />

L. Breiman: Probability, Addison-Wesley, Reading MA 1968<br />

D. Pollard: Convergence of Stochastic Processes, Springer Verlag, New York 1984<br />

A.D. Wentzell: A Course in the Theory of Stochastic Processes, McGraw–Hill, 1981<br />

H. McKean: Stochastic Integrals, Academic Press, New York 1969<br />

M. Baxter – A. Rennie: Financial Calculus, Cambridge Uni. Press, 1996<br />

E. L. Lehmann: Testing Statistical Hypotheses, Wiley, New York 1959<br />

M. G. Kendall – A. Stuart: The Advanced Theory of Statistics I.–II.–III., Griffin, London<br />

1958, 1961, 1966<br />

71

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!