Többdimenziós normális törvény
Többdimenziós normális eloszlás
|
|
|
|
Beállítások
|
μ=[μ1,...,μNEM]⊤{\ displaystyle \ mu = [\ mu _ {1}, \ pontok, \ mu _ {N}] ^ {\ top}} átlagos ( valós vektor ) variancia-kovariancia mátrix ( határozott pozitív valós mátrix )
Σ{\ displaystyle \ Sigma} NEM×NEM{\ displaystyle N \ szor N} |
---|
Támogatás
|
x∈RNEM{\ displaystyle x \ in \ mathbb {R} ^ {N}}
|
---|
Valószínűségi sűrűség
|
1(2π)NEM/2|Σ|1/2e-12(x-μ)⊤Σ-1(x-μ){\ displaystyle {\ frac {1} {(2 \ pi) ^ {N / 2} \ bal | \ Sigma \ jobb | ^ {1/2}}} \; \; e ^ {- {\ frac {1 } {2}} (x- \ mu) ^ {\ top} \ Sigma ^ {- 1} (x- \ mu)}}
|
---|
Remény
|
μ{\ displaystyle \ mu}
|
---|
Középső
|
μ{\ displaystyle \ mu}
|
---|
Divat
|
μ{\ displaystyle \ mu}
|
---|
Variancia
|
Σ{\ displaystyle \ Sigma}
|
---|
Aszimmetria
|
0
|
---|
Entrópia
|
ln((2πe)NEM|Σ|){\ displaystyle \ ln \ bal ({\ sqrt {(2 \, \ pi \, e) ^ {N} \ bal | \ Sigma \ jobb | |}} \ jobb) \!}
|
---|
Pillanatgeneráló funkció
|
Mx(t)=exp(μ⊤t+12t⊤Σt){\ displaystyle M_ {X} (t) = \ exp \ left (\ mu ^ {\ top} t + {\ frac {1} {2}} t ^ {\ top} \ Sigma t \ right)}
|
---|
Jellemző funkció
|
ϕx(t;μ,Σ)=exp(énμ⊤t-12t⊤Σt){\ displaystyle \ phi _ {X} (t; \ mu, \ Sigma) = \ exp \ bal (i \ mu ^ {\ top} t - {\ frac {1} {2}} t ^ {\ top} \ Sigma t \ jobbra}}
|
---|
Többdimenziós normális törvénynek , vagy többváltozós normálisnak vagy multinormálisnak, vagy Gauss-törvénynek nevezzük több változóval , valószínűségi törvénynek, amely a normális törvény többdimenziós általánosítása .
Míg a klasszikus normális törvényt az átlagának megfelelő μ skalár és a varianciájának megfelelő σ 2 skalár paraméterezi, addig a multinormális törvényt egy középpontját képviselő vektor és egy pozitív félhatározott mátrix, amely a varianciamátrixa. -kovariancia . Jellemző függvényével definiáljuk , egy vektor esetében ,
μ∈RNEM{\ displaystyle {\ boldsymbol {\ mu}} \ in \ mathbb {R} ^ {N}} Σ∈MNEM(R){\ displaystyle {\ boldsymbol {\ Sigma}} \ itt: {\ mathcal {M}} _ {N} (\ mathbb {R})}x∈RNEM{\ displaystyle {\ boldsymbol {x}} \ in \ mathbb {R} ^ {N}}
ϕμ,Σ(x)=exp(énx⊤μ-12x⊤Σx){\ displaystyle \ phi _ {{\ boldsymbol {\ mu}}, {\ boldsymbol {\ Sigma}}} ({\ boldsymbol {x}}) = \ exp \ left (i {\ boldsymbol {x}} ^ { \ top} {\ boldsymbol {\ mu}} - {\ frac {1} {2}} {\ boldsymbol {x}} ^ {\ top} {\ boldsymbol {\ Sigma}} {\ boldsymbol {x}} \ jobb)}A nem-degenerált esetben, ha Σ van pozitív definit , tehát invertálható , a többdimenziós normális törvény elismeri a következő valószínűségi sűrűség :
megjegyzés | X | az X meghatározója ,
fμ,Σ(x)=1(2π)NEM/2|Σ|1/2exp[-12(x-μ)⊤Σ-1(x-μ)]{\ displaystyle f _ {{\ boldsymbol {\ mu}}, {\ boldsymbol {\ Sigma}}} \ bal ({\ boldsymbol {x}} \ right) = {\ frac {1} {(2 \ pi) ^ {N / 2} \ balra | {\ félkövér szimbólum {\ Sigma}} \ jobbra | ^ {1/2}}} \; \ exp \ balra [- {\ frac {1} {2}} \ balra ({ \ boldsymbol {x}} - {\ boldsymbol {\ mu}} \ right) ^ {\ top} {\ boldsymbol {\ Sigma}} ^ {- 1} \ left ({\ boldsymbol {x}} - {\ boldsymbol {\ mu}} \ right) \ right]}Ezt a törvényt általában az egydimenziós normális törvény analógiájával jegyzik meg.
NEM(μ,Σ){\ displaystyle {\ mathcal {N}} ({\ boldsymbol {\ mu}}, \, {\ boldsymbol {\ Sigma}})}
Nem degenerált törvény
Ez a szakasz a többdimenziós normális eloszlás felépítésére összpontosít nem degenerált esetben, amikor a variancia-kovariancia mátrix defin pozitív határozott.
Emlékeztető az egydimenziós normális törvényről
A centrális határeloszlástétel kiderül, egy csökkentett központú Gauss variábilis U (nulla várható, egység variancia):
E[U]=0E[U2]=1{\ displaystyle \ mathbb {E} [U] = 0 \ qquad \ mathbb {E} [U ^ {2}] = 1}
oU(u)=12πe-12u2{\ displaystyle p_ {U} (u) = {\ frac {1} {\ sqrt {2 \ pi}}} \; \; \ mathrm {e} ^ {- {\ frac {1} {2}} u ^ {2}} \,}
Az általános Gauss-változóhoz a változó megváltoztatásával megyünk
x=σU+μ{\ displaystyle X = \ sigma U + \ mu \,}
ami oda vezet
E[x]=μE[(x-μ)2]=σ2{\ displaystyle \ mathbb {E} [X] = \ mu \ qquad \ mathbb {E} [(X- \ mu) ^ {2}] = \ sigma ^ {2}}
ox(x)=1σ2πe-(x-μ)22σ2{\ displaystyle p_ {X} (x) = {\ frac {1} {\ sigma {\ sqrt {2 \ pi}}}} \; \; \ mathrm {e} ^ {- {(x- \ mu) ^ {2}} \ felett {2 \ sigma ^ {2}}}}
Ennek a törvénynek a sűrűségét egy második fokú kitevőt tartalmazó exponenciális jellemzi.
Egységtörvény több változóval
Mivel N független valószínűségi változók azonos csökkentett központú Gauss törvény, az együttes sűrűségfüggvény van írva:
oU1...UNEM(u1,...,uNEM)=1(2π)NEM/2e-12∑j=1NEMuj2{\ displaystyle p_ {U_ {1} ... U_ {N}} (u_ {1}, ..., u_ {N}) = {\ frac {1} {{(2 \ pi)} ^ {N / 2}}} \; \; \ mathrm {e} ^ {- {1 \ over 2} \ sum _ {j = 1} ^ {N} u_ {j} ^ {2}}}
A törvény az, amely a law² törvény alapját képezi .
Mátrix formulákban szintetizálható. Először definiáljuk az U véletlenvektort, amelynek az N változója komponens, és az u állapotvektort, amelynek digitális értékei vannak összetevőként.
Az állapotvektorhoz társíthatjuk azt az átlagvektort, amely az alkotórészekre az alkotórészek átlagát jelenti, vagyis ebben az esetben a nulla vektort:
E[U]=0{\ displaystyle \ mathbb {E} [{\ boldsymbol {U}}] = {\ boldsymbol {0}} \,}
A kovarianciamátrix átlós elemei (a varianciák) egyenlőek 1-vel, míg a nem átlós elemek (a szoros értelemben vett kovariancia) nulla: ez az egységmátrix. Az átültetés segítségével írható:
E[UU⊤]=én{\ displaystyle \ mathbb {E} [{\ boldsymbol {U}} {\ boldsymbol {U}} ^ {\ top}] = {\ boldsymbol {I}} \,}
Végül a valószínűségi sűrűséget írjuk:
oU(u)=1(2π)NEM/2e-12u⊤u{\ displaystyle p _ {\ boldsymbol {U}} ({\ boldsymbol {u}}) = {\ frac {1} {{{(2 \ pi)} ^ {N / 2}}} \; \; \ mathrm {e} ^ {- {1 \ felett 2} {\ boldsymbol {u}} ^ {\ top} {\ boldsymbol {u}}}}
Általános törvény több változóval
Az affin változó változásából származik
x=nál nélU+μ{\ displaystyle {\ boldsymbol {X}} = {\ boldsymbol {a}} {\ boldsymbol {U}} + {\ boldsymbol {\ mu}}}
A probléma esetére korlátozódik egy mátrix is tér (azonos számú kimeneti változók) és rendszeres. Mivel a vektor-elvárás operátor lineáris, megkapjuk az átlagvektort
E[x]=nál nélE[U]+μ=μ{\ displaystyle \ mathbb {E} [{\ boldsymbol {X}}] = {\ boldsymbol {a}} \ mathbb {E} [{\ boldsymbol {U}}] + {\ boldsymbol {\ mu}} = { \ boldsymbol {\ mu}} \,}
és a kovariancia mátrix
E[(x-μ)(x-μ)⊤]=E[nál nélUU⊤nál nél⊤]=nál nélnál nél⊤=Σ{\ displaystyle \ mathbb {E} [{\ boldsymbol {(X- \ mu)}} {\ boldsymbol {(X- \ mu)}} ^ {\ top}] = \ mathbb {E} [{\ boldsymbol { a}} {\ boldsymbol {U}} {\ boldsymbol {U}} ^ {\ top} {\ boldsymbol {a}} ^ {\ top}] = {\ boldsymbol {a}} {\ boldsymbol {a}} ^ {\ top} = {\ félkövér szimbólum {\ Sigma}} \,}
A valószínűségi sűrűséget megírják
ox(x)=1(2π)NEM/2|Σ|1/2e-12(x-μ)⊤Σ-1(x-μ){\ displaystyle p _ {\ boldsymbol {X}} ({\ boldsymbol {x}}) = {\ frac {1} {{{(2 \ pi)} ^ {N / 2} \ balra | {\ boldsymbol { \ Sigma}} \ right | ^ {1/2}}} \; \ mathrm {e} ^ {- {1 \ over 2} {\ boldsymbol {(x- \ mu)}}} ^ {\ top} { \ boldsymbol {\ Sigma}} ^ {- 1} {\ boldsymbol {(x- \ mu)}}}}
Vegyes megjegyzések
- Az X-re alkalmazott változók új lineáris változása valószínűségi sűrűséget eredményez, amelynek matematikai formája megegyezik:
Y=bx+v=bnál nélU+bμ+v{\ displaystyle {\ boldsymbol {Y}} = {\ boldsymbol {b}} {\ boldsymbol {X}} + {\ boldsymbol {\ nu}} = {\ boldsymbol {b}} {\ boldsymbol {a}} { \ boldsymbol {U}} + {\ boldsymbol {b}} {\ boldsymbol {\ mu}} + {\ boldsymbol {\ nu}}}
- A mátrixszámításból kényelmesen kapott alapvető képletek skaláris kifejezésekké alakulnak:
xk=∑j=1NEMnál nélkjUj(k=1,NEM){\ displaystyle X_ {k} = \ sum _ {j = 1} ^ {N} {a_ {kj} U_ {j}} \, (k = 1, N) \,}
ox1...xNEM(x1,...xNEM)=1(2π)NEM/2|Σ|1/2e-12∑j=1NEM∑k=1NEMtjk(xj-μj)(xk-μk){\ displaystyle p_ {X_ {1} ... X_ {N}} (x_ {1}, ... x_ {N}) = {\ frac {1} {{(2 \ pi)} ^ {N / 2} \ bal | {\ félkövér szimbólum {\ Sigma}} \ jobb | ^ {1/2}}} \; \; \ mathrm {e} ^ {- {1 \ 2} felett \ sum _ {j = 1} ^ {N} \ sum _ {k = 1} ^ {N} t_ {jk} (x_ {j} - \ mu _ {j}) (x_ {k} - \ mu _ {k})}}
a t jk a kovarianciamátrix inverzének együtthatói.
- A fenti képlet kitevője minden változóhoz képest kvadratikus. Bizonyosodott arról, hogy az egyik integrációja hasonló eredményt ad. Az ( N -1) egymást követő integrációk egy marginális valószínűséggel rendelkező marginális valószínűségi törvényhez vezetnek: minden változó Gauss-féle, ami a priori nem volt nyilvánvaló .
- Az előző megjegyzések kombinálásával eljutunk arra az eredményre, amely szerint a Gauss-vektor komponenseinek bármely lineáris kombinációja Gauss-változó.
- Ebben az együttes valószínűségi törvényben a dekorrelált változók bármely párjának átlós kovarianciamátrix felel meg, amely biztosítja függetlenségüket. Valóban, a házaspár maga is Gauss-féle, és ízületi sűrűsége két alkotórész sűrűségének szorzata.
- Az exponenciális kifejezés a Mahalanobis-távolság négyzete .(x-μ)⊤Σ-1(x-μ){\ displaystyle \ left ({\ boldsymbol {x}} - {\ boldsymbol {\ mu}} \ right) ^ {\ top} {\ boldsymbol {\ Sigma}} ^ {- 1} \ left ({\ boldsymbol { x}} - {\ boldsymbol {\ mu}} \ jobbra)}
Feltételes eloszlások
Ha , és fel vannak osztva az alábbiak szerint
x{\ displaystyle X}μ{\ displaystyle \ mu}Σ{\ displaystyle \ Sigma}
μ=[μ1μ2]{\ displaystyle \ mu = {\ elején {bmatrix} \ mu _ {1} \\\ mu _ {2} \ vége {bmatrix}} \ quad}a méretei , ahol
[q×1o×1]{\ displaystyle {\ begin {bmatrix} q \ szor 1 \\ p \ szor 1 \ end {bmatrix}}}NEM=o+q{\ displaystyle N = p + q}
Σ=[Σ11.Σ12.Σ21Σ22.]{\ displaystyle \ Sigma = {\ begin {bmatrix} \ Sigma _ {11} & \ Sigma _ {12} \\\ Sigma _ {21} & \ Sigma _ {22} \ end {bmatrix}} \ quad} méretekkel
[q×qq×oo×qo×o]{\ displaystyle {\ begin {bmatrix} q \ times q & q \ times p \\ p \ times q & p \ times p \ end {bmatrix}}}
és
x=[x1x2]∼NEMNEM(μ,Σ){\ displaystyle X = {\ begin {bmatrix} X_ {1} \\ X_ {2} \ end {bmatrix}} \ sim {\ mathcal {N}} _ {N} \ left (\ mu, \ Sigma \ right )}
akkor a feltételesen eloszlása egy sokdimenziós normális eloszlás ahol
x1{\ displaystyle X_ {1}}x2=nál nél{\ displaystyle X_ {2} = a}(x1|x2=nál nél)∼NEMq(μ1|nál nél,Σ11.2){\ displaystyle (X_ {1} | X_ {2} = a) \ sim {\ mathcal {N}} _ {q} (\ mu _ {1 | a}, \ Sigma _ {11.2})}
μ1|nál nél=μ1+Σ12.Σ22.-1(nál nél-μ2){\ displaystyle \ mu _ {1 | a} = \ mu _ {1} + \ Sigma _ {12} \ Sigma _ {22} ^ {- 1} \ bal (a- \ mu _ {2} \ jobb) }és meg van írva a variancia-kovariancia mátrix
Σ11.2=Σ11.-Σ12.Σ22.-1Σ21.{\ displaystyle \ Sigma _ {11.2} = \ Sigma _ {11} - \ Sigma _ {12} \ Sigma _ {22} ^ {- 1} \ Sigma _ {21}.}Ez a mátrix Schur komplementere az in-ben .
Σ22.{\ displaystyle {\ mathbf {\ Sigma} _ {22}}}Σ{\ displaystyle {\ mathbf {\ Sigma}}}
Megjegyezzük, hogy ha tudjuk, hogy az a egyenlő, akkor változik a szórása, és ugyanolyan meglepő módon az átlag is módosul. Ezt össze kell hasonlítani azzal a helyzettel, amelyben nem ismerünk a-t , ebben az esetben van terjesztés
. Ez annak a feltételnek az eredménye, amely nem triviális!
x2{\ displaystyle X_ {2}}x1{\ displaystyle X_ {1}}x1{\ displaystyle X_ {1}}NEMq(μ1,Σ11.){\ displaystyle {\ mathcal {N}} _ {q} \ balra (\ mu _ {1}, \ Sigma _ {11} \ jobbra)}x∼NEMNEM(μ,Σ){\ displaystyle X \ sim {\ mathcal {N}} _ {N} \ balra (\ mu, \ Sigma \ jobbra)}
A mátrixot regressziós együttható mátrixnak nevezzük .
Σ12.Σ22.-1{\ displaystyle \ Sigma _ {12} \ Sigma _ {22} ^ {- 1}}
Tulajdonságok
- A nem szinguláris többdimenziós normális eloszlás izo- kontúrjai ellipszoidok, amelyek középértéke az μ . Ezen ellipszoidok főtengelyeinek irányai a Σ sajátvektorai . Ezen tengelyek relatív hosszúságának négyzetét az ezekhez a sajátvektorokhoz tartozó sajátértékek adják meg .
H(f)=-∫RNEMf(x)lnf(x)dx{\ displaystyle H \ bal (f \ jobb) = - \ int _ {\ mathbb {R} ^ {N}} f (x) \ ln f (x) \, \ mathrm {d} x}=12(NEM+NEMln(2π)+ln|Σ|){\ displaystyle = {\ frac {1} {2}} \ bal (N + N \ ln \ bal (2 \ pi \ jobb) + \ ln \ bal | \ Sigma \ jobb | \ jobb) \!}=12ln{(2πe)NEM|Σ|}{\ displaystyle = {\ frac {1} {2}} \ ln \ {(2 \ pi \ mathrm {e}) ^ {N} \ balra | \ Sigma \ jobbra | \}}- A Kullback-Leibler divergencia sajátos formát ölt két többdimenziós normális törvény ésNEM0(μ0,Σ0){\ displaystyle {\ mathcal {N}} _ {0} (\ mu _ {0}, \ Sigma _ {0})}NEM1(μ1,Σ1){\ displaystyle {\ mathcal {N}} _ {1} (\ mu _ {1}, \ Sigma _ {1})}
DKL(NEM0‖NEM1)=12(ln(|Σ1||Σ0|)+tr(Σ1-1Σ0)+(μ1-μ0)⊤Σ1-1(μ1-μ0)-NEM).{\ displaystyle D _ {\ text {KL}} (N_ {0} \ | N_ {1}) = {1 \ több mint 2} \ bal (\ ln \ bal ({\ frac {\ bal | \ Sigma _ { 1} \ jobb |} {\ bal | \ Sigma _ {0} \ jobb |}} \ jobb) + \ mathrm {tr} \ bal (\ Sigma _ {1} ^ {- 1} \ Sigma _ {0} \ jobbra + + balra (\ mu _ {1} - \ mu _ {0} \ jobbra) ^ {\ top} \ Sigma _ {1} ^ {- 1} (\ mu _ {1} - \ mu _ {0}) - N \ jobb).}- Az 1. dimenzióban a normál törvény kumulatív függvényének Φ (vagy eloszlási függvényének) fogalma általánosítható a többdimenziós normális törvényre. Ehhez a fő elv a Mahalanobis-távolság : a kumulatív függvény annak a valószínűsége, hogy a normál véletlen változó beleesik az ellipszisbe, amelyet a Mahalanobis r- től a Gauss- ig terjedő távolsága határoz meg . Analitikai képletek léteznek a kumulatív függvény értékeinek kiszámításához.Φnem(r){\ displaystyle \ Phi _ {n} (r)}
Szimuláció
Egy olyan multinormális törvény szimulációjához, amelynek paraméterei ismertek vagy becsültek, azaz és arra törekszünk, hogy mesterséges mintát állítsunk elő a .
x∼NEM(μ,Σ){\ displaystyle {\ boldsymbol {X}} \ sim {\ mathcal {N}} (\ mu, \, \ Sigma)}m∼μ{\ displaystyle m \ sim \ mu}VS∼Σ{\ displaystyle C \ sim \ Sigma}x{\ displaystyle {\ boldsymbol {X}}}
Ha C nem átlós , akkor nem lehet egymás után előállítani az X i n változót , mert ez a módszer nem tartaná tiszteletben a kovarianciákat.
Inkább a megközelítés abból áll, hogy az X vektort a forma független skaláris változóinak lineáris kombinációjaként fejezzük ki
Yén∼NEM(0,1){\ displaystyle Y_ {i} \ sim {\ mathcal {N}} (0,1)}
x=m+BY{\ displaystyle {\ boldsymbol {X}} = m + B {\ boldsymbol {Y}}}ahol B a kényszert kielégítő négyzetmátrix
VS=BBT.{\ displaystyle C = BB ^ {T}.}A kovariancia egyik tulajdonsága valóban azt mutatja, hogy ez a kényszer biztosítja az X kovariancia tiszteletben tartását .
A B meghatározása után egyszerűen készítsen Y i szimulációkat az X vektor (a fenti összefüggés felhasználásával) független verzióihoz .
A B választásának számos lehetősége van :
- Ha a multinormális törvény nem degenerált, akkor a C Cholesky-faktorizációja (majd megfordítása) meghatározza a B alsó háromszög alakú mátrixot , amely pontosan kielégíti az előző kényszert.
- Általános esetben a C pozitív félhatározott, és az átlósítás módja lehetővé teszi a jellemzést
VS=ODOT{\ displaystyle C = ODO ^ {T}}
ahol
O egy
ortogonális mátrix, amelynek oszlopai a
C sajátvektorai , és
D egy olyan átlós mátrix, amely a
C sajátértékeiből áll , mindegyik pozitív vagy nulla. Csak választania kell
B=OD1/2{\ displaystyle B = OD ^ {1/2}}.
Megjegyzések:
- Bár ezek a megközelítések egyenértékű elméletileg a második számszerűen előnyösebb, mert mutat jobb stabilitást , ha a feltétel a kovarianciamátrix „rossz”.
- Leggyakrabban egy ál-véletlenszerű számgenerátor hurkolja egy korlátozott sorozat értékeit (ugyanazokat az eredményeket találjuk a sorozat végének elérése után is). Legyen óvatos ezzel a szempontdal, amikor egy nagy méretű n multinormális vektor nagyszámú szimulációjának előállításáról van szó : a sorozat kimerülése után a függetlenség már nem garantált.
Alkalmazások
A többdimenziós normális törvényt különösen az orvosi képek feldolgozásánál alkalmazzák. Így például gyakran használják a diffúziós tenzor képalkotásában . Ez a kép valóban modellezi a víz diffúziójának fő irányainak eloszlását egy többdimenziós normális törvény nulla átlaggal. Így a kép minden pontján lévő tenzor nem más, mint a többdimenziós normális törvény kovarianciamátrixa.
A többváltozós normális eloszlás második alkalmazása a páciens agyának MRI intenzitása alapján a különböző szöveti osztályok ( szürkeállomány , fehérállomány , cerebrospinalis folyadék ) meghatározása. Ez a technika egy elvárás-maximalizálás algoritmus használatán alapul , amelyben az egyes osztályokat egy többdimenziós normális törvény modellezi, amelynek dimenziója megegyezik az osztályozáshoz használt modalitások számával.
Megjegyzések és hivatkozások
-
(in) DV Gokhale, NA Ahmed, BC Res, NJ Piscataway, " Kifejezések és többváltozós eloszlásaik entrópiájának becslései " , IEEE tranzakciók az információelméletről , vol. 35, n o 3,1989. május, P. 688–692
-
lásd például (a) Michael Bensimhoun , „ n-dimenziós Összesített funkció, és egyéb hasznos Tények Gauss és normál sűrűség ” [PDF] ,2006
Kapcsolódó cikkek
<img src="https://fr.wikipedia.org/wiki/Special:CentralAutoLogin/start?type=1x1" alt="" title="" width="1" height="1" style="border: none; position: absolute;">