Filtr pevných částic
Tyto filtry částic , také známý jako metody Monte Carlo sekvenční , jsou sofistikované techniky pro odhad z modelů založených na simulaci .
Filtry částic se obecně používají k odhadu Bayesovských sítí a představují „on-line“ metody analogické metodám Monte-Carlo podle Markovových řetězců, což jsou „off-line“ metody (tedy a posteriori ) a často podobné preferenčním metodám vzorkování .
Pokud jsou správně navrženy, mohou být částicové filtry rychlejší než metody řetězce Monte Carlo Markov. Často jsou alternativou k rozšířeným Kalmanovým filtrům s výhodou, že při dostatečném počtu vzorků se blíží optimálnímu bayesovskému odhadu. Mohou být proto vyrobeny přesnější než Kalmanovy filtry. Přístupy lze také kombinovat pomocí Kalmanova filtru jako návrhu distribuce filtru částic.
Fotbalová branka
Cílem částicového filtru je odhadnout zadní hustotu stavových proměnných s přihlédnutím k pozorovacím proměnným. Filtr částic je určen pro skrytý Markovův model , kde se systém skládá ze skrytých a pozorovatelných proměnných. Pozorovatelné proměnné (proces pozorování) jsou spojeny se skrytými proměnnými (stavový proces) známou funkční formou. Podobně je pravděpodobným způsobem známý také dynamický systém popisující vývoj stavových proměnných.
Obecný filtr částic odhaduje zadní distribuci skrytých stavů pomocí metody pozorovacího měření. Zvažte stavový prostor zobrazený na obrázku níže
X0⟶X1⟶X2⟶X3⟶...siGnenal↓↓↓...Y0Y1Y2Y3...ÓbsErprotinatiÓne{\ displaystyle {\ begin {matrix} X_ {0} & \ longrightarrow & X_ {1} & \ longrightarrow & X_ {2} & \ longrightarrow & X_ {3} & \ longrightarrow & ... & signal \\\ downarrow && \ downarrow && \ downarrow && ... \\ Y_ {0} && Y_ {1} && Y_ {2} && Y_ {3} && ... & pozorování \ end {matrix}}}
Problém filtrování spočívá v postupném odhadu hodnot skrytých stavů v jakékoli fázi s přihlédnutím k hodnotám procesu pozorování .
Xk{\ displaystyle X_ {k}}
Y0,...,Yk{\ displaystyle Y_ {0}, ..., Y_ {k}}
k{\ displaystyle k}![k](https://wikimedia.org/api/rest_v1/media/math/render/svg/c3c9a2c7b599b37105512c5d570edc034056dd40)
Následují všechny bayesovské odhady zadní hustoty . Metodika částicového filtru poskytuje aproximaci těchto podmíněných pravděpodobností pomocí empirického měření spojeného s algoritmem genetického typu. Na druhou stranu by přístup k odběru vzorků metodou Monte-Carlo podle Markova nebo řetězců důležitosti modeloval celý zadní .
Xk{\ displaystyle X_ {k}}
p(Xk∣y0,y1,...,yk){\ displaystyle p (x_ {k} \ uprostřed y_ {0}, y_ {1}, ..., y_ {k})}
p(X0,X1,...,Xk∣y0,y1,...,yk){\ displaystyle p (x_ {0}, x_ {1}, ..., x_ {k} \ uprostřed y_ {0}, y_ {1}, ..., y_ {k})}![{\ displaystyle p (x_ {0}, x_ {1}, ..., x_ {k} \ uprostřed y_ {0}, y_ {1}, ..., y_ {k})}](https://wikimedia.org/api/rest_v1/media/math/render/svg/6f53be1bd9174692e1d11354a1848c089f723a7f)
Model pozorování signálu
Metody částic často předpokládají, že a pozorování lze modelovat v této podobě:
Xk{\ displaystyle X_ {k}}
Yk{\ displaystyle Y_ {k}}![{\ displaystyle Y_ {k}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/f232884d316da11fdb37493839c901bbd9397658)
-
X0,X1,...{\ displaystyle X_ {0}, X_ {1}, ...}
je Markov proces na (pro některé ), který se vyvíjí v závislosti na hustotě přechodové pravděpodobnosti . Tento model je také často psán synteticky jakoRdX{\ displaystyle \ mathbb {R} ^ {d_ {x}}}
dX⩾1{\ displaystyle d_ {x} \ geqslant 1}
p(Xk|Xk-1){\ displaystyle p (x_ {k} | x_ {k-1})}
Xk|Xk-1=Xk∼p(Xk|Xk-1){\ displaystyle X_ {k} | X_ {k-1} = x_ {k} \ sim p (x_ {k} | x_ {k-1})}
S počáteční hustotou pravděpodobnosti .p(X0){\ displaystyle p (x_ {0})}![{\ displaystyle p (x_ {0})}](https://wikimedia.org/api/rest_v1/media/math/render/svg/9104b98828667238759fe12361ff7ea7665e9e85)
- Pozorování nabývají v určitém stavovém prostoru hodnot o (pro některé ) podmíněně nezávislých za předpokladu, že jsou známy. Jinými slovy, každý závisí pouze na . Dále předpokládáme, že podmíněné rozdělení pro dané jsou absolutně spojité a synteticky máme
Y0,Y1,⋯{\ displaystyle Y_ {0}, Y_ {1}, \ cdots}
Rdy{\ displaystyle \ mathbb {R} ^ {d_ {y}}}
dy⩾1{\ displaystyle d_ {y} \ geqslant 1}
X0,X1,⋯{\ displaystyle X_ {0}, X_ {1}, \ cdots}
Yk{\ displaystyle Y_ {k}}
Xk{\ displaystyle X_ {k}}
Yk{\ displaystyle Y_ {k}}
Xk=Xk{\ displaystyle X_ {k} = x_ {k}}
Yk|Xk=yk∼p(yk|Xk){\ displaystyle Y_ {k} | X_ {k} = y_ {k} \ sim p (y_ {k} | x_ {k})}![{\ displaystyle Y_ {k} | X_ {k} = y_ {k} \ sim p (y_ {k} | x_ {k})}](https://wikimedia.org/api/rest_v1/media/math/render/svg/c7fc1a10d7a346bf492c794b3a3ce4d8bab80d03)
Příkladem systému s těmito vlastnostmi je:
Xk=G(Xk-1)+Žk{\ displaystyle X_ {k} = g (X_ {k-1}) + W_ {k}}
Yk=h(Xk)+PROTIk{\ displaystyle Y_ {k} = h (X_ {k}) + V_ {k}}
V případě, že dva a jsou vzájemně nezávislé sekvencí s funkce hustoty pravděpodobnosti y a a známá jsou známé funkce. Tyto dvě rovnice lze považovat za rovnice stavového prostoru a podobají se rovnicím stavového prostoru pro Kalmanův filtr. V případě, že funkce g a h ve výše uvedeném příkladu je lineární, a to jak a jsou Gaussian , Kalmanův filtr najde přesné Bayesiánského rozložení filtru. Jinak jsou metody založené na Kalmanově filtru aproximace prvního řádu (EKF) nebo aproximace druhého řádu (UKF obecně, ale pokud je rozdělení pravděpodobnosti Gaussian, je možná aproximace třetího řádu).
Žk{\ displaystyle W_ {k}}
PROTIk{\ displaystyle V_ {k}}
G{\ displaystyle g}
h{\ displaystyle h}
Žk{\ displaystyle W_ {k}}
PROTIk{\ displaystyle V_ {k}}![{\ displaystyle V_ {k}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/f43bfe96795a33589c12e1500b843f6268d35f2f)
Předpoklad, že počáteční distribuce a přechody Markovova řetězce jsou absolutně kontinuální s ohledem na Lebesgueovu míru, lze uvolnit. Abychom mohli navrhnout filtr pevných částic, musíme pouze předpokládat, že můžeme vzorkovat přechody Markovova řetězce a vypočítat pravděpodobnost funkce (viz například popis genetického výběru filtru pevných částic uvedený níže). Absolutně kontinuální hypotéza o Markovových přechodech slouží pouze k neformálnímu (a poněkud nevhodnému) odvození různých vzorců mezi zadními distribucemi pomocí Bayesova pravidla pro podmíněné hustoty.
Xk-1→Xk{\ displaystyle X_ {k-1} \ rightarrow X_ {k}}
Xk,{\ displaystyle X_ {k},}
Xk↦p(yk|Xk){\ displaystyle x_ {k} \ mapsto p (y_ {k} | x_ {k})}
Xk{\ displaystyle X_ {k}}![{\ displaystyle X_ {k}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/33c25229c6989c235f9cbb7908331f6d01d0abfe)
Modelování
Filtry částic předpokládají, že stavy a pozorování lze modelovat v následující podobě:
Xk{\ displaystyle x_ {k}}
yk{\ displaystyle y_ {k}}![y_ {k}](https://wikimedia.org/api/rest_v1/media/math/render/svg/4b2ab0248723a410cc2c67ce06ad5c043dcbb933)
- Sekvence parametrů tvoří Markovův řetězec prvního řádu, takový a s počáteční distribucí .X0,X1,...{\ displaystyle x_ {0}, x_ {1}, \ tečky}
Xk|Xk-1∼pXk|Xk-1(X|Xk-1){\ displaystyle x_ {k} | x_ {k-1} \ sim p_ {x_ {k} | x_ {k-1}} (x | x_ {k-1})}
p(X0){\ displaystyle p (x_ {0})}![p (x_0)](https://wikimedia.org/api/rest_v1/media/math/render/svg/9104b98828667238759fe12361ff7ea7665e9e85)
- Pozorování jsou podmíněně nezávislá za předpokladu, že jsou známa. Jinými slovy, každé pozorování závisí pouze na parametru :y0,y1,...{\ displaystyle y_ {0}, y_ {1}, \ tečky}
X0,X1,...{\ displaystyle x_ {0}, x_ {1}, \ tečky}
yk{\ displaystyle y_ {k}}
Xk{\ displaystyle x_ {k}}
yk|Xk∼py|X(y|Xk){\ displaystyle y_ {k} | x_ {k} \ sim p_ {y | x _ {}} (y | x_ {k})}
Příkladem tohoto scénáře je {Xk=F(Xk-1)+protikyk=h(Xk)+wk{\ displaystyle \ left \ {{\ begin {matrix} x_ {k} = f (x_ {k-1}) + v_ {k} \\ y_ {k} = h (x_ {k}) + w_ {k } \ end {matrix}} \ vpravo.}
kde oba a jsou navzájem nezávislé a identicky distribuované sekvence s známých funkcí hustoty pravděpodobnosti a kde a jsou známy funkcí. Tyto dvě rovnice lze považovat za rovnice stavového prostoru a připomínají rovnice Kalmanova filtru .
protik{\ displaystyle v_ {k}}
wk{\ displaystyle w_ {k}}
F(⋅){\ displaystyle f (\ cdot)}
h(⋅){\ displaystyle h (\ cdot)}![h (\ cdot)](https://wikimedia.org/api/rest_v1/media/math/render/svg/3a4e42ce33810cdad2ae2f1f5695206f73000a34)
Pokud byly funkce a lineární, a pokud obě a byly Gaussovy , pak Kalmanov filtr najde přesné Bayesovské filtrační rozdělení . V opačném případě poskytují metody založené na Kalmanově filtru odhad prvního řádu. Filtry pevných částic také poskytují přibližné hodnoty, ale s dostatečným množstvím částic mohou být výsledky ještě přesnější.
F(⋅){\ displaystyle f (\ cdot)}
h(⋅){\ displaystyle h (\ cdot)}
protik{\ displaystyle v_ {k}}
wk{\ displaystyle w_ {k}}![w_k](https://wikimedia.org/api/rest_v1/media/math/render/svg/ac808de3e1f01ed40c69d4a350035b19ab28445f)
Aproximace Monte Carlo
Částicové metody, stejně jako všechny metody založené na vzorkování (například MCMC ), vytvářejí sadu vzorků, které aproximují distribuci filtrování . U vzorků se tedy očekávané hodnoty s ohledem na filtrační distribuci přiblíží:
kde je (L) thá částice v daném okamžiku ; a obvyklým způsobem metod Monte Carlo může poskytnout všechna data rozdělení ( momenty atd.) do určité míry aproximace.
p(Xk|y0,...,yk){\ displaystyle p (x_ {k} | y_ {0}, \ tečky, y_ {k})}
P{\ displaystyle P}
∫F(Xk)p(Xk|y0,...,yk)dXk≈1P∑L=1PF(Xk(L)){\ displaystyle \ int f (x_ {k}) p (x_ {k} | y_ {0}, \ tečky, y_ {k}) dx_ {k} \ přibližně {\ frac {1} {P}} \ součet _ {L = 1} ^ {P} f (x_ {k} ^ {(L)})}
Xk(L){\ displaystyle x_ {k} ^ {(L)}}
k{\ displaystyle k}
F(⋅){\ displaystyle f (\ cdot)}![f (\ cdot)](https://wikimedia.org/api/rest_v1/media/math/render/svg/6ec4adac182c93a76f0238a839ebb10b124e54c2)
Obecně se algoritmus opakuje iterativně pro daný počet hodnot (což si všimneme ).
k{\ displaystyle k}
NE{\ displaystyle N}![NE](https://wikimedia.org/api/rest_v1/media/math/render/svg/f5e3890c981ae85503089652feb48b191b57aae3)
Inicializovat pro všechny částice poskytuje počáteční pozici k vytvoření , kterou lze použít k vytvoření , kterou lze použít k vytvoření atd . Nahoru .
Xk=0|k=0{\ displaystyle x_ {k} = 0 | _ {k = 0}}
X1{\ displaystyle x_ {1}}
X2{\ displaystyle x_ {2}}
X3{\ displaystyle x_ {3}}
k=NE{\ displaystyle k = N}![k = N](https://wikimedia.org/api/rest_v1/media/math/render/svg/2e302b20f7f5064ac2ebb7734304fd430ad737a7)
Jakmile se tak stane se průměr z více než všech částic (nebo ) je přibližně pravý hodnota .
Xk{\ displaystyle x_ {k}}
1P∑L=1PXk(L){\ displaystyle {\ frac {1} {P}} \ součet _ {L = 1} ^ {P} x_ {k} ^ {(L)}}
Xk{\ displaystyle x_ {k}}![x_k](https://wikimedia.org/api/rest_v1/media/math/render/svg/6d2b88c64c76a03611549fb9b4cf4ed060b56002)
Vzorkování s převzorkováním podle důležitosti (SIR)
Vzorkování s důležitostí převzorkování neboli Sampling Importance Resampling (SIR) je algoritmus filtrování používaný velmi často. Přistoupí k filtrování rozdělení sadou vážených částic: .
p(Xk|y0,...,yk){\ displaystyle p (x_ {k} | y_ {0}, \ ldots, y_ {k})}
{(wk(L),Xk(L)) : L=1,...,P}{\ displaystyle \ {(w_ {k} ^ {(L)}, x_ {k} ^ {(L)}) ~: ~ L = 1, \ ldots, P \}}![\ {(w ^ {(L)} _ k, x ^ {(L)} _ k) ~: ~ L = 1, \ ldots, P \}](https://wikimedia.org/api/rest_v1/media/math/render/svg/6924f1b7cbada4724b257344839a2128eaab4dee)
Důležitostní váhy jsou aproximace relativních zadních pravděpodobností (nebo hustot) částic, jako jsou .
wk(L){\ displaystyle w_ {k} ^ {(L)}}
∑L=1Pwk(L)=1{\ displaystyle \ sum _ {L = 1} ^ {P} w_ {k} ^ {(L)} = 1}![\ sum_ {L = 1} ^ P w ^ {(L)} _ k = 1](https://wikimedia.org/api/rest_v1/media/math/render/svg/fbda7da75c998a24ae4b86a4f24e23e2d75ecdb7)
Algoritmus SIR je rekurzivní verzí vzorkování důležitosti . Stejně jako v případě vzorkování důležitosti lze očekávání funkce odhadnout jako vážený průměr:F(⋅){\ displaystyle f (\ cdot)}
∫F(Xk)p(Xk|y0,...,yk)dXk≈∑L=1Pw(L)F(Xk(L)).{\ displaystyle \ int f (x_ {k}) p (x_ {k} | y_ {0}, \ tečky, y_ {k}) dx_ {k} \ přibližně \ součet _ {L = 1} ^ {P} w ^ {(L)} f (x_ {k} ^ {(L)}).}
Výkonnost algoritmu je závislá na volbě distribucí velikostí : .
π(Xk|X0:k-1,y0:k){\ displaystyle \ pi (x_ {k} | x_ {0: k-1}, y_ {0: k})}![\ pi (x_k | x_ {0: k-1}, y_ {0: k})](https://wikimedia.org/api/rest_v1/media/math/render/svg/c07a6f2fc912bb5af964c66d704cf43bb1f49c2d)
Distribuce Optimální důležitost je dána jako:π(Xk|X0:k-1,y0:k)=p(Xk|Xk-1,yk).{\ displaystyle \ pi (x_ {k} | x_ {0: k-1}, y_ {0: k}) = p (x_ {k} | x_ {k-1}, y_ {k}).}
Pravděpodobnost přechodu se však často používá jako funkce důležitosti, protože je snazší ji vypočítat a také zjednodušuje výpočty následných váh důležitosti:
π(Xk|X0:k-1,y0:k)=p(Xk|Xk-1).{\ displaystyle \ pi (x_ {k} | x_ {0: k-1}, y_ {0: k}) = p (x_ {k} | x_ {k-1}).}
Převzorkování filtrů podle důležitosti (CRS) s pravděpodobností přechodů jako funkce důležitosti jsou běžně známé jako nasávací filtry ( bootstrap filtry) nebo kondenzační algoritmus .
Převzorkování vyhýbá problému degeneraci algoritmu. Tím se vyhnete situacím, kdy se všechny váhy důležitosti kromě jedné blíží nule. Výkonnost algoritmu může být také ovlivněna výběrem vhodné metody převzorkování. Vrstevnatý převzorkování navržené Kitagawa (1996), je optimální, pokud jde o rozptyl.
Jeden krok postupného převzorkování důležitosti probíhá následovně:
- Pro čerpáme Vzorky distribucí významu :L=1,...,P{\ displaystyle L = 1, \ ldots, P}
Xk(L)∼π(Xk|X0:k-1(L),y0:k){\ displaystyle x_ {k} ^ {(L)} \ sim \ pi (x_ {k} | x_ {0: k-1} ^ {(L)}, y_ {0: k})}
- Protože hodnotíme váhy důležitosti s normalizační konstantou:L=1,...,P{\ displaystyle L = 1, \ ldots, P}
w^k(L)=wk-1(L)p(yk|Xk(L))p(Xk(L)|Xk-1(L))π(Xk(L)|X0:k-1(L),y0:k).{\ displaystyle {\ hat {w}} _ {k} ^ {(L)} = w_ {k-1} ^ {(L)} {\ frac {p (y_ {k} | x_ {k} ^ { (L)}) p (x_ {k} ^ {(L)} | x_ {k-1} ^ {(L)})} {\ pi (x_ {k} ^ {(L)} | x_ {0 : k-1} ^ {(L)}, y_ {0: k})}}.}
- Pro výpočet normalizované důležitosti hmotnosti:L=1,...,P{\ displaystyle L = 1, \ ldots, P}
wk(L)=w^k(L)∑J=1Pw^k(J){\ displaystyle w_ {k} ^ {(L)} = {\ frac {{\ hat {w}} _ {k} ^ {(L)}} {\ sum _ {J = 1} ^ {P} { \ hat {w}} _ {k} ^ {(J)}}}}
- Vypočítáme odhad efektivního počtu částic jako NE^EFF=1∑L=1P(wk(L))2{\ displaystyle {\ hat {N}} _ {\ mathit {eff}} = {\ frac {1} {\ součet _ {L = 1} ^ {P} \ vlevo (w_ {k} ^ {(L) } \ vpravo) ^ {2}}}}
- Pokud je efektivní počet částic menší než daná prahová hodnota , provede se převzorkování:
NE^EFF<NEthr{\ displaystyle {\ hat {N}} _ {\ mathit {eff}} <N_ {thr}}
![\ hat {N} _ \ mathit {eff} <N_ {thr}](https://wikimedia.org/api/rest_v1/media/math/render/svg/164c04dae569acdef8a42da29257eeb844407c3f)
- Nakreslete částice z aktuální sady částic s pravděpodobnostmi úměrnými jejich hmotnosti a poté sadu aktuálních částic nahraďte touto novou sadou.P{\ displaystyle P}
![P](https://wikimedia.org/api/rest_v1/media/math/render/svg/b4dc73bf40314945ff376bd363916a738548d40a)
- Pro celek .L=1,...,P{\ displaystyle L = 1, \ ldots, P}
wk(L)=1/P{\ displaystyle w_ {k} ^ {(L)} = 1 / P}![w ^ {(L)} _ k = 1 / P](https://wikimedia.org/api/rest_v1/media/math/render/svg/66093650db3dc21950075ca74a49587804c27757)
Termín převzorkování sekvenční důležitost (Sequential Importance Resampling) se také někdy používá k označení filtrů SIR.
Vzorkování sekvenční důležitosti (SIS)
Sekvenční vzorkování podle velikosti nebo vzorkování sekvenčního významu (SIS) je podobné jako vzorkování s významem převzorkování (SIR), ale bez kroku převzorkování.
Přímá verze algoritmu
Přímočaré verze algoritmu je relativně jednoduché ve srovnání s ostatními částicemi filtrování algoritmy a používá složení a odmítnutí. Pro výrobu jednoho vzorku k z :
X{\ displaystyle x}
k{\ displaystyle k}
pXk|y1:k(X|y1:k){\ displaystyle p_ {x_ {k} | y_ {1: k}} (x | y_ {1: k})}![p_ {x_k | y_ {1: k}} (x | y_ {1: k})](https://wikimedia.org/api/rest_v1/media/math/render/svg/d23918c75f62e03a4d8259c57576731048e8ec26)
(1) Nastavte p = 1
(2)
Rovnoměrně vytvořte L z
{1,...,P}{\ displaystyle \ {1, ..., P \}}![\ {1, ..., P \}](https://wikimedia.org/api/rest_v1/media/math/render/svg/7ae3d792695701acb8cf41f1afc51869c5a7fa89)
(3) Vytvořte test z jeho distribuce
X^{\ displaystyle {\ hat {x}}}
pXk|Xk-1(X|Xk-1|k-1(L)){\ displaystyle p_ {x_ {k} | x_ {k-1}} (x | x_ {k-1 | k-1} ^ {(L)})}![p_ {x_k | x_ {k-1}} (x | x_ {k-1 | k-1} ^ {(L)})](https://wikimedia.org/api/rest_v1/media/math/render/svg/1f6f41af768b0749fff8912cb3e161c5b9c24f72)
(4) Vytvoření pravděpodobnosti používání od kde je naměřená hodnota
y^{\ displaystyle {\ hat {y}}}
X^{\ displaystyle {\ hat {x}}}
py|X(yk|X^){\ displaystyle p_ {y | x} (y_ {k} | {\ hat {x}})}
yk{\ displaystyle y_ {k}}![y_ {k}](https://wikimedia.org/api/rest_v1/media/math/render/svg/4b2ab0248723a410cc2c67ce06ad5c043dcbb933)
(5) Vytvořte další
jednotně u z
[0,mk]{\ displaystyle [0, m_ {k}]}![[0, m_k]](https://wikimedia.org/api/rest_v1/media/math/render/svg/f078a6549b4cdecf4b768d5b34bb42ecc5594f34)
(6) Porovnejte u a
y^{\ displaystyle {\ hat {y}}}![{\ hat {y}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/3dc8de3d8ea01304329ef9518fad7a6d196c4c01)
(a) Pokud je u větší, opakujte postup od kroku (2)
(b) Je-li u menší, uložte as a zvyšte p
X^{\ displaystyle {\ hat {x}}}
Xk|k(p){\ displaystyle x {k | k} ^ {(p)}}![x {k | k} ^ {(p)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/7222b3f5b89fab450e0cb53ac5f37a53b13bbec8)
(c) Pokud p> P, pak přestaň
Cílem je vytvořit částice P v kroku pomocí pouze částic kroku . To vyžaduje, aby bylo možné napsat (a vypočítat) Markovianovu rovnici tak, aby byla vytvořena pouze na základě . Tento algoritmus využívá složení částic P od vytvoření k .
k{\ displaystyle k}
k-1{\ displaystyle k-1}
Xk{\ displaystyle x_ {k}}
Xk-1{\ displaystyle x_ {k-1}}
k-1{\ displaystyle k-1}
k{\ displaystyle k}![k](https://wikimedia.org/api/rest_v1/media/math/render/svg/c3c9a2c7b599b37105512c5d570edc034056dd40)
To lze snáze vizualizovat, pokud je považováno za dvourozměrné pole. Jedna dimenze je a druhou dimenzí je počet částic. Například by byla L- tou částicí v kroku, a proto ji lze zapsat (jak bylo dříve provedeno v algoritmu).
X{\ displaystyle x}
k{\ displaystyle k}
X(k,L){\ displaystyle x (k, L)}
k{\ displaystyle k}
Xk(L){\ displaystyle x_ {k} ^ {(L)}}![x_k ^ {(L)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/aebd6c3b292ac5d07c41c1aa8b4b183112cb3fe2)
Krok (3) vytváří potenciál na základě náhodně vybrané částice ( ) v čase a tuto část odmítne nebo přijme v kroku (6). Jinými slovy, hodnoty se počítají pomocí dříve vypočítaných.
Xk{\ displaystyle x_ {k}}
Xk-1(L){\ displaystyle x_ {k-1} ^ {(L)}}
k-1{\ displaystyle k-1}
Xk{\ displaystyle x_ {k}}
Xk-1{\ displaystyle x_ {k-1}}![x_ {k-1}](https://wikimedia.org/api/rest_v1/media/math/render/svg/9c60c4443107198983b1ced988c34b238bcd9119)
Poznámky a odkazy
-
(in) Pan Sanjeev Arulampalam, „ Výukový program pro filtry částic pro online nelineární / negaussovské Bayesovské sledování “ , IEEE TRANSACTIONS ON SIGNAL PROCESSING, VOL. 50, č. 2 ,Únor 2002
-
(en) „ Filtry částic “
-
Podívejte se také
Bibliografie
-
Postupné metody Monte Carlo v praxi , A Doucet, N de Freitas a N Gordon. Zaslal Springer.
-
On Sequential Monte Carlo Sampling Methods for Bayesian Filtering , A Doucet, C Andrieu and S. Godsill, Statistics and Computing, vol. 10, č. 3, s. 197-208 , 2000 CiteSeer odkaz
-
Výukový program pro filtry částic pro on-line nelineární / negaussovské bayesovské sledování (2001) ; S. Arulampalam, S. Maskell, N. Gordon a T. Clapp; Odkaz CiteSeer
externí odkazy
<img src="https://fr.wikipedia.org/wiki/Special:CentralAutoLogin/start?type=1x1" alt="" title="" width="1" height="1" style="border: none; position: absolute;">