Maximální pravděpodobnost

Maximální pravděpodobnost
Příroda Metoda ( d ) , odhad , M-odhad

V statistik je maximální pravděpodobnost odhadce je statistický odhad používá k odvodit parametry zákona pravděpodobnosti v daném vzorku tím, že najde hodnoty parametrů na maximalizaci funkce pravděpodobnosti .

Tuto metodu vyvinul statistik Ronald Aylmer Fisher v roce 1922.

Příklad

Dovolit být devět náhodných losování x 1 ,…, x 9 podle stejného zákona; nakreslené hodnoty jsou na diagramech zobrazeny svislými tečkovanými čarami. Chceme modelovat tyto hodnoty normálním rozdělením. Z praktických důvodů jsme přijata decily redukované středem normální distribuce (μ = 0, σ = 1) pro x i , přičemž tento způsob by proto přinést tuto distribuci.

Vezměme si dva modelové zákony se stejnou disperzí σ (směrodatná odchylka), ale s odlišnou polohou μ (průměr, očekávání ). Pro každý případ určíme výšky h i odpovídající hodnotě hustotní funkce v x i . Pravděpodobnost L definujeme jako

.

V případě modré křivky vpravo je funkce hustoty maximální tam, kde je nejvíce hodnot - oblast je označena závorkou. Logicky je tedy pravděpodobnost důležitější pro modrou křivku než pro černou křivku. Obecně musí být vysoká hustota hodnot x i, kde je důležitá hustotní funkce; maximální pravděpodobnost je proto relevantní pro výběr parametru polohy, pokud má význam, modelového zákona.

Vezměme si nyní tři modelové zákony, všechny tři ve „správné“ poloze, ale s různými směrodatnými odchylkami. V případě zelené křivky vlevo je velmi důležitý rozptyl, křivka je velmi široká, a proto „nestoupá příliš vysoko“ (plocha pod křivkou musí být 1, bez ohledu na křivku); h i proto jsou nízké a L je nízká.

V případě černé křivky vpravo je disperze nízká; horní část křivky je vysoká, ale h i konců je velmi nízká, takže součin L není příliš vysoký.

Modrá křivka ve středu má jak relativně vysoké výšky pro h i ve středu, tak ne zanedbatelné výšky pro h i na koncích, což má za následek vysokou L; maximální pravděpodobnost je proto relevantní pro výběr parametru rozptylu, pokud má význam, modelového zákona.

V našem příkladu, pokud vyneseme hodnotu pravděpodobnosti L jako funkci parametrů μ a σ, získáme povrch, jehož maximum je v (μ = 0, σ = 1). Nalezení tohoto maxima je klasický problém s optimalizací .

Dějiny

V roce 1912, kdy Ronald Aylmer Fisher napsal svůj první článek o maximální pravděpodobnosti, byly dvě nejpoužívanější statistické metody metoda nejmenších čtverců a metoda momentů . Ve svém článku z roku 1912 navrhl odhad maximální pravděpodobnosti, který v té době nazval absolutním kritériem . Vezme si příklad normálního zákona.

V roce 1921 použil stejnou metodu k odhadu korelačního koeficientu .

V roce 1912 nedorozumění naznačilo, že absolutní kritérium lze interpretovat jako Bayesiánský odhadce s jednotným předchozím rozdělením. Fisher vyvrátil tuto interpretaci v roce 1921. V roce 1922 použil binomický zákon k ilustraci svého kritéria a ukázal, jak se liší od bayesovského odhadce. Bylo to také v roce 1922, kdy dal název maximální pravděpodobnosti své metodě.

Zásada

Dovolme být parametrickou rodinou rozdělení pravděpodobnosti D θ, jejíž prvky jsou spojeny buď se známou hustotou pravděpodobnosti (spojité rozdělení), nebo se známou hromadnou funkcí (diskrétní rozdělení), která je uvedena f (x | θ) . Z distribuce opakovaně nakreslíme jednoduchý n -vzorek (nezávislé vzorky) x 1 , x 2 , ..., x n a vypočítáme hustotu pravděpodobnosti spojenou s pozorovanými daty

Jelikož je to funkce θ s pevnými x 1 , ..., x n , je to pravděpodobnost pro n nezávislých vzorků.

Pokud θ není pozorovatelný, použije metoda maximální pravděpodobnosti hodnoty θ, které maximalizují odhad L (θ) θ: je to zaznamenaný odhad maximální pravděpodobnosti θ . Například v případě diskrétního součinu se provede nákres hodnot n , je proto nutné najít parametr, který maximalizuje pravděpodobnost, že bude tento nákres nakreslen.

Tato metoda se liší od hledání nezaujatého odhadce θ, který nemusí nutně dávat nejpravděpodobnější hodnotu pro θ.

Odhad maximální pravděpodobnosti, pokud existuje, je jedinečný.

Definice

Dovolit být skutečný náhodná veličina , diskrétní nebo spojité práva, z nichž jeden chce odhadnout parametr . Označujeme tuto rodinu parametrických zákonů. Definujeme tedy funkci jako:

představuje hustotu X (kde se objeví) a představuje diskrétní pravděpodobnost (kde se objeví).

Nazýváme pravděpodobnost s ohledem na pozorování po dosažení n vzorku nezávisle a stejně rozdělené podle rodinného práva , číslo:

Snažíme se najít maximum této pravděpodobnosti tak, aby i pravděpodobnosti pozorovaných realizací byly maximální. Toto je optimalizační problém . Obecně používáme skutečnost, že pokud L je diferencovatelný (což není vždy případ) a pokud L připouští globální maximum v hodnotě , pak první derivace zmizí a druhá derivace je záporná. Naopak, v případě, že první derivace mizí v a druhá derivace je striktně záporný na , pak je lokální maximum z . Poté je nutné ověřit, zda se skutečně jedná o globální maximum. Jelikož je pravděpodobnost pozitivní a přirozený logaritmus rostoucí funkce, je ekvivalentní a často jednodušší maximalizovat přirozený logaritmus pravděpodobnosti (součin se změní na součet, který lze snáze odvodit). Lze snadno sestavit statistiku, která je požadovaným odhadcem.

Takže v praxi:

Pro zjednodušení je možné v případě spojitého rozdělení, kde je hustota pravděpodobnosti v určitém intervalu nula, vynechat zápis pravděpodobnosti pouze pro tento interval.

Zobecnění

Tato část může obsahovat nepublikovanou práci nebo neauditovaná prohlášení  (březen 2012) . Můžete pomoci přidáním odkazů nebo odebráním nepublikovaného obsahu.

Pro skutečné náhodné proměnné X. jakéhokoli zákona definované distribuční funkce f (x) , můžeme považovat sousedství V z (x 1 , ..., x n ) v , například koule o poloměru e. Získáváme tak funkci pravděpodobnosti, pro kterou hledáme maximum . Pak máme tendenci velikost V směrem k 0 v, abychom získali odhad maximální pravděpodobnosti.

Když má X diskrétní nebo spojitý zákon, vrátíme se k předchozím funkcím pravděpodobnosti .

Pokud je zákon X libovolný, postačuje vzít v úvahu hustotu vzhledem k dominantní míře .

Právnické rodině dominuje opatření, pokud .

Pokud je X spojitá proměnná dimenze 1, můžeme použít Lebesgueovu míru na (nebo na intervalu jako dominantní míru). Pokud X je diskrétní proměnná dimenze 1, můžeme použít míru počítání na (nebo na podmnožina ) Poté najdeme definice pravděpodobnosti dané pro diskrétní a spojité případy.

Vlastnosti

Odhad získaný metodou maximální pravděpodobnosti je:

Na druhou stranu to může být předpjaté v konečném vzorku.

Intervaly spolehlivosti

Vzhledem k tomu, že odhad maximální pravděpodobnosti je asymptoticky normální, můžeme sestrojit interval spolehlivosti tak, aby obsahoval skutečný parametr s pravděpodobností  :

s řádovým kvantilem sníženého středního normálního rozdělení a odhadované standardní odchylky . Pak máme

Testy

Waldův test

Protože je odhad maximální pravděpodobnosti asymptoticky normální, můžeme použít Waldův test.

Zvažujeme nulovou hypotézu:

proti alternativní hypotéze

Odhad je asymptoticky normální:

s odhadovanou směrodatnou odchylkou odhadce

Definujeme statistiku testu:

Poté odmítneme nulovou hypotézu s rizikem prvního druhu, když je absolutní hodnota statistiky testu větší než řádový kvantil redukovaného normálního zákona:

s kvantilovou funkcí redukovaného středového normálního rozdělení.

Hodnota p se poté zapíše:

s w hodnota testovací statistiky v datech.

Test poměru pravděpodobnosti

Pokud zavoláme vektor odhadovaných parametrů, uvažujeme test typu:

proti

Poté definujeme odhad maximální věrohodnosti a odhad maximální věrohodnosti pod . Nakonec definujeme statistiku testu:

Víme, že podle nulové hypotézy se statistika testu poměru pravděpodobnosti řídí zákonem s počtem stupňů volnosti rovným počtu omezení uložených nulovou hypotézou (p):

Proto je test na úrovni odmítnut, když je statistika testu větší než řádový kvantil zákona p stupňů volnosti.

Můžeme tedy definovat mezní hodnotu (hodnotu p ) tohoto testu:

Příklady

Poissonův zákon

Chceme odhadnout parametr o Poisson distribuce z n vzorku:

Maximální odhad pravděpodobnosti je:

Demonstrace

Pravděpodobnost je napsána:

Pravděpodobnost, že bude pozitivní, považujeme za její přirozený logaritmus  :

První derivace zmizí, když:

je

Druhá derivace je zapsána:

Tento poměr je vždy negativní, odhad je dán vztahem:

Je zcela normální najít v tomto didaktickém příkladu empirický průměr, protože je to nejlepší možný odhad parametru (který také představuje očekávání Poissonova zákona).

Exponenciální zákon

Chceme odhadnout parametr po dosažení exponenciálního zákona z n vzorku.

Maximální odhad pravděpodobnosti je:

Demonstrace

Pravděpodobnost je napsána:

Pravděpodobnost, že bude pozitivní, považujeme za její přirozený logaritmus:

První derivace zmizí, když:

je

Druhá derivace je zapsána:

Tento poměr je vždy záporný, takže odhad je dán vztahem:

I zde je zcela normální najít inverzní hodnotu empirického průměru, protože víme, že očekávání exponenciálního zákona odpovídá inverzní hodnotě parametru .

Normální zákon

Maximální pravděpodobnost odhadce očekávání a rozptylu jednoho normálního rozdělení je:

Demonstrace

Normální zákon má funkci hustoty:

Funkce pravděpodobnosti pro vzorek n nezávislých hodnot je pak:

které lze jednodušeji napsat König-Huyghensovou větou  :

kde je průměr vzorku.

Máme zde dva parametry:, proto musíme maximalizovat funkci podle těchto dvou parametrů.

Budeme tedy hledat první derivaci a vyrovnáme ji na nulu.

V tomto případě se zde maximalizuje funkce log-likelihood.

a získáme tak odhad podle maximální pravděpodobnosti očekávání:

Můžeme také ukázat, že tento odhad je nestranný:

U druhého parametru σ budeme analogicky hledat maximum jako funkci σ.

proto

a nakonec získáme odhad maximální věrohodnosti rozptylu

Odhad variance je naproti tomu předpjatý:

Odhad variance je dobrým příkladem, který ukazuje, že maximální pravděpodobnost může poskytnout zkreslené odhady. Vskutku, nezaujatý odhadce je dána vztahem: . Avšak asymptoticky, když n má tendenci k nekonečnu, je toto zkreslení, které má tendenci k 0 a odhad, potom asymptoticky nezaujaté.

Jednotné právo

V případě odhadu horní hranice jednotného rozdělení nelze pravděpodobnost odvodit.

Chceme odhadnout parametr A o jednotné právní předpisy z n vzorku.

Pravděpodobnost je napsána:

Tuto funkci nelze odvodit v . Jeho derivace mizí po celý interval . Je jasné, že při hledání maxima této funkce bychom neměli hledat, kde derivace mizí.

Hodnota L bude maximální pro , protože pro klesá .

Tento příklad také ukazuje, že logaritmus pravděpodobnosti není vždy dobře definován (pokud to nepřijmeme ).

Aplikace

Velmi často se používá metoda maximální pravděpodobnosti. Používá se zejména k odhadu modelu logistické regrese nebo modelu probit . Obecněji se běžně používá k odhadu zobecněného lineárního modelu , tříd modelů , které zahrnují logistickou regresi a modelu probit.

Bibliografie

Poznámky a odkazy

Poznámky

  1. Připomínáme, že hodnota p je definována jako nejmenší hodnota rizika prvního druhu ( ), pro které test odmítáme ( Wasserman 2004 , s.  156)

Reference

  1. (in) John Aldrich , „  RA Fisher a dosažení maximální pravděpodobnosti v letech 1912 až 1922  “ , Statistics Science , sv.  12, n o  3,1997, str.  162-176 ( číst online , konzultováno 19. prosince 2011 )
  2. (in) Stephen Stigler , „  Epický příběh maximální pravděpodobnosti  “ , Statistics Science , sv.  22, n o  4,2007( číst online , konzultováno 21. prosince 2011 ).
  3. (in) Ronald Fisher , "  On absolutním kritériem pro montáž frekvenčních křivek  " , Messenger matematiky , n o  41,1912, str.  155-160
  4. (v) Ronald Fisher , „  Na“ pravděpodobné chyby „koeficientu korelace vyvodit z malého vzorku  “ , Metron , n o  1,1921
  5. (in) Ronald Fisher , „  K matematickým základům teoretické statistiky  “ , Philos. Trans. Roy. Soc. London Ser. A ,1922
  6. Wasserman 2004 , str.  126
  7. Cameron a Trivedi 2005 , s.  119
  8. Wasserman 2004 , str.  129, Věta 9.18
  9. Cameron a Trivedi 2005 , s.  121
  10. Wasserman 2004 , str.  129, Věta 9.19
  11. Wasserman 2004 , str.  153, definice 10.3
  12. Wasserman 2004 , str.  158, Věta 10.13
  13. Wasserman 2004 , str.  164
  14. Wasserman 2004 , str.  123, příklad 9.11
  15. Wasserman 2004 , str.  124, příklad 9.12

Podívejte se také

<img src="https://fr.wikipedia.org/wiki/Special:CentralAutoLogin/start?type=1x1" alt="" title="" width="1" height="1" style="border: none; position: absolute;">