Metoda maximální věrohodnosti: Porovnání verzí

m
typo
m (typo)
== Definice ==
 
Pozorovaná data se uvažují jako soubor nezávislých [[Náhodná veličina|náhodných veličin]] <math>X_1, X_2, \ldots, X_n </math> stejně [[Rozdělení pravděpodobnosti|rozdělených]] s neznámou [[Rozdělení pravděpodobnosti#Distribuční funkce spojité veličinýveličiny|distribuční funkcí]] <math> f_{\theta}</math>. Dostupnou informací je, že tato funkce je členem parametrické množiny <math> \{ g_\theta, \theta \in \Theta \} </math>, jejíž prvky se liší pouze hodnotou <math> \Theta </math>. Jinými slovy existuje hodnota <math> \theta_0 </math> taková, že <math> f_{\theta} = g_{\theta_0}</math>. Protože hodnota <math> \theta_0 </math> je neznámá, je potřeba se jí pomocí nějakého odhadu <math>\hat{\theta}</math> co nejlépe přiblížit.
 
Pro soubor stejně rozdělených, nezávislých náhodných veličin platí, že jejich sdruženou distribuci lze [[Faktorizace|faktorizovat]] (tj. rozdělit na součin jednodlivýchjednotlivých rozdělení)
: <math> f( X_1, X_2, \ldots, X_n | \theta ) = f( X_1 | \theta )f(X_2 | \theta)\ldots f(X_n | \theta) = \prod_{i=1}^N f(X_i|\theta) </math>
 
=== Diskrétní rozdělení ===
 
Uvažujme náhodný výběr <math> (X_1, X_2, X_3, X_4) </math> z alternativního rozdělení, tj. <math>X</math> nabývá pouze hodnot 0 a 1 a sice s pravděpodobností <math> P(X=1) = p</math> a <math> P(X=0) = 1-p</math>. Získaná data jsou (0,0,1,0). Úkol je odhadnout hodnotu parameteruparametru <math>p</math>, přičemž náš model předpokládá hodnoty buď <math>p=0,2</math> nebo <math>p=0,8</math>.
 
Pro pravděpobodnostpravděpodobnost pozorovaných dat máme podle alternativního rozdělení:
: <math> P(X_1=0, X_2=0, X_3=1, X_4=0) = p(1-p)^3</math>
 
což je pro <math>p=0,2</math> rovno 0,1024 a pro <math>p=0,8</math> rovno 0,0064. Princip maximálního věrohodného odhadu spočívá v tom, že za odhad <math>p</math> vezmeme tu hodnotu, pro kterýkterou je výsledek nejpravděpodobnějsínejpravděpodobnější, tedy <math> p=0,2</math><ref name="DupacHuskova05"/>.
 
=== Spojité rozdělení ===
| url = http://www.uibk.ac.at/econometrics/einf/20p.pdf
| kapitola = Maximum-Likelihood
| místo = Univ. InsbruckInnsbruck
| jazyk = německy
}}</ref>
# je konzistentní
# pro dostatečnedostatečně velká <math>n</math> má přibližně [[normální rozdělení]], tj. pro odhad <math>\hat\theta</math> a parametr <math>\theta \in \Theta </math> platí <math> \sqrt{n} (\hat\theta - \theta) \xrightarrow{d} \mathcal{N} \left(0, \mathcal{I}^{-1}(\theta) \right) </math>
#: přičemž se jedná o tzv. [[Pravděpodobnostní konvergence|konvergenci v distribuci]]. Veličina <math>\mathcal{I}(\theta)</math> označuje [[Fisherova informace|Fisherovu informaci]], kterou lze chápat jako míru informace o parametru <math>\theta</math> obsažené v jednom pozorování.<ref name="DupacHuskova05" />
# je asymptoticky (pro počet pozorování <math>n \to \infty</math>) efficientní, tj. odhaduje neznámý parametr ''nejlepším možným způsobem''.