Anta att vi har ett slumpmässigt urval från en population av intresse. Vi kan ha en teoretisk modell för hur befolkningen fördelas. Det kan dock finnas flera populationsparametrar som vi inte känner till värdena. Maximal sannolikhetsberäkning är ett sätt att bestämma dessa okända parametrar.
Grundidén bakom maximal uppskattning av sannolikheten är att vi bestämmer värdena på dessa okända parametrar. Vi gör detta på ett sådant sätt för att maximera en tillhörande ledsannolikhetsdensitetsfunktion eller sannolikhetsmassafunktion. Vi kommer att se detta mer detaljerat i det följande. Då beräknar vi några exempel på uppskattning av maximal sannolikhet.
Ovanstående diskussion kan sammanfattas med följande steg:
Anta att vi har ett paket med frön, som var och en har en konstant sannolikhet p av framgång med groning. Vi planterar n av dessa och räkna antalet dem som spira. Antag att varje frö groddar oberoende av de andra. Hur bestämmer vi den största sannolikhetsberäknaren för parametern p?
Vi börjar med att notera att varje utsäde modelleras av en Bernoulli-distribution med en framgång av p. Vi låter X vara antingen 0 eller 1, och sannolikhetsmassfunktionen för ett enda frö är f(x; p ) = px (1 - p)1 - x.
Vårt prov består av n annorlunda Xjag, var och en med har en Bernoulli-distribution. Frön som groddar har Xjag = 1 och frön som inte groddar har Xjag = 0.
Sannolikhetsfunktionen ges av:
L ( p ) = Π pxjag (1 - p)1 - xjag
Vi ser att det är möjligt att skriva om sannolikhetsfunktionen genom att använda exponenternas lagar.
L ( p ) = pΣ xjag (1 - p)n - Σ xjag
Därefter differentierar vi denna funktion med avseende på p. Vi antar att värdena för alla Xjag är kända, och följaktligen är konstanta. För att differentiera sannolikhetsfunktionen måste vi använda produktregeln tillsammans med strömregeln:
L '( p ) = Σ xjagp-1 + Σ xjag (1 - p)n - Σ xjag - (n - Σ xjag ) pΣ xjag (1 - p)n-1 - Σ xjag
Vi skriver om några av de negativa exponenterna och har:
L '( p ) = (1 /p) Σ xjagpΣ xjag (1 - p)n - Σ xjag - 1 / (1 - p) (n - Σ xjag ) pΣ xjag (1 - p)n - Σ xjag
= [(1 /p) Σ xjag - 1 / (1 - p) (n - Σ xjag)]jagpΣ xjag (1 - p)n - Σ xjag
För att fortsätta processen för maximering sätter vi detta derivat lika med noll och löser för p:
0 = [(1 /p) Σ xjag - 1 / (1 - p) (n - Σ xjag)]jagpΣ xjag (1 - p)n - Σ xjag
Eftersom p och (1- p) är noll vi har det
0 = (1 /p) Σ xjag - 1 / (1 - p) (n - Σ xjag).
Multiplicera båda sidorna av ekvationen med p(1- p) ger oss:
0 = (1 - p) Σ xjag - p (n - Σ xjag).
Vi utökar höger sida och ser:
0 = Σ xjag - p Σ xjag - p n + pΣ xjag = Σ xjag - p n.
Således Σ xjag = p n och (1 / n) Σ xjag = p. Detta innebär att den största sannolikhetsberäknaren för p är ett medelvärde. Mer specifikt är detta provandelen av frön som grodde. Detta är perfekt i linje med vad intuition skulle berätta för oss. För att bestämma andelen frön som kommer att gro, bör du först ta ett prov från den intressanta befolkningen.
Det finns några ändringar av ovanstående lista med steg. Som vi har sett ovan är det till exempel värdefullt att spendera lite tid med att använda viss algebra för att förenkla uttrycket för sannolikhetsfunktionen. Anledningen till detta är att göra differentieringen enklare att genomföra.
En annan ändring av ovanstående lista med steg är att ta hänsyn till naturliga logaritmer. Maximumet för funktionen L kommer att inträffa vid samma punkt som för den naturliga logaritmen hos L. Således är maximering av ln L ekvivalent med att maximera funktionen L.
Många gånger, på grund av förekomsten av exponentiella funktioner i L, kommer att ta den naturliga logaritmen av L mycket att förenkla en del av vårt arbete.
Vi ser hur man använder den naturliga logaritmen genom att gå igenom exemplet ovan. Vi börjar med sannolikhetsfunktionen:
L ( p ) = pΣ xjag (1 - p)n - Σ xjag .
Vi använder sedan våra logaritlagar och ser att:
R ( p ) = ln L ( p ) = Σ xjag ln p + (n - Σ xjag) ln (1 - p).
Vi ser redan att derivatet är mycket lättare att beräkna:
R '( p ) = (1 /p) Σ xjag - 1 / (1 - p) (n - Σ xjag) .
Nu som tidigare sätter vi detta derivat lika med noll och multiplicerar båda sidor med p (1 - p):
0 = (1- p ) Σ xjag - p(n - Σ xjag) .
Vi löser för p och hitta samma resultat som tidigare.
Användningen av den naturliga logaritmen för L (p) är till hjälp på ett annat sätt. Det är mycket lättare att beräkna ett andra derivat av R (p) för att verifiera att vi verkligen har ett maximum vid punkten (1 / n) Σ xjag = p.
För ett annat exempel, anta att vi har ett slumpmässigt prov X1, X2,... Xn från en befolkning som vi modellerar med en exponentiell fördelning. Sannolikhetsdensitetsfunktionen för en slumpmässig variabel är av formen f( x ) = θ-1 e -x/ θ
Sannolikhetsfunktionen ges av ledens sannolikhetsdensitetsfunktion. Detta är en produkt av flera av dessa täthetsfunktioner:
L (θ) = Π θ-1 e -xjag/ θ = θ-n e -Σ xjag/ θ
Återigen är det bra att ta hänsyn till den naturliga logaritmen för sannolikhetsfunktionen. Att differentiera detta kommer att kräva mindre arbete än att differentiera sannolikhetsfunktionen:
R (θ) = ln L (θ) = ln [θ-n e -Σ xjag/ θ]
Vi använder våra lagar om logaritmer och får:
R (θ) = ln L (θ) = - n ln θ + -Σxjag/ θ
Vi differentierar med avseende på θ och har:
R '(θ) = - n / θ + Σxjag/ θ2
Ställ in detta derivat lika med noll och vi ser att:
0 = - n / θ + Σxjag/ θ2.
Multiplicera båda sidor med θ2 och resultatet är:
0 = - n θ + Σxjag.
Använd nu algebra för att lösa för θ:
θ = (1 / n) Σxjag.
Vi ser av detta att provmedlet är det som maximerar sannolikhetsfunktionen. Parametern θ som passar vår modell bör helt enkelt vara medelvärdet för alla våra observationer.
anslutningar
Det finns andra typer av uppskattningar. En alternativ uppskattningstyp kallas en opartisk uppskattare. För denna typ måste vi beräkna det förväntade värdet på vår statistik och avgöra om den matchar en motsvarande parameter.