Egenskaper för punktskattning Vi vill skatta en okänd parameter, , i en modell, Exp(m), Po(m), etc. Tag ett stickprov x1, x2, …,xn Bilda en lämplig funktion av stickprovet kommer nu att vara en stokastisk variabel Önskvärda egenskaper för
Maximum likelihoodmetoden Låt x1, x2, …, xn vara ett stickprov på X1, X2, …, Xn där Def: kallas likelihoodfunktionen Def: Det Som maximerar L() kallas för ML skattningen av . maximera L() maximera ln L()
Hypotesprövning Skulle man kunna testa om Ahlgrens bilar skiljer sig åt på smak (färg)? Låt en person först prova ett antal bilar där personen får se färg, en inlärningsfas, sedan får personen ”gissa” vilken färg bilen har utan att se färgen. Om personen bara gissar borde personen få ungefär 1/3 rätta gissningar. Å andra sidan, om personen verkligen kan skilja på smak (färg), borde antalet rätta ”gissningar” vara fler än 1/3. Frågan är då, hur många fler rätta än 1/3 ska personen behöva för att man ska tro att personen inte bara gissar? Vi har ett litet dilemma här. Om personen bara gissar kommer gissningarna att vara, om vi betecknar antalet rätta med X, och antalet gissningar med n
Antag nu att vi låter en person, efter att personen har tränat, prova 15 bilar av olika färg. Om p=1/3, då ser sannolikhetsfunktionen för bin(15,1/3) ut som
Det vi ser är att det finns en positiv sannolikhet för alla utfall, 0:15, oavsett om personen gissar eller inte. k [0,] 0.00228366 1.00000000 [1,] 0.01712744 0.99771634 [2,] 0.05994603 0.98058890 [3,] 0.12988306 0.92064288 [4,] 0.19482460 0.79075981 [5,] 0.21430705 0.59593522 [6,] 0.17858921 0.38162816 [7,] 0.11480735 0.20303895 [8,] 0.05740368 0.08823160 [9,] 0.02232365 0.03082792 [10,] 0.00669710 0.00850427 [11,] 0.00152207 0.00180718 [12,] 0.00025368 0.00028511 [13,] 0.00002927 0.00003143 [14,] 0.00000209 0.00000216 [15,] 0.00000007 0.00000007
Här måste vi därför ta en risk och bestämma att för något utfall är sannolikheten att få detta om man bara skulle chansa så liten att vi bestämmer oss för att tro på personens förmåga istället. Det här brukar man beteckna med signifikansnivå, α. Vanliga nivåer på α brukar vara 0.05, 0.01, 0.001. I vårt fall skulle vi få, om α=0.05, k=9, dvs om personen tar rätt färg 9 gånger eller mer bestämmer vi oss för att personen är bättre än slumpen. Om vi valt α=0.01 skulle k=10 och personen skulle vara tvungen att ta rätt färg 10 gånger eller mer för att vi skulle tro att personen har förmågan.
När man formaliserar det här pratar man om nollhypotes H0 och mothypotes Ha. Vårt exempel skulle ge oss H0: p=1/3 Ha: p>1/3 med signifikansnivån α = P(förkasta H0 då H0 är sann) Ett annat vanligt begrepp man utnyttjar är p-värde. Def: P-värdet= P(att få det vi fått eller nåt ännu extremare under H0) Ex forts. Antag att vi observerat k = 8 rätta svar av 15. Då skulle p-värdet bli
Att jämföra med signifikansnivån som man bestämt sig för. Om man valt α=0.05 skulle man acceptera H0 eftersom p-värdet = 0.09 > α = 0.05 Vi gjorde n=374 försök och fick 133 rätta. Sätt upp hypoteser H0: p=1/3 Ha: p>1/3 Bestäm en signifikansnivå, α = 0.05 tex. Bestäm p-värdet för det resultat vi har: Jämför med signifikansnivån, och slutsatsen blir att vi accepterar H0
Alternativt, eftersom npq > 10 kan vi approximera med normalfördelningen. Då är vårt resultat Bestäm igen p-värdet = halvkorrektion och vi drar samma slutsats.
5%
Nästa steg är att tänka sig tvåsidiga mothypoteser Nästa steg är att tänka sig tvåsidiga mothypoteser. Antag att vi kastar ett mynt och vill avgöra om det är just, dvs om vi får lika många krona som klave. Det enda intressanta för oss är om myntet är korrekt. H0: p=1/2 Ha: p≠1/2 Antalet krona eller klave, X är nu bin(n, 1/2) under H0. Förkasta H0 för stora eller små värden på X Om vi normalapproximerar och standardiserar vår variabel är våra jämförelse- värden, med signifikansnivå α=0.05, -1.96 och 1.96. Förkasta H0 för värden som är större än 1.96 eller mindre än -1.96.
2.5% 2.5%