Presentation laddar. Vänta.

Presentation laddar. Vänta.

1 Kapitel 10 Asymptotic evaluations Dan Hedlin. 2 Skäl till att asymptotiska resonemang är något att ha I det här sammanhanget: n blir oändligt stort,

Liknande presentationer


En presentation över ämnet: "1 Kapitel 10 Asymptotic evaluations Dan Hedlin. 2 Skäl till att asymptotiska resonemang är något att ha I det här sammanhanget: n blir oändligt stort,"— Presentationens avskrift:

1 1 Kapitel 10 Asymptotic evaluations Dan Hedlin

2 2 Skäl till att asymptotiska resonemang är något att ha I det här sammanhanget: n blir oändligt stort, dvs helt orealistiskt, men: 1.De asymptotiska resultaten gäller approximativt ofta redan när n = 100 (uttryck: ”large sample” som adjektiv) 2.Man kan se saker i de asymptotiska resultaten som man inte skulle se annars 3.Praktiskt: framkomlig väg rent matematiskt

3 3 Ändliga populationer Man tänker sig att både N och n går mot oändligheten (samtidigt, t.ex., som n /N bevaras) Exempel: Godambe-Joshis nedre gräns för varians av en skattning av medelvärde

4 4 Kap 10, innehåll 1.Punktskattningar 2.Bootstrap 3.Robusta skattningar 4.Test 5.Intervallskattningar

5 5 Grundläggande syn Oändlig population En följd av estimatorer för en följd av stickprovsstorlekar (som går mot  ) ”merely by performing the same estimation procedure for each sample size n” Dock tillåtet med olika fördelning för varje estimator så länge det är samma familj

6 6 Konsistens En estimator är konstistent om den konvergerar i sannolikhet mot sanna värdet för alla Egentligen följd av estimatorer är konsistent Tolkning: en konsistent estimator blir bättre och bättre för ökande stickprov En linjär funktion av en estimator är konsistent om estimatorn är det (teorem )

7 7 VVR medför konsistens Följer av Chebychevs olikhet att: Om varians och bias går var för sig mot 0, så är estimatorn konsistent (teorem ) Så för ”vanliga” estimatorer och ”vanliga” fördelningar medför unbiasedness konsistens

8 8 Ändliga populationer Design-baserad inferens: det som uppfattas slumpmässigt är vilket stickprov man råkat få. X-värden uppfattas ej som slumpmässiga Design-konsistens är i praktiken likadant som konsistens enligt ovan Men tvärtom: design-konsistens medför design-unbiasedness

9 9 Gränsvärden för varians Limiting variance: om då är  2 variansgränsvärdet Asymptotisk varians: om fördelningen för konvergerar mot normalfdl då är dennas varians den asymptotiska variansen Ofta lika

10 10 Effektivitet En estimator är effektiv (alt. asymptotiskt effektiv) om den når Cramér-Raos gräns, dvs kan inte bli bättre ML-skattningar är konsistenta och effektiva (men inte nödvändigtvis vvr) Svaga ”regularitetsvillkor” för detta: dock gäller inte detta om fördelningens support beror av parametern Jfr Enemy tank problem: ”supereffektiv” estimator

11 11 Relativ asymptotisk varians Kvoten av två estimatorers asymptotiska varians ARE: asymptotic relative variance Relativ varians: kvoten av två estimatorers faktiska varians

12 12 Variansberäkning 1.”Vanlig” beräkning utifrån fördelning 2.Taylors teorem 3.Appr med Cramér-Raogränsen 4.Blandad fördelning 5.Resamplingmetoder

13 13 Exempel på Taylors teorem V(X) är bekant Vad har g(X) för varians? De två första termerna i Taylorutvecklingen utvecklad i punkten Notera specialfallet V(kX) Även fallet då tredje termen tas med (osv)

14 14 Repetition Cramér Raos olikhet Den minsta variansen för en estimator W(X): Villkor: måste kunna kasta om integral och derivata. Kan inte göra detta om supporten beror av parametern (se Leibnitz regel)

15 15 Fisherinformationen Ett tal (eller symbol som representerar ett tal); ju större desto mer info

16 16 Om alla x i oberoende är informationen additiv, dvs infon för stickprovet är summan av delarna

17 17 Approximation med Cramér-Rao För beräkningar av variansen är det bättre att använda den observerade informationen än den förväntade Approximativ varians för en (ML-)skattning: utvärderad i punkten Notera att om parametern bara består av värdet  är täljaren 1 och den approximativa variansen är 1/informationen

18 18 Appr varians för ML Fungerar bäst om estimatorn monoton i  Eftersom Cramér-Rao-gränsen inte behöver uppnås kan den approximativa variansen bli för liten (dvs ett approximationsfel åt ”fel håll”)

19 19 Blandad fördelning Med sh  tas X ur en fördelning, med sh 1-  tas X ur annan fördelning Vad är V(X)?

20 20 Bootstrap, jackknife Flera användningsområden men här att skatta variansen Båda går ut på att dra en mängd underurval, skatta för varje underurval och sedan beräkna medelvärde e.d. av skattningarna Jackknife ”delete one”: drar n underurval där man i tur och ordning utesluter en observation.

21 21 Parametrisk bootstrap: 1. antag familj av fördelning 2. skatta parametrar (t.ex. ML-skattningar) 3. generera B stickprov med n slumptal 4. vardera ur denna speciella fördelning 5. beräkna det som behöver beräknas; om ska skattas, räkna andelen stickprov som uppfyller villkoret. Det är den frekventistiska tolkningen av en sannolikhet.

22 22 Icke-parametrisk bootstrap: dra n observationer ur de befintliga, observerade observationerna med återläggning. Upprepa B sådana urval. B=200 ganska vanligt. För varje underurval får man en punktskattning Medelvärde av dem Stickprovsvarians för dvs

23 23 Approximativ fördelning Deltametoden: om då

24 24 Robusta estimatorer Robust mot vadå? 1.(något) fel antagande om fdl 2.Avvikande värden (outliers) Klassiskt exempel på robusthet mot avvikande värden: medelvärde och median Breakdown point: hur stor andel av stickprovet kan man ersätta med  innan skattningen blir 

25 25 M-estimatorn Vanligaste generella robusta estimatorn Estimating equation definierar estimator implicit Det värde som satisfierar är M-skattningen Generalisering av ML-skattning: (ger maximum)

26 26 ML och M lika omm Annars har M alltid strikt större varians än ML Variansförlusten kan ses som en försäkringspremium att betala Finns många vettiga val av  För kriterier, se Hoaglin, Mosteller och Tukey; Understanding, robust and exploratory data analysis, s. 365 Biweight är ett val Identitetsfunktionen ger medelvärde

27 27 Hypotestest Hur får man ut ett p-värde ur ett likelihood- kvottest? Man har en teststatistika och en fördelning för denna Vad har LR-statistikan för fördelning? Med enkel nollhypotes så går i fördelning (vanliga regularitetsvillkor) Kallas G 2 -statistika

28 28 Med en nollhypotes som inte är enkel blir frihetsgraderna i chi-2-fördelningen skillnaden mellan antalet fria parametrar och antalet fria parametrar under noll- hypotesen H 0 förkastas omm där  är nivån (size) och är antalet frihetsgrader

29 29 Normalfdl För många andra test, approximera teststatistikans fdl med normalfdl Om så ( i sannolikhet + Slutkys teorem) Om W n är en ML-skattning, roten 1/informationen istället för S n

30 30 Waldtest Teststatistika där  0 är parametervärdet (eller ett parametervärde) under nollhyptesen Förkasta om (om tvåsidigt test) Kontinuitetskorrektion förbättrar (s )

31 31 Scoretest Teststatistika där under enkel nollhypotes Beviset av Cramér-Raos olikhet ger att Teorem ger Förkasta om

32 32 Teorem : Krav: regularitetsvillkor för ML-skattningar samt att är en kontinuerlig funktion

33 33 Ytterligare test Teststatistika av samma form som W n kan vara en M-estimator S n kan vara en bootstrap-skattning

34 34 Intervallskattningar Använd test och invertering av dessa Använd pivotal kvantitet


Ladda ner ppt "1 Kapitel 10 Asymptotic evaluations Dan Hedlin. 2 Skäl till att asymptotiska resonemang är något att ha I det här sammanhanget: n blir oändligt stort,"

Liknande presentationer


Google-annonser