Presentation laddar. Vänta.

Presentation laddar. Vänta.

Asymptotic evaluations Dan Hedlin

Liknande presentationer


En presentation över ämnet: "Asymptotic evaluations Dan Hedlin"— Presentationens avskrift:

1 Asymptotic evaluations Dan Hedlin
Kapitel 10 Asymptotic evaluations Dan Hedlin

2 Skäl till att asymptotiska resonemang är något att ha
I det här sammanhanget: n blir oändligt stort, dvs helt orealistiskt, men: De asymptotiska resultaten gäller approximativt ofta redan när n = 100 (uttryck: ”large sample” som adjektiv) Man kan se saker i de asymptotiska resultaten som man inte skulle se annars Praktiskt: framkomlig väg rent matematiskt

3 Ändliga populationer Man tänker sig att både N och n går mot oändligheten (samtidigt, t.ex., som n /N bevaras) Exempel: Godambe-Joshis nedre gräns för varians av en skattning av medelvärde

4 Kap 10, innehåll Punktskattningar Bootstrap Robusta skattningar Test
Intervallskattningar

5 Grundläggande syn Oändlig population
En följd av estimatorer för en följd av stickprovsstorlekar (som går mot ) ”merely by performing the same estimation procedure for each sample size n” Dock tillåtet med olika fördelning för varje estimator så länge det är samma familj

6 Konsistens En estimator är konstistent om den konvergerar i sannolikhet mot sanna värdet för alla Egentligen följd av estimatorer är konsistent Tolkning: en konsistent estimator blir bättre och bättre för ökande stickprov En linjär funktion av en estimator är konsistent om estimatorn är det (teorem )

7 VVR medför konsistens Följer av Chebychevs olikhet att: Om varians och bias går var för sig mot 0, så är estimatorn konsistent (teorem ) Så för ”vanliga” estimatorer och ”vanliga” fördelningar medför unbiasedness konsistens

8 Ändliga populationer Design-baserad inferens: det som uppfattas slumpmässigt är vilket stickprov man råkat få. X-värden uppfattas ej som slumpmässiga Design-konsistens är i praktiken likadant som konsistens enligt ovan Men tvärtom: design-konsistens medför design-unbiasedness

9 Gränsvärden för varians
Limiting variance: om då är 2 variansgränsvärdet Asymptotisk varians: om fördelningen för konvergerar mot normalfdl då är dennas varians den asymptotiska variansen Ofta lika

10 Effektivitet En estimator är effektiv (alt. asymptotiskt effektiv) om den når Cramér-Raos gräns, dvs kan inte bli bättre ML-skattningar är konsistenta och effektiva (men inte nödvändigtvis vvr) Svaga ”regularitetsvillkor” för detta: dock gäller inte detta om fördelningens support beror av parametern Jfr Enemy tank problem: ”supereffektiv” estimator

11 Relativ asymptotisk varians
Kvoten av två estimatorers asymptotiska varians ARE: asymptotic relative variance Relativ varians: kvoten av två estimatorers faktiska varians

12 Variansberäkning ”Vanlig” beräkning utifrån fördelning Taylors teorem
Appr med Cramér-Raogränsen Blandad fördelning Resamplingmetoder

13 Exempel på Taylors teorem
V(X) är bekant Vad har g(X) för varians? De två första termerna i Taylorutvecklingen utvecklad i punkten Notera specialfallet V(kX) Även fallet då tredje termen tas med (osv)

14 Repetition Cramér Raos olikhet
Den minsta variansen för en estimator W(X): Villkor: måste kunna kasta om integral och derivata. Kan inte göra detta om supporten beror av parametern (se Leibnitz regel)

15 Fisherinformationen Ett tal (eller symbol som representerar ett tal); ju större desto mer info

16 Om alla xi oberoende är informationen additiv, dvs infon för stickprovet är summan av delarna

17 Approximation med Cramér-Rao
För beräkningar av variansen är det bättre att använda den observerade informationen än den förväntade Approximativ varians för en (ML-)skattning: utvärderad i punkten Notera att om parametern bara består av värdet  är täljaren 1 och den approximativa variansen är 1/informationen

18 Appr varians för ML Fungerar bäst om estimatorn monoton i 
Eftersom Cramér-Rao-gränsen inte behöver uppnås kan den approximativa variansen bli för liten (dvs ett approximationsfel åt ”fel håll”)

19 Blandad fördelning Med sh  tas X ur en fördelning, med sh 1-  tas X ur annan fördelning Vad är V(X)?

20 Bootstrap, jackknife Flera användningsområden men här att skatta variansen Båda går ut på att dra en mängd underurval, skatta för varje underurval och sedan beräkna medelvärde e.d. av skattningarna Jackknife ”delete one”: drar n underurval där man i tur och ordning utesluter en observation.

21 Parametrisk bootstrap: 1. antag familj av fördelning 2
Parametrisk bootstrap: 1. antag familj av fördelning 2. skatta parametrar (t.ex. ML-skattningar) 3. generera B stickprov med n slumptal 4. vardera ur denna speciella fördelning 5. beräkna det som behöver beräknas; om ska skattas, räkna andelen stickprov som uppfyller villkoret Det är den frekventistiska tolkningen av en sannolikhet.

22 Icke-parametrisk bootstrap: dra n observationer ur de befintliga, observerade observationerna med återläggning. Upprepa B sådana urval. B=200 ganska vanligt. För varje underurval får man en punktskattning Medelvärde av dem Stickprovsvarians för dvs

23 Approximativ fördelning
Deltametoden: om då

24 Robusta estimatorer Robust mot vadå? (något) fel antagande om fdl
Avvikande värden (outliers) Klassiskt exempel på robusthet mot avvikande värden: medelvärde och median Breakdown point: hur stor andel av stickprovet kan man ersätta med  innan skattningen blir 

25 M-estimatorn Vanligaste generella robusta estimatorn
Estimating equation definierar estimator implicit Det värde som satisfierar är M-skattningen Generalisering av ML-skattning: (ger maximum)

26 ML och M lika omm Annars har M alltid strikt större varians än ML Variansförlusten kan ses som en försäkringspremium att betala Finns många vettiga val av För kriterier, se Hoaglin, Mosteller och Tukey; Understanding, robust and exploratory data analysis, s. 365 Biweight är ett val Identitetsfunktionen ger medelvärde

27 Hypotestest Hur får man ut ett p-värde ur ett likelihood-kvottest?
Man har en teststatistika och en fördelning för denna Vad har LR-statistikan för fördelning? Med enkel nollhypotes så går i fördelning (vanliga regularitetsvillkor) Kallas G2-statistika

28 Med en nollhypotes som inte är enkel blir frihetsgraderna i chi-2-fördelningen skillnaden mellan antalet fria parametrar och antalet fria parametrar under noll-hypotesen H0 förkastas omm där  är nivån (size) och  är antalet frihetsgrader

29 Normalfdl För många andra test, approximera teststatistikans fdl med normalfdl Om så ( i sannolikhet + Slutkys teorem) Om Wn är en ML-skattning, roten 1/informationen istället för Sn

30 Waldtest Teststatistika där 0 är parametervärdet (eller ett parametervärde) under nollhyptesen Förkasta om (om tvåsidigt test) Kontinuitetskorrektion förbättrar (s )

31 Scoretest Teststatistika där under enkel nollhypotes
Beviset av Cramér-Raos olikhet ger att Teorem ger Förkasta om

32 Teorem : Krav: regularitetsvillkor för ML-skattningar samt att är en kontinuerlig funktion

33 Ytterligare test Teststatistika av samma form som
Wn kan vara en M-estimator Sn kan vara en bootstrap-skattning

34 Intervallskattningar
Använd test och invertering av dessa Använd pivotal kvantitet


Ladda ner ppt "Asymptotic evaluations Dan Hedlin"

Liknande presentationer


Google-annonser