Presentation laddar. Vänta.

Presentation laddar. Vänta.

Ekonometri, 3 sv 2005 © Rune Höglund Enkel regression K 2:1 2. Enkel regressionsanalys Regressionsanalysens grunder.

Liknande presentationer


En presentation över ämnet: "Ekonometri, 3 sv 2005 © Rune Höglund Enkel regression K 2:1 2. Enkel regressionsanalys Regressionsanalysens grunder."— Presentationens avskrift:

1 Ekonometri, 3 sv 2005 © Rune Höglund Enkel regression K 2:1 2. Enkel regressionsanalys Regressionsanalysens grunder

2 Ekonometri, 3 sv 2005 © Rune Höglund Enkel regression K 2:2 Vad är regressionsanalys? Regressionsanalys behandlar studiet av en variabels beroende, den beroende variabeln, av en eller flera andra variabler, de förklarande variablerna, i syfte att skatta och/eller förutsäga populationsmedelvärdet eller medelvärdet för den beroende variabeln givet vissa värden på de förklarande variablerna (eller att mäta den marginella effekten på den beroende variabeln av förändringar i de förklarande variablerna).

3 Ekonometri, 3 sv 2005 © Rune Höglund Enkel regression K 2:3 Vad är regressionsanalys? Exempel: Skatta privata konsumtionens beroende av reell disponibel inkomst. Skatta hur efterfrågan påverkas av prisförändringar (elasticitet). Skatta sambandet mellan reklam och försäljning.

4 Ekonometri, 3 sv 2005 © Rune Höglund Enkel regression K 2:4 Begrepp, termer och datatyper Deterministiska – statistiska samband Statistiska – kausala samband Terminologi: Beroende variabel, Y i (eller Y t ) Förklarande variabel, X i (eller X t ) Datatyper: Tidsseriedata Tvärsnittsdata Poolat data

5 Ekonometri, 3 sv 2005 © Rune Höglund Enkel regression K 2:5 Populationens regressionskurva och funktion Populationens regressionskurva beskriver sambandet mellan de förklarande variablerna och det förväntade värdet för den beroende variabeln, E(Y | X = X i ) Om sambandet är linjärt kan vi skriva populationens regressionsfunktion, E(Y | X = X i ) =  0 +  1 X i Detta är ekvationen för en rät linje

6 Ekonometri, 3 sv 2005 © Rune Höglund Enkel regression K 2:6 Populationens regressionskurva och funktion

7 Ekonometri, 3 sv 2005 © Rune Höglund Enkel regression K 2:7 Linjär i variablerna/parametrarna Linjär i variablerna: X men ej: X 2, X ½, X·Z Linjär i parametrarna:  1 men ej: Med linjär regression avses en modell som är linjär i parametrarna.

8 Ekonometri, 3 sv 2005 © Rune Höglund Enkel regression K 2:8 Den linjära regressionsmodellen Stokastisk specifikation av populationens regressionsfunktion Det faktiska värdet på Y avviker i regel från det förväntade. Detta kan uttryckas med hjälp av en stokastisk felterm: e i = Y i – E(Y | X i ) eller Y i = E(Y | X i ) + e i Den linjära regressionsmodellen kan då skrivas som: Y i =  0 +  1 X i + e i där E(e i | X i ) = 0

9 Ekonometri, 3 sv 2005 © Rune Höglund Enkel regression K 2:9 Stokastisk felterm Varför behövs den stokastiska feltermen, e i ? Vag teori Otillgängliga data Centrala kontra perifera variabler Inre slumpmässighet i det mänskliga beteendet Dåliga proxyvariabler Sparsamhetsprincipen Fel funktionell form

10 Ekonometri, 3 sv 2005 © Rune Höglund Enkel regression K 2:10 Stickprovets regressionsfunktion Stickprovets regressionsfunktion: Den skattade modellen (utifrån ett stickprov) kan skrivas som, eller där är en residualterm (residual), dvs en skattning av e i.

11 Ekonometri, 3 sv 2005 © Rune Höglund Enkel regression K 2:11 Skattningsproblemet Vi önskar skatta en regressionslinje som på ”bästa” sätt beskriver vårt datamaterial. Tänkbara kriterier för ”bästa” sätt: Minsta kvadratmetoden innebär att vi minimerar som är en funktion av estimatorerna och.

12 Ekonometri, 3 sv 2005 © Rune Höglund Enkel regression K 2:12 Regressionslinjens egenskaper Regressionslinjens egenskaper: Linjen går genom punkten. Medelvärdet av alla skattade Y-värden = medelvärdet för alla observerade Y. Medelvärdet för (och summan av) alla residualer är noll. Residualerna är okorrelerade med de skattade Y- värdena. Residualerna är okorrelerade med X i.

13 Ekonometri, 3 sv 2005 © Rune Höglund Enkel regression K 2:13 Antaganden bakom minsta-kvadratmetoden Antaganden bakom minsta-kvadratmetoden: ia) Linjär regressionsmodell ib) Regressionsmodellen är korrekt specificerad, dvs ingen specifikationsbias eller fel i modellen Förändring i lönenivå, % Y i =  1 +  2 (1/X i ) Y i =  1 +  2 X i Arbetslöshet, %

14 Ekonometri, 3 sv 2005 © Rune Höglund Enkel regression K 2:14 Antaganden bakom minsta-kvadratmetoden iia) X-värdena är fixa vid upprepade stickprov iib) variation i X-värdena iiia) Medelvärdet är noll för e i, E(e i ) = 0,

15 Ekonometri, 3 sv 2005 © Rune Höglund Enkel regression K 2:15 iiib) Homoskedasticitet, lika varians för alla e i V(e i ) =  2,

16 Ekonometri, 3 sv 2005 © Rune Höglund Enkel regression K 2:16 Antaganden bakom minsta-kvadratmetoden iiic) Ingen (auto)korrelation mellan e i :na

17 Ekonometri, 3 sv 2005 © Rune Höglund Enkel regression K 2:17 Antaganden bakom minsta-kvadratmetoden iiid) Ofta antar vi att feltermen är normal- fördelad, e i ~ N(0,  2 ) Anm. ii) & iiia) | E(X i e i ) = X i E(e i ) = 0, dvs ingen kovarians mellan e i och X i Den konstanta variansen  2 i iiib) är en okänd parameter | tre okända parametrar i modellen Antagandena i iii) kan uttryckas i Y i stället för e Ant. ia)-iiic) definerar den klassiska regres- sionsmodellen. iiid) viktig för inferensen

18 Ekonometri, 3 sv 2005 © Rune Höglund Enkel regression K 2:18 Standardfel och BLUE Gauss-Markovs sats: Då ia) – iiic) gäller är minsta kvadrat (OLS) skattningarna de bästa (effektivaste) linjära väntervärdesriktiga skattningarna (BLUE) för  0 resp.  1 OLS-skattningarna är linjära eftersom de är linjära funktioner av en stokastisk variabel (Y)

19 Ekonometri, 3 sv 2005 © Rune Höglund Enkel regression K 2:19 Medelfel och BLUE Standardavvikelse och kovarians för minsta- kvadratskattningarna

20 Ekonometri, 3 sv 2005 © Rune Höglund Enkel regression K 2:20 Standardfel och BLUE enligt iiid) har vi Y i ~ N(  0 +  1 X i,  2 ) och enligt iiic) är Y i och Y j oberoende | och OBS! Detta gäller asymptotiskt även om Y i inte normalfördelad Standardavvikelsen  skattas med

21 Ekonometri, 3 sv 2005 © Rune Höglund Enkel regression K 2:21 Standardfel och BLUE s brukar även kallas regressionens medelfel Substituerar vi s för  i uttrycken ovan för vi skattade standardavvikelser för skattningarna vilka kallas medelfelen för skattningarna. På samma sätt får en skattning för kovariansen mellan Korrelationskoefficienten skattas med

22 Ekonometri, 3 sv 2005 © Rune Höglund Enkel regression K 2:22 Konfidensintervall Konfidensintervall för regressions- koefficienterna och feltermens varians då skattningarna är normalfördelade standardiserar vi och får standardavvikelsen (sd) för skattningen innehåller  vilken är okänd och ersätts med skattningen s så  att vi får medelfelet för parameterskattningen (s.e)

23 Ekonometri, 3 sv 2005 © Rune Höglund Enkel regression K 2:23 Konfidensintervall då gäller att Ett 100 · (1–  ) procents konfidensintervall för  i ges av, För variansen gäller

24 Ekonometri, 3 sv 2005 © Rune Höglund Enkel regression K 2:24 Konfidensintervall vilket alltså ger konfidensintervallet för  2 med konfidensgraden 1 - 

25 Ekonometri, 3 sv 2005 © Rune Höglund Enkel regression K 2:25 Test Då vi testar på signifikansnivån  har vi att H 0 förkastas om för ett tvåsidigt test och för ett ensidigt om testvariabeln är

26 Ekonometri, 3 sv 2005 © Rune Höglund Enkel regression K 2:26 OBS! Ofta testas H 0 :  i = , H 1 :  i  t-kvoten i datorutskrifter

27 Ekonometri, 3 sv 2005 © Rune Höglund Enkel regression K 2:27 R 2, variansanalys och korrelation Anpassningsgraden residualerna anger hur bra regressionslinjen anpassas till observationerna| liten spridning | ’små’ residualer | ’bra’ anpassning, eller en stor del av variationen i Y förklaras med regressions-linjen stor spridning | ’stora’ residualer | ’dålig’ anpassning, eller endast en liten del av variationen i Y förklaras med regressionslinjen och en stor del blir oförklarad residualernas värde (storlek) beror på mätenhet residualvariansen är

28 Ekonometri, 3 sv 2005 © Rune Höglund Enkel regression K 2:28 R 2, variansanalys och korrelation residualkvadratsumman 3 (Y i – Y i ) 2 utnyttjas för att mäta variationen i residualerna variationen i Y mäts med kvadratsumman 3 (Y i – Y ) 2 korsproduktsumman är 0, så vi får eller

29 Ekonometri, 3 sv 2005 © Rune Höglund Enkel regression K 2:29 R 2, variansanalys och korrelation totala = residual (fel)+ förklarade (regr.) kvadratsumman kvadratsumman kvadratsumman TSS = ESS+ RSS Vi dividerar med TSS | 1 = ESS/TSS + RSS/TSS Determinationskoefficienten, R 2, definieras som R 2 = den del av variationen i Y som förklaras av Y:s regression på X.

30 Ekonometri, 3 sv 2005 © Rune Höglund Enkel regression K 2:30 R 2, variansanalys och korrelation 0  R 2  1. R 2  då Y i = Y, dvs  1 = 0 R 2  då Y i = Y i, dvs observetionerna ligger på den räta linjen Då vi, som här, har endast en oberoende variabel X har vi då att

31 Ekonometri, 3 sv 2005 © Rune Höglund Enkel regression K 2:31 R 2, variansanalys och korrelation Uppdelningen av kvadratsumman (och variansen) ovan kan sammanfattas i en variansanalystabell

32 Ekonometri, 3 sv 2005 © Rune Höglund Enkel regression K 2:32 R 2, variansanalys och korrelation Testar H 0 :   = 0; H 1 :  1 0 H 0 förkastas om F > F 1-  (1,n-2) F- och t-testen för  1 är ekvivalenta

33 Ekonometri, 3 sv 2005 © Rune Höglund Enkel regression K 2:33 Konfidensintervall E(Y|X i ), Y i Y i  N(  0 +  1 X i,  2 ). Prediktion av medelvärdet E(Y | X = X i ) E(Y | X = X i ) skattas med Prediktion av ett individuellt Y-värde Y för ett givet X predikteras på samma sätt som ovan Konfidensintervallen beräknas därefter på vanligt sätt.

34 Ekonometri, 3 sv 2005 © Rune Höglund Enkel regression K 2:34 Konfidensintervall

35 Ekonometri, 3 sv 2005 © Rune Höglund Enkel regression K 2:35 Rapportering av resultat Utvärdering av regressionsanalysens resultat Är tecken på de skattade koefficienterna rimliga? Är koefficienterna statistiskt signifikant  0? Är andelen förklarad variation tillfredsställande? Är feltermen normalfördelad?

36 Ekonometri, 3 sv 2005 © Rune Höglund Enkel regression K 2:36 Normalfördelningstest Jarque-Beras (JB) normalfördelningstest Teststatistika: där S är snedheten och K är toppigheten för residualerna (toppigheten är 3 för en normal- fördelad variabel) JB är asymptotiskt  2 -fördelad med 2 frihetsgr. Förkasta nollhypotesen om JB > kritiskt värde.

37 Ekonometri, 3 sv 2005 © Rune Höglund Enkel regression K 2:37 Funktionell form ModellLinjärLog-linjär Ekvation Lutning Elasticitet Log-lin, Lin-log, Reciprok

38 Ekonometri, 3 sv 2005 © Rune Höglund Enkel regression K 2:38 Tolkning av SPSS-utskrift

39 Ekonometri, 3 sv 2005 © Rune Höglund Enkel regression K 2:39 Tolkning av SPSS-utskrift

40 Ekonometri, 3 sv 2005 © Rune Höglund Enkel regression K 2:40 Tolkning av SPSS-utskrift

41 Ekonometri, 3 sv 2005 © Rune Höglund Enkel regression K 2:41 Maximum-likelihoodskattningar Maximum likelihoodskattningen för en parameter  definieras som det värde , vilket med största sannolikhet skulle generera de observerade stickprovsobservationerna Y 1, Y 2,..., Y n. Är stickprovet slumpmässigt kan observationerna betraktas som observationer på oberoende och identiskt fördelade s.v. Y i, med snlsfördelningen p(Y i ). Maximum-likelihoodskattningen maximerar

42 Ekonometri, 3 sv 2005 © Rune Höglund Enkel regression K 2:42 Maximum-likelihoodskattningar För vår regr.modell har vi Y i ~N(  0 +  1 X i,  2 ) Täthetsfunktionen för Y i är Likelihoodfunktionen

43 Ekonometri, 3 sv 2005 © Rune Höglund Enkel regression K 2:43 Maximum-likelihoodskattningar Vi maximerar L( ), m.a.p.  0,  1,  2. Blir enklare om vi logaritmerar L( )

44 Ekonometri, 3 sv 2005 © Rune Höglund Enkel regression K 2:44 Maximum-likelihoodskattningar Vi deriverar log-likelihoodfunktionen partiellt m.a.p. parametrarna och sätter derivatorna = 0 |


Ladda ner ppt "Ekonometri, 3 sv 2005 © Rune Höglund Enkel regression K 2:1 2. Enkel regressionsanalys Regressionsanalysens grunder."

Liknande presentationer


Google-annonser