Presentation laddar. Vänta.

Presentation laddar. Vänta.

Ekonometri, 3 sv 2005 © Rune Höglund Multipel regression K 3:1 3. Multipel regression.

Liknande presentationer


En presentation över ämnet: "Ekonometri, 3 sv 2005 © Rune Höglund Multipel regression K 3:1 3. Multipel regression."— Presentationens avskrift:

1 Ekonometri, 3 sv 2005 © Rune Höglund Multipel regression K 3:1 3. Multipel regression

2 Ekonometri, 3 sv 2005 © Rune Höglund Multipel regression K 3:2 Regressionsmodellen Två eller flera (k) oberoende variabler Den multipla regressionsmodellen skrivs som: Y i =  0 +  1 X 1i +  2 X 2i + …+  k X ki + e i För att vi ska kunna skatta modellen krävs att n > k+1.

3 Ekonometri, 3 sv 2005 © Rune Höglund Multipel regression K 3:3 Regressionsmodellen Samma antaganden som för den enkla regressionslinjen plus: iic) Inga exakta linjära samband mellan de förklarande variablerna (perfekt multikolli- nearitet) I den multipla regressionsmodellen ’mäter’  i hur mycket Y förändras då X i ökar med en enhet och de övriga X j variablerna hålls konstanta

4 Ekonometri, 3 sv 2005 © Rune Höglund Multipel regression K 3:4 Tolkning av koefficienter SR = konsumtion av bilar i miljarder dollar YPR = privata inkomster i miljarder dollar RR = 3-månader SSVX, % per år  YPR Om de privata inkomsterna ökar med 1 miljard dollar ökar komsumtionen av bilar med i genomsnitt 0,007 miljarder dollar givet att räntan hålls konstant.  RR Om räntan ökar med 1 procentenhet minskar komsumtionen av bilar med i genomsnitt 1,366 miljarder dollar givet att de privata inkomsterna hålls konstanta.

5 Ekonometri, 3 sv 2005 © Rune Höglund Multipel regression K 3:5 Matrisform Har en regr.mod. med k ober. variabler, n observ. Y 1 =  0 +  1 X 11 +  2 X 21 + …+  k X k1 + e 1 Y 2 =  0 +  1 X 12 +  2 X 22 + …+  k X k2 + e 2 Y n =  0 +  1 X 1n +  2 X 2n + …+  k X kn + e n eller i matrisform Y = X  + e där

6 Ekonometri, 3 sv 2005 © Rune Höglund Multipel regression K 3:6 Matrisform Minimerar ESS =  e i 2 = e´e, m.a.p. 

7 Ekonometri, 3 sv 2005 © Rune Höglund Multipel regression K 3:7 Matrisform Deriverar ESS m.a.p.  | För minsta kvadratresidualerna e gäller att E(e´e ) = (n-(k+1))  2, och en v.v.r. skattning för  2 är 22

8 Ekonometri, 3 sv 2005 © Rune Höglund Multipel regression K 3:8 BLUE och standardfel Givet att antagandena ia)-iiic) är uppfyllda är OLS- estimatorerna av  BLUE (bästa linjära väntevärdesriktiga estimator). Är dessutom feltermen normalfördelad är OLS-estimatorerna = ML-estimatorerna.

9 Ekonometri, 3 sv 2005 © Rune Höglund Multipel regression K 3:9 BLUE och standardfel Varians-kovariansmatrisen för skattningarna = V Diagonalelementen i matrisen V är variansen för parameterskatningarna och icke-diagonalelementen är kovarianserna mellan parameterskattningarna

10 Ekonometri, 3 sv 2005 © Rune Höglund Multipel regression K 3:10 Medelfel, hypoteser och intervall Kovariansmatrisen skattas genom att substituera in skattningen s 2 i st.f.  2. Låt v ii vara diagonalele- menten i V, då är (v ii ) ½ medelfelen för parameterskattningarna  j = Gäller att

11 Ekonometri, 3 sv 2005 © Rune Höglund Multipel regression K 3:11 Medelfel, hypoteser och intervall | testa hypoteser och bilda konfidensintervall för  j

12 Ekonometri, 3 sv 2005 © Rune Höglund Multipel regression K 3:12 R 2, justerat R 2 och F-test Liksom tidigare har vi TSS = ESS + RSS, eller = determinationskoefficienten 0  R 2  1, ett mått på anpassningsgraden Kan användas (med eftertanke) för att jämföra alternativa specifikationer för en viss variabel

13 Ekonometri, 3 sv 2005 © Rune Höglund Multipel regression K 3:13 R 2, justerat R 2 och F-test Användningen problematisk för antar ju att modellen är korrekt specifiserad känsligt för antalet förklarande variabler, R 2 kan aldrig minska när vi lägger till en förklarande variabel R 2 svårtolkat då interceptet fixeras till 0 I stället för R 2 kan vi beräkna justerat (korrigerat) R 2, som vi får genom att i stället för ESS och TSS använda de v.v.r. variansskattningarna för residualen resp. Y- variablen,

14 Ekonometri, 3 sv 2005 © Rune Höglund Multipel regression K 3:14 R 2, justerat R 2 och F-test Observera att justerade R 2 kan vara negativt Då nya variabler sätts till ekvationen ökar alltid R 2 medan justerade R 2 kan öka eller minska För att testa signifikansen för R 2 eller hela regressi- onens signifikans, dvs testa

15 Ekonometri, 3 sv 2005 © Rune Höglund Multipel regression K 3:15 R 2, justerat R 2 och F-test H 0 : alla  = 0 (utom interceptet), H 1 : åtminstone något   0 kan vi göra ett F-test Testvariabeln är som är F-fördelad men k, respektive n-(k+1) frihetsgrader. Obs! F-testet kan förkasta H 0 fastän t-testen, för de individuella  j :na inte förkastar H 0.

16 Ekonometri, 3 sv 2005 © Rune Höglund Multipel regression K 3:16 Standardiserade koefficienter Standardiserade koefficienter anger den relativa betydelsen av en oberoende variabel i en multipel regressionsmodell, typ där Observera att interceptet försvinner!

17 Ekonometri, 3 sv 2005 © Rune Höglund Multipel regression K 3:17 Standardiserade koefficienter Standardiserade koefficienter kan användas för att rangordna variablerna efter betydelse, sortera efter absolutbeloppet av  *. Tolkning: Om X ökar en standardavvikelse förän- dras Y med i genomsnitt  * standardavvikelser givet att övriga förklarande variabler i modellen hålls konstanta.  * är oberoende av enhet!

18 Ekonometri, 3 sv 2005 © Rune Höglund Multipel regression K 3:18 Elasticiteter Elasticiteten mäter effekten av en 1% ökning i den ober. var. (X) på den ber. var (Y). Elasticiteten för Y m.a.p. X 1 är den procentuella förändringen i Y dividerat med den procentuella förändringen i X 1 Elasticiteten är vanligen inte konstant utan beror på vilken nivå vi befinner oss på. Ofta beräknas Ei:na vid medelvärdet på variablerna

19 Ekonometri, 3 sv 2005 © Rune Höglund Multipel regression K 3:19 Partiell korrelation Modell: Y i =  0 +  1 X 1i +  2 X 2i +  3 X 3i + e i Enkel korrelation: r YX 1 Partiell korrelation: r YX 1X 2 X 3 Direkta och indirekta samband: Försäljning Pris Annonsvolym Direkt sambandIndirekt samband — + +/— +/— ?

20 Ekonometri, 3 sv 2005 © Rune Höglund Multipel regression K 3:20 Partiell korrelation Sambandet till R 2. med en förklarande variabel är r 2 XY = R 2 r 2 YX 1X 2 kan betraktas som den andel av variationen i Y som inte förklaras av X 2, men som förklaras av den del av X 1 som är okorrelerad med X 2 Partiell korrelation används kanske främst vid stegvis regressionsanalys. Adderar variabler till regressionsekvationen för att maximera justerade R 2

21 Ekonometri, 3 sv 2005 © Rune Höglund Multipel regression K 3:21 Dummyvariabler Kvalitativa egenskaper och variabler För att förklara ekonomiska fenomen och samband kan vi också behöva introducera kvalitativa variabler (t ex kön, hudfärg, religion, utbildningsnivå, strejkläge, jordbävning, revolution, ny regering osv). Ofta två alternativ; förekommer respektive förekommer ej, Andra kan anta två olika värden; man respektive kvinna, eller flera olika värden; hudfärg, utbildningsnivå.

22 Ekonometri, 3 sv 2005 © Rune Höglund Multipel regression K 3:22 Dummyvariabler Frågan är nu hur vi ska kunna inkludera kvalitativa variabler i en traditionell regressionsmodell? Detta görs genom att skapa ”artificiella” variabler som kan anta värdena 0 och 1. Vi låter 1 betyda förekomst av egenskapen och 0 avsaknad därav. Denna form av variabler benämns dummyvariabler. Alternativa namn är indikatorvariabler, bivariata variabler (binära), kategorivariabler eller dikotoma variabler.

23 Ekonometri, 3 sv 2005 © Rune Höglund Multipel regression K 3:23 Dummyvariabler Ett första exempel Variansanalys (ANOVA) Y i =  +  D i + e i Där: Y i = årslön för lärare i D är en dummyvariabel, Ovanstående modell ger oss följande betingade väntevärden: Genomsnittslön för kvinnlig lärare E(Y i | D i = 1) =  +  =  k  Genomsnittslön för manlig lärareE(Y i | D i = 0) =  (=  m ).  k -  m =  +  -  = 

24 Ekonometri, 3 sv 2005 © Rune Höglund Multipel regression K 3:24 Dummyvariabler För ett empiriskt datamaterial får vi följande skattningar : med R 2 = 0,87 Man kan också använda omvända värden för man/kvinna och får då i stället följande skattade modell: med R 2 = 0,87

25 Ekonometri, 3 sv 2005 © Rune Höglund Multipel regression K 3:25 Dummyvariabler Interceptet skiljer sig alltså åt, men de numeriska resultaten är samma. Lärdomen här är att det är viktigt för tolkningen hur värden sätts på dummy-variabeln. En ren variansanalysmodell som ovan är inte särskilt vanlig i ekonometrin. Vi vill oftast också inkludera en eller flera kvantitativa variabler som förklaring. Detta leder till vad som kallas kovariansanalys (ANCOVA).

26 Ekonometri, 3 sv 2005 © Rune Höglund Multipel regression K 3:26 Dummyvariabler En kvantitativ och en kvalitativ förklaringsvariabel Exemplet med lärarlöner igen: Y i =  1 +  2 D i +  X i + e i Där: Y i = årslön X i = antal år som lärare Detta ger: Genomsnittslön för kvinnlig lärare:

27 Ekonometri, 3 sv 2005 © Rune Höglund Multipel regression K 3:27 Dummyvariabler E(Y i | D i = 1) = (  1 +  2 ) +  X i Genomsnittslön för manlig lärare: E(Y i | D i = 0) =  1 +  X i Lutningen blir den samma för båda dessa fall. Det tolkas som att löneutvecklingen är parallell för män och kvinnor, men samtidigt startar man på olika nivå beroende på kön. Lönedifferensen i absoluta belopp behålls alltså över hela den yrkesverksamma perioden.

28 Ekonometri, 3 sv 2005 © Rune Höglund Multipel regression K 3:28 Dummyvariabler Vi kan nu testa om det verkligen föreligger någon signifikant skillnad i startlön mellan könen. Detta görs på vanligt sätt med t-test avseende skattningen för  2. Att definiera dummyvariabler Följande allmänna regel kan definieras: Om en kvalitativ variabel har m kategorier introducerar vi m – 1 dummyvariabler för denna variabel.

29 Ekonometri, 3 sv 2005 © Rune Höglund Multipel regression K 3:29 Dummyvariabler Om vi introducerar alltför många dummy- variabler hamnar vi i den s k dummyvariabel- fällan (perfekt kollinearitet). En kvalitativ variabel med flera kategorier Antag att vi är intresserade av att testa om börsindex skiljer åt olika veckodagar (måndag - fredag). Vi har fem ”kategorier”, varför enligt regeln ovan fyra dummyvariabler behöver introduceras. Det görs enligt följande (vi väljer onsdag som basdag):

30 Ekonometri, 3 sv 2005 © Rune Höglund Multipel regression K 3:30 Dummyvariabler Vi kan nu ställa upp följande modell LN_VA i =  1 +  2 D 1i +  3 D 2i +  4 D 3i +  5 D 4i + +  6 LN_LAGDJ i +  7 LN_SSVX i +  8 LN_USD i + e i Vi erhåller följande betingade väntevärden: VA-index, måndag: E(Y i | D 1 = 1, D 2 = 0, D 3 = 0, D 4 = 0, LN_LAGDJ i, LN_SSVX i, LN_USD i ) = (  1 +  2 ) +  6 LN_LAGDJ i +  7 LN_SSVX i +  8 LN_USD i

31 Ekonometri, 3 sv 2005 © Rune Höglund Multipel regression K 3:31 Dummyvariabler VA-index, onsdag E(Y i | D 1 = 0, D 2 = 0, D 3 = 0, D 4 = 0, LN_LAGDJ i, LN_SSVX i, LN_USD i ) =  1 +  6 LN_LAGDJ i +  7 LN_SSVX i +  8 LN_USD i etc.....

32 Ekonometri, 3 sv 2005 © Rune Höglund Multipel regression K 3:32 F-test för en tilläggsvariabel ’Tilläggs’ eller ’marginella’ bidraget av en förklarande variabel Anta mod: Y i =  0 +  1 X 1i +  2 X 2i + e i och skattningarna signifikanta. Antag att variablerna X 1 resp. X 2 införs sekventiellt 1) Y i =  0 +  1 X 1i + e i * 2) Y i =  0 +  1 X 1i +  2 X 2i + e i Bidrar X 2 signifikant till förklaringen av Y? Steg 1: skattar 1) => RSS 1 =RMS 1, ESS 1, MSE 1 Steg 2: skattar 2) => RSS 2, RMS 2, ESS 2, MSE 2

33 Ekonometri, 3 sv 2005 © Rune Höglund Multipel regression K 3:33 F-test för en tilläggsvariabel Steg 3: Bestäm tilläggsbidraget för X 2 med

34 Ekonometri, 3 sv 2005 © Rune Höglund Multipel regression K 3:34 F-test för flera parametrar Antag mod: Y i =  0 +  1 X 1i +  2 X 2i + …+  k X ki + e i Kallar denna den ’fulla’ modellen, FM Vill testa om en delmängd om q regressionskoeffici- enter är 0. Skriver ekv. Y i =  0 +  1 X 1i +  2 X 2i + …+  k-q X k-q,i +  k-q+1 X k-q+1,i  k X ki + e i Är de q sista  i :na = 0, är den korrekta modellen Y i =  0 +  1 X 1i +  2 X 2i + …+  k-q X k-q,i + e i Kallar denna för den ’begränsade’ modellen, BM

35 Ekonometri, 3 sv 2005 © Rune Höglund Multipel regression K 3:35 F-test för flera parametrar H 0 :  k-q+1 =... =  k = 0 Skattar FM och BM => ESS BM > ESS FM  RSS BM < RSS FM  R 2 BM < R 2 FM Är H 0 sann är skillnaderna mellan FM och BM storheterna små. Testvariabeln är

36 Ekonometri, 3 sv 2005 © Rune Höglund Multipel regression K 3:36 Test av om två regressionsskoefficienter är lika Antag mod: Y i =  0 +  1 X 1i +  2 X 2i + e i Testar H 0 :  1 =  2   1 –  2 = 0 H 1 :  1   2   1 –  2  0 Skattar modellen (FM) I.Under klassiska antaganden gäller att och då H 0 sann:

37 Ekonometri, 3 sv 2005 © Rune Höglund Multipel regression K 3:37 Test av om två regressionsskoefficienter är lika II.Vi skattar den begränsade modellen Y i =  0 +  1 (X 1i + X 2i ) + u i (BM) => ESS BM

38 Ekonometri, 3 sv 2005 © Rune Höglund Multipel regression K 3:38 Test av linjära restriktioner Antag mod: Y i =  0 +  1 X 1i +  2 X 2i + e i, (FM) H 0 :  1 +  2 = 1; H 1 :  1 +  2  1 I.t-testet. Skattar FM II. F-testet. H 0 :  1 +  2 = 1   1 = 1 -  2   2 = 1 –  1 Kan skriva modellen: Y i =  0 + (1-  2 )X 1i +  2 X 2i + e i

39 Ekonometri, 3 sv 2005 © Rune Höglund Multipel regression K 3:39 Test av linjära restriktioner =  0 + X 1i +  2 (X 2i - X 1i ) + e i  Y i - X 1i =  0 +  2 (X 2i - X 1i ) + e i, (BM) Skattar denna modell => testvariabeln

40 Ekonometri, 3 sv 2005 © Rune Höglund Multipel regression K 3:40 Samma koefficienter i skilda regressioner? Vi frågar oss om en modell gäller för två skilda datauppsättningar. T.ex. lönefunktionen för manliga och kvinnliga lärare. Nollhypotesen: regressions- modellerna identiska. 1) Y i =  0 +  1 X 1i +  2 X 2i + …+  k X ki + e i, i = 1,..., n 2) Y j =  0 +  1 X 1j +  2 X 2j + …+  k X kj + u j, j = 1,..., m Skattar 1) & 2) => ESS 1, ESS 2 ESS FM = ESS 1 + ESS 2 ; df = (n-(k+1))+(m-(k+1)) = n + m – 2(k+1)

41 Ekonometri, 3 sv 2005 © Rune Höglund Multipel regression K 3:41 Samma koefficienter i skilda regressioner? Antag att H 0 :  0 =  0,  1 =  1,...,  k =  k och  e 2 =  u 2 => Y i =  0 +  1 X 1i +  2 X 2i + …+  k X ki + e i, i = 1,..., n+m Skattar denna BM modell => ESS BM Vi testar om det är någon skillnad mellan de två grupperna. Har vi tidsseriedata kan vi jämföra två tidsperioder med varandra, s.k. Chow-test.

42 Ekonometri, 3 sv 2005 © Rune Höglund Multipel regression K 3:42 Samma koefficienter i skilda regressioner? Testet kan generaliseras till flera, säg p regressionsmodeller ESS FM = ESS 1 + ESS ESS p BM som ovan => ESS EM N = n 1 + n n p

43 Ekonometri, 3 sv 2005 © Rune Höglund Multipel regression K 3:43 Bitvis linjär regression Tillåter en förändring i lutningen, men med restriktionen att regressionslinjen är kontinuerlig Y t =  0 +   X t +  2 (X t – X t0 )D t + e i E(Y t | t # t 0 ) =  0 +   X t E(Y t | t > t 0 ) =  0 +   X t +  2 (X t – X t0 ) = (  0 -  2 X t0 ) + (   +  2 )X t

44 Ekonometri, 3 sv 2005 © Rune Höglund Multipel regression K 3:44 Switching regression Strukturförändringar som inte behöver ge en kontinuerlig linje. Antar att residualvariansen är oförändrad, men intercept och lutning kan ändra. Y t =  0 +   X t +  2 D t +  3 D t X t + e i Då brytningstidpunkten t 0 är känd: Är brytningstidpunkten okänd måste den skattas.

45 Ekonometri, 3 sv 2005 © Rune Höglund Multipel regression K 3:45 Switching regression Antag en brytningstidpunkt t * Y t (1) =  0 +  1 X 1t +  2 X 2t + …+  k X kt + e t (1), t # t * Y t (2) =  0 +  1 X 1t +  2 X 2t + …+  k X kt + e t (2), t > t * t = 1,..., T Använder m-l metoden. Utan härledning : Låt t * anta alla värden t * kan anta, dvs t * = k+1, k+2,..., T-(k+1).

46 Ekonometri, 3 sv 2005 © Rune Höglund Multipel regression K 3:46 Switching regression Beräkna Välj som skattning för brytningstidpunkten det värde på t* som maximerar l(t*) eller ekvivalent som maximerar Skatta regressionsmodellen och testa parametrarna t.ex. med Chow testet

47 Ekonometri, 3 sv 2005 © Rune Höglund Multipel regression K 3:47 Stokastiska förklarande variabler Vad händer om X-variablerna är stokastiska? Anta att: Fördelningen för alla X är oberoende av  Alla X är fördelade oberoende av e då är alla grundläggande egenskaper för minsta-kvadratestimatorerna fortfarande giltiga. Vi antar att  skattas betingat av X-värdena

48 Ekonometri, 3 sv 2005 © Rune Höglund Multipel regression K 3:48 Stokastiska förklarande variabler Väntevärdesriktighet kan inte garanteras om vi undersöker OLS obetingade egenskaper. Dock gäller att OLS-estimatorerna är konsistenta och asymptotiskt effektiva. Minsta-kvadratestimatorerna är maximum- likelihoodestimatorer av de sanna .


Ladda ner ppt "Ekonometri, 3 sv 2005 © Rune Höglund Multipel regression K 3:1 3. Multipel regression."

Liknande presentationer


Google-annonser