Presentation laddar. Vänta.

Presentation laddar. Vänta.

3. Multipel regression 2005 © Rune Höglund Multipel regression.

Liknande presentationer


En presentation över ämnet: "3. Multipel regression 2005 © Rune Höglund Multipel regression."— Presentationens avskrift:

1 3. Multipel regression 2005 © Rune Höglund Multipel regression

2 Regressionsmodellen Två eller flera (k) oberoende variabler
Den multipla regressionsmodellen skrivs som: Yi = b0 + b1X1i + b2X2i + …+ bkXki + ei För att vi ska kunna skatta modellen krävs att n > k+1. 2005 © Rune Höglund Multipel regression

3 Regressionsmodellen Samma antaganden som för den enkla regressionslinjen plus: iic) Inga exakta linjära samband mellan de förklarande variablerna (perfekt multikolli-nearitet) I den multipla regressionsmodellen ’mäter’ bi hur mycket Y förändras då Xi ökar med en enhet och de övriga Xj variablerna hålls konstanta 2005 © Rune Höglund Multipel regression

4 Tolkning av koefficienter
SR = konsumtion av bilar i miljarder dollar YPR = privata inkomster i miljarder dollar RR = 3-månader SSVX, % per år bYPR Om de privata inkomsterna ökar med 1 miljard dollar ökar komsumtionen av bilar med i genomsnitt 0,007 miljarder dollar givet att räntan hålls konstant. bRR Om räntan ökar med 1 procentenhet minskar komsumtionen av bilar med i genomsnitt 1,366 miljarder dollar givet att de privata inkomsterna hålls konstanta. 2005 © Rune Höglund Multipel regression

5 Matrisform Y1 = b0 + b1X11 + b2X21 + …+ bkXk1 + e1
Har en regr.mod. med k ober. variabler, n observ. Y1 = b0 + b1X11 + b2X21 + …+ bkXk1 + e1 Y2 = b0 + b1X12 + b2X22 + …+ bkXk2 + e2 Yn = b0 + b1X1n + b2X2n + …+ bkXkn + en eller i matrisform Y = Xb + e där 2005 © Rune Höglund Multipel regression

6 Matrisform Minimerar ESS = Sei2 = e´e , m.a.p. b Multipel regression
2005 © Rune Höglund Multipel regression

7 Matrisform Deriverar ESS m.a.p. b |
För minsta kvadratresidualerna e gäller att E(e´e ) = (n-(k+1))s2, och en v.v.r. skattning för s2 är s2 2005 © Rune Höglund Multipel regression

8 BLUE och standardfel Givet att antagandena ia)-iiic) är uppfyllda är OLS-estimatorerna av b BLUE (bästa linjära väntevärdesriktiga estimator). Är dessutom feltermen normalfördelad är OLS-estimatorerna = ML-estimatorerna. 2005 © Rune Höglund Multipel regression

9 BLUE och standardfel Varians-kovariansmatrisen för skattningarna = V
Diagonalelementen i matrisen V är variansen för parameterskatningarna och icke-diagonalelementen är kovarianserna mellan parameterskattningarna 2005 © Rune Höglund Multipel regression

10 Medelfel, hypoteser och intervall
Kovariansmatrisen skattas genom att substituera in skattningen s2 i st.f. s2. Låt vii vara diagonalele-menten i V, då är (vii)½ medelfelen för parameterskattningarna bj = Gäller att 2005 © Rune Höglund Multipel regression

11 Medelfel, hypoteser och intervall
| testa hypoteser och bilda konfidensintervall för bj 2005 © Rune Höglund Multipel regression

12 R2, justerat R2 och F-test Liksom tidigare har vi TSS = ESS + RSS, eller = determinationskoefficienten 0 £ R2 £ 1, ett mått på anpassningsgraden Kan användas (med eftertanke) för att jämföra alternativa specifikationer för en viss variabel 2005 © Rune Höglund Multipel regression

13 R2, justerat R2 och F-test Användningen problematisk för
antar ju att modellen är korrekt specifiserad känsligt för antalet förklarande variabler, R2 kan aldrig minska när vi lägger till en förklarande variabel R2 svårtolkat då interceptet fixeras till 0 I stället för R2 kan vi beräkna justerat (korrigerat) R2, som vi får genom att i stället för ESS och TSS använda de v.v.r. variansskattningarna för residualen resp. Y- variablen, 2005 © Rune Höglund Multipel regression

14 R2, justerat R2 och F-test Observera att justerade R2 kan vara negativt Då nya variabler sätts till ekvationen ökar alltid R2 medan justerade R2 kan öka eller minska För att testa signifikansen för R2 eller hela regressi- onens signifikans, dvs testa 2005 © Rune Höglund Multipel regression

15 R2, justerat R2 och F-test H0: alla b = 0 (utom interceptet),
H1: åtminstone något b  0 kan vi göra ett F-test Testvariabeln är som är F-fördelad men k, respektive n-(k+1) frihetsgrader. Obs! F-testet kan förkasta H0 fastän t-testen, för de individuella bj:na inte förkastar H0. 2005 © Rune Höglund Multipel regression

16 Standardiserade koefficienter
Standardiserade koefficienter anger den relativa betydelsen av en oberoende variabel i en multipel regressionsmodell, typ där Observera att interceptet försvinner! 2005 © Rune Höglund Multipel regression

17 Standardiserade koefficienter
Standardiserade koefficienter kan användas för att rangordna variablerna efter betydelse, sortera efter absolutbeloppet av b*. Tolkning: Om X ökar en standardavvikelse förän-dras Y med i genomsnitt b* standardavvikelser givet att övriga förklarande variabler i modellen hålls konstanta. b* är oberoende av enhet! 2005 © Rune Höglund Multipel regression

18 Elasticiteter Elasticiteten mäter effekten av en 1% ökning i den ober. var. (X) på den ber. var (Y). Elasticiteten för Y m.a.p. X1 är den procentuella förändringen i Y dividerat med den procentuella förändringen i X1 Elasticiteten är vanligen inte konstant utan beror på vilken nivå vi befinner oss på. Ofta beräknas Ei:na vid medelvärdet på variablerna 2005 © Rune Höglund Multipel regression

19 Partiell korrelation Modell: Yi = b0 + b1X1i + b2X2i + b3X3i + ei
Enkel korrelation: rYX1 Partiell korrelation: rYX1•X2X3 Direkta och indirekta samband: Försäljning Direkt samband + Indirekt samband +/— ? Annonsvolym Pris +/— 2005 © Rune Höglund Multipel regression

20 Partiell korrelation Sambandet till R2.
med en förklarande variabel är r2XY = R2 r2YX1•X2 kan betraktas som den andel av variationen i Y som inte förklaras av X2, men som förklaras av den del av X1 som är okorrelerad med X2 Partiell korrelation används kanske främst vid stegvis regressionsanalys. Adderar variabler till regressionsekvationen för att maximera justerade R2 2005 © Rune Höglund Multipel regression

21 Dummyvariabler Kvalitativa egenskaper och variabler
För att förklara ekonomiska fenomen och samband kan vi också behöva introducera kvalitativa variabler (t ex kön, hudfärg, religion, utbildningsnivå, strejkläge, jordbävning, revolution, ny regering osv). Ofta två alternativ; förekommer respektive förekommer ej, Andra kan anta två olika värden; man respektive kvinna, eller flera olika värden; hudfärg, utbildningsnivå. 2005 © Rune Höglund Multipel regression

22 Dummyvariabler Frågan är nu hur vi ska kunna inkludera kvalitativa variabler i en traditionell regressionsmodell? Detta görs genom att skapa ”artificiella” variabler som kan anta värdena 0 och 1. Vi låter 1 betyda förekomst av egenskapen och 0 avsaknad därav. Denna form av variabler benämns dummyvariabler. Alternativa namn är indikatorvariabler, bivariata variabler (binära), kategorivariabler eller dikotoma variabler. 2005 © Rune Höglund Multipel regression

23 Dummyvariabler Ett första exempel Variansanalys (ANOVA)
Yi = a + bDi + ei Där: Yi = årslön för lärare i D är en dummyvariabel, Ovanstående modell ger oss följande betingade väntevärden: Genomsnittslön för kvinnlig lärare E(Yi | Di = 1) = a + b (= mk) Genomsnittslön för manlig lärare E(Yi | Di = 0) = a (= mm). mk - mm = a + b - a = b. 2005 © Rune Höglund Multipel regression

24 Dummyvariabler För ett empiriskt datamaterial får vi följande skattningar: med R2 = 0,87 Man kan också använda omvända värden för man/kvinna och får då i stället följande skattade modell: 2005 © Rune Höglund Multipel regression

25 Dummyvariabler Interceptet skiljer sig alltså åt, men de numeriska resultaten är samma. Lärdomen här är att det är viktigt för tolkningen hur värden sätts på dummy-variabeln. En ren variansanalysmodell som ovan är inte särskilt vanlig i ekonometrin. Vi vill oftast också inkludera en eller flera kvantitativa variabler som förklaring. Detta leder till vad som kallas kovariansanalys (ANCOVA). 2005 © Rune Höglund Multipel regression

26 Dummyvariabler En kvantitativ och en kvalitativ förklaringsvariabel
Exemplet med lärarlöner igen: Yi = a1 + a2 Di + b Xi + ei Där: Yi = årslön Xi = antal år som lärare Detta ger: Genomsnittslön för kvinnlig lärare: 2005 © Rune Höglund Multipel regression

27 Dummyvariabler E(Yi | Di = 1) = (a1 + a2) + bXi
Genomsnittslön för manlig lärare: E(Yi | Di = 0) =a1 + bXi Lutningen blir den samma för båda dessa fall. Det tolkas som att löneutvecklingen är parallell för män och kvinnor, men samtidigt startar man på olika nivå beroende på kön. Lönedifferensen i absoluta belopp behålls alltså över hela den yrkesverksamma perioden. 2005 © Rune Höglund Multipel regression

28 Dummyvariabler Att definiera dummyvariabler
Vi kan nu testa om det verkligen föreligger någon signifikant skillnad i startlön mellan könen. Detta görs på vanligt sätt med t-test avseende skattningen för a2. Att definiera dummyvariabler Följande allmänna regel kan definieras: Om en kvalitativ variabel har m kategorier introducerar vi m – 1 dummyvariabler för denna variabel. 2005 © Rune Höglund Multipel regression

29 Dummyvariabler En kvalitativ variabel med flera kategorier
Om vi introducerar alltför många dummy-variabler hamnar vi i den s k dummyvariabel-fällan (perfekt kollinearitet). En kvalitativ variabel med flera kategorier Antag att vi är intresserade av att testa om börsindex skiljer åt olika veckodagar (måndag - fredag). Vi har fem ”kategorier”, varför enligt regeln ovan fyra dummyvariabler behöver introduceras. Det görs enligt följande (vi väljer onsdag som basdag): 2005 © Rune Höglund Multipel regression

30 Dummyvariabler Vi kan nu ställa upp följande modell
LN_VAi = g1 + g2 D1i + g3 D2i + g4 D3i + g5 D4i g6 LN_LAGDJi + g7 LN_SSVXi + g8 LN_USDi + ei Vi erhåller följande betingade väntevärden: VA-index, måndag: E(Yi | D1 = 1, D2 = 0, D3 = 0, D4 = 0, LN_LAGDJi, LN_SSVXi, LN_USDi ) = (g1 + g2) + g6 LN_LAGDJi + g7 LN_SSVXi + g8 LN_USDi 2005 © Rune Höglund Multipel regression

31 Dummyvariabler VA-index, onsdag etc.....
E(Yi | D1 = 0, D2 = 0, D3 = 0, D4 = 0, LN_LAGDJi, LN_SSVXi, LN_USDi ) = g1 + g6 LN_LAGDJi + g7 LN_SSVXi + g8 LN_USDi etc..... 2005 © Rune Höglund Multipel regression

32 F-test för en tilläggsvariabel
’Tilläggs’ eller ’marginella’ bidraget av en förklarande variabel Anta mod: Yi = b0 + b1X1i + b2X2i + ei och skattningarna signifikanta. Antag att variablerna X1 resp. X2 införs sekventiellt 1) Yi = b0 + b1X1i + ei* 2) Yi = b0 + b1X1i + b2X2i + ei Bidrar X2 signifikant till förklaringen av Y? Steg 1: skattar 1) => RSS1 =RMS1, ESS1, MSE1 Steg 2: skattar 2) => RSS2, RMS2, ESS2, MSE2 2005 © Rune Höglund Multipel regression

33 F-test för en tilläggsvariabel
Steg 3: Bestäm tilläggsbidraget för X2 med 2005 © Rune Höglund Multipel regression

34 F-test för flera parametrar
Antag mod: Yi = b0 + b1X1i + b2X2i + …+ bkXki + ei Kallar denna den ’fulla’ modellen, FM Vill testa om en delmängd om q regressionskoeffici-enter är 0. Skriver ekv. Yi = b0 + b1X1i + b2X2i + …+ bk-qXk-q,i + bk-q+1Xk-q+1,i + ... + bk Xki + ei Är de q sista bi:na = 0, är den korrekta modellen Yi = b0 + b1X1i + b2X2i + …+ bk-qXk-q,i + ei Kallar denna för den ’begränsade’ modellen, BM 2005 © Rune Höglund Multipel regression

35 F-test för flera parametrar
H0: bk-q+1 = ... = bk = 0 Skattar FM och BM => ESSBM > ESSFM  RSSBM < RSSFM R2BM < R2FM Är H0 sann är skillnaderna mellan FM och BM storheterna små. Testvariabeln är 2005 © Rune Höglund Multipel regression

36 Test av om två regressionsskoefficienter är lika
Antag mod: Yi = b0 + b1X1i + b2X2i + ei Testar H0: b1 = b2  b1 – b2 = 0 H1: b1  b2  b1 – b2  0 Skattar modellen (FM) I. Under klassiska antaganden gäller att och då H0 sann: 2005 © Rune Höglund Multipel regression

37 Test av om två regressionsskoefficienter är lika
II. Vi skattar den begränsade modellen Yi = b0 + b1(X1i + X2i) + ui (BM) => ESSBM 2005 © Rune Höglund Multipel regression

38 Test av linjära restriktioner
Antag mod: Yi = b0 + b1X1i + b2X2i + ei , (FM) H0: b1 + b2 = 1; H1: b1 + b2  1 I. t-testet. Skattar FM II. F-testet. H0: b1 + b2 = 1  b1 = 1 - b2  b2 = 1 – b1 Kan skriva modellen: Yi = b0 + (1- b2)X1i + b2X2i + ei 2005 © Rune Höglund Multipel regression

39 Test av linjära restriktioner
= b0 + X1i + b2(X2i - X1i) + ei  Yi - X1i = b0 + b2(X2i - X1i) + ei , (BM) Skattar denna modell => testvariabeln 2005 © Rune Höglund Multipel regression

40 Samma koefficienter i skilda regressioner?
Vi frågar oss om en modell gäller för två skilda datauppsättningar. T.ex. lönefunktionen för manliga och kvinnliga lärare. Nollhypotesen: regressions-modellerna identiska. 1) Yi = b0 + b1X1i + b2X2i + …+ bkXki + ei , i = 1, ..., n 2) Yj = a0 + a1X1j + a2X2j + …+ akXkj + uj , j = 1, ..., m Skattar 1) & 2) => ESS1, ESS2 ESSFM = ESS1 + ESS2 ; df = (n-(k+1))+(m-(k+1)) = n + m – 2(k+1) 2005 © Rune Höglund Multipel regression

41 Samma koefficienter i skilda regressioner?
Antag att H0: a0=b0, a1=b1, ..., ak=bk och se2=su2 => Yi = b0 + b1X1i + b2X2i + …+ bkXki + ei , i = 1, ..., n+m Skattar denna BM modell => ESSBM Vi testar om det är någon skillnad mellan de två grupperna. Har vi tidsseriedata kan vi jämföra två tidsperioder med varandra, s.k. Chow-test. 2005 © Rune Höglund Multipel regression

42 Samma koefficienter i skilda regressioner?
Testet kan generaliseras till flera, säg p regressionsmodeller ESSFM = ESS1 + ESS ESSp BM som ovan => ESSEM N = n1 + n np 2005 © Rune Höglund Multipel regression

43 Bitvis linjär regression
Tillåter en förändring i lutningen, men med restriktionen att regressionslinjen är kontinuerlig Yt = b0 + b1 Xt + b2 (Xt – Xt0)Dt + ei E(Yt| t # t0) = b0 + b1 Xt E(Yt| t > t0) = b0 + b1 Xt + b2 (Xt – Xt0) = (b0 - b2 Xt0) + (b1 + b2)Xt 2005 © Rune Höglund Multipel regression

44 Switching regression Strukturförändringar som inte behöver ge en kontinuerlig linje. Antar att residualvariansen är oförändrad, men intercept och lutning kan ändra. Yt = b0 + b1 Xt + b2 Dt + b3 DtXt + ei Då brytningstidpunkten t0 är känd: Är brytningstidpunkten okänd måste den skattas. 2005 © Rune Höglund Multipel regression

45 Switching regression Antag en brytningstidpunkt t*
Y t(1) = b0 + b1X1t + b2X2t + …+ bkXkt + e t(1) , t # t* Y t(2) = a0 + a1X1t + a2X2t + …+ akXkt + et(2) , t > t* t = 1, ..., T Använder m-l metoden. Utan härledning: Låt t* anta alla värden t* kan anta, dvs t* = k+1, k+2, ..., T-(k+1). 2005 © Rune Höglund Multipel regression

46 Switching regression Beräkna
Välj som skattning för brytningstidpunkten det värde på t* som maximerar l(t*) eller ekvivalent som maximerar Skatta regressionsmodellen och testa parametrarna t.ex. med Chow testet 2005 © Rune Höglund Multipel regression

47 Stokastiska förklarande variabler
Vad händer om X-variablerna är stokastiska? Anta att: Fördelningen för alla X är oberoende av b Alla X är fördelade oberoende av e då är alla grundläggande egenskaper för minsta-kvadratestimatorerna fortfarande giltiga. Vi antar att b skattas betingat av X-värdena 2005 © Rune Höglund Multipel regression

48 Stokastiska förklarande variabler
Väntevärdesriktighet kan inte garanteras om vi undersöker OLS obetingade egenskaper. Dock gäller att OLS-estimatorerna är konsistenta och asymptotiskt effektiva. Minsta-kvadratestimatorerna är maximum-likelihoodestimatorer av de sanna b. 2005 © Rune Höglund Multipel regression


Ladda ner ppt "3. Multipel regression 2005 © Rune Höglund Multipel regression."

Liknande presentationer


Google-annonser