Presentation laddar. Vänta.

Presentation laddar. Vänta.

1 Tidsserieanalys Exempel: Vilka särdrag har tidsseriedata? Varför behövs nya metoder?

Liknande presentationer


En presentation över ämnet: "1 Tidsserieanalys Exempel: Vilka särdrag har tidsseriedata? Varför behövs nya metoder?"— Presentationens avskrift:

1 1 Tidsserieanalys Exempel: Vilka särdrag har tidsseriedata? Varför behövs nya metoder?

2 2 Observationerna är inte oberoende, eftersom det finns ett beroende i tiden Observationerna ger ett mönster över tiden – en trend: fallande eller stigande värden med tiden – en periodisk variation över en tidsperiod av bestämd längd (säsongseffekter eller liknande)

3 3 Exempel på tidsseriedata Olika typer av ekonomiska data: –Arbetslöshetssiffror –Försäljningsvärden –Konsumentprisindex och andra index –Export- och importmängder Miljömätdata: –Fosforhalt i havsvattenbassänger –Ozonhalt i luftrummet över en storstad Medicinska data: –Antal fall av viss sjukdom (influensa, påssjuka...)

4 4

5 5

6 6 Tidsserieregression:

7 7 sold time month x 1 x 2 x 3 x 4 x 5 x 6 x 7 x 8 x 9 x 10 x

8 8 Tidsserieregression med enbart en linjär trend.

9 9 Regression Analysis The regression equation is Sold = 5,78 + 0,0430 time Predictor Coef StDev T P Constant 5,7761 0,9429 6,13 0,000 time 0, , ,26 0,215 S = 3,181 R-Sq = 3,4% R-Sq(adj) = 1,2% Analysis of Variance Source DF SS MS F P Regression 1 16,00 16,00 1,58 0,215 Residual Error ,27 10,12 Total ,28 Tidsserieregression fungerar statistiskt som vanlig regression.

10 10

11 11 Regression Analysis The regression equation is Sold = 3,65 + 0,0285 time - 1,69 x1 - 0,47 x2 + 2,75 x3 + 1,22 x4 + 6,20 x5 + 2,42 x6 + 8,14 x7 + 6,36 x8 + 0,58 x9 + 2,55 x10 + 1,02 x11 Predictor Coef StDev T P Constant 3,6491 0,8526 4,28 0,000 time 0, , ,92 0,063 x1 -1,691 1,028 -1,65 0,109 x2 -0,469 1,027 -0,46 0,651 x3 2,752 1,026 2,68 0,011 x4 1,224 1,026 1,19 0,241 x5 6,195 1,025 6,04 0,000 x6 2,417 1,025 2,36 0,024 x7 8,138 1,025 7,94 0,000 x8 6,360 1,026 6,20 0,000 x9 0,581 1,026 0,57 0,575 x10 2,553 1,027 2,49 0,018 x11 1,024 1,028 1,00 0,326 S = 1,342 R-Sq = 87,0% R-Sq(adj) = 82,4% Analysis of Variance Source DF SS MS F P Regression ,031 34,169 18,97 0,000 Residual Error 34 61,246 1,801 Total ,277

12 12 Tolkning av parametrar: – Antal sålda hus ökar i genomsnitt med 0,0285 enheter per tidsenhet (månad) – I januari säljs det färre hus (-1.69 hus) jämfört med december, i mars säljs det fler hus (+ 2.75).... (observera att december är basperioden, eftersom dummy- variabeln för december inte finns med – decembernivån är alltså inbakad i konstanten) Predictor Coef StDev T P Constant 3,6491 0,8526 4,28 0,000 time 0, , ,92 0,063 x1 -1,691 1,028 -1,65 0,109 x2 -0,469 1,027 -0,46 0,651 x3 2,752 1,026 2,68 0,011 x4 1,224 1,026 1,19 0,241 x5 6,195 1,025 6,04 0,000 x6 2,417 1,025 2,36 0,024 x7 8,138 1,025 7,94 0,000 x8 6,360 1,026 6,20 0,000 x9 0,581 1,026 0,57 0,575 x10 2,553 1,027 2,49 0,018 x11 1,024 1,028 1,00 0,326

13 13 Inferens, som konfidensintervall, prognosintervall, t-test, F-test, partiellt F-test... kan göras på samma sätt som i vanlig regressionsanalys. Residualanalys bör göras för att kontrollera om villkoren för regression är uppfyllt: –Oberoende residualer –Normalfördelade residualer (för att kunna lita på testen) –Residualer med konstant varians (inga strutmönster)

14 14 Antagandet om oberoende residualer är ofta inte uppfyllt när det gäller tidsseriedata. Det kan också vara svårt att kolla detta antagande visuellt.

15 15 Enklare att se om observationerna är sammanbundna. Här ser man tydligt att en negativ residual vanligtvis följs av en positiv residual och tvärtom. Detta är ett tecken på autokorrelation.

16 16 Statistiskt test för att kontrollera om residualerna är oberoende: Durbin-Watson-test –Durbin-Watson-testet bedömer om autokorrelation (eller seriell korrelation) förekommer bland residualerna: Corr(e t,e t-1 ) –Vi skiljer mellan positiv autokorrelation och negativ autokorrelation

17 17 Negativ autokorrelation Positiv autokorrelation

18 18 Durbin-Watson-test testvariabeln: I vårt exempel: Durbin-Watson statistic = 2.66

19 19 Vi kan testa nollhypotesen: H 0 : Det finns ingen autokorrelation i residualerna Om d > d U,  /2 eller (4 – d ) > d U,  /2 Ingen signifikant autokorrelation, H 0 kan ej förkastas Om d < d L,  /2 Signifikant positiv autokorrelation Om (4 – d ) < d L,  /2 Signifikant negativ autokorrelation Om d L,  /2  d  d U,  /2 och d L,  /2  (4 – d )  d U,  /2 Inget uttalande kan göras

20 20 Om det inte finns någon autokorrelation i residualerna så kommer d att ligga nära 2. En approximativ kontroll kan göras genom att se om d är lägre än 1 eller högre än 3 Då finns autokorrelation i residualerna.

21 21 Vissa tidsserier har en så kallad exponentiell trend: Modell: Modellen kallas i boken ’growth curve model’ och jag har gått igenom de här modellerna i förra föreläsningen (avsnittet om exponentiella modeller).

22 22 Klassisk komponentuppdelning: –Multiplikativ modell: –Additiv modell: där TR t =Trendkomponenten SN t =Säsongkomponenten CL t =Cykliska komponenten IR t =Slumpkomponenten

23 23 Trendkomponenten TR står för en (ofta) linjär funktion av tiden t Säsongkomponenten SN består av ett värde per säsong, som uttrycker skillnaden mellan denna säsong och årsgenomsnittet (jämför säsongsdummies) Cykliska komponenten CL står för en oregelbunden funktion som avspeglar konjunktursvängningar, alltså i form av en cykel. Slumpkomponenten är resten av variationen som är helt oregelbunden och som inte kan förklaras.

24 24 Multiplikativ eller additiv modell? Multiplikativ modell: Modellen används om säsongssvängningarna ökar med ökat nivå i serien. För ekonomiska data brukar denna modell ofta vara bäst. Additiv modell: Fungerar vid mer stabila tidsserier där säsongssvängningarna ej beror av nivån.

25 25 Skattning av komponenter, termer Säsongrensning: Borttagandet av säsongsvariation y t - SN t i den additiva modellen y t / SN t i den multiplikativa modellen Säsongsvariation överskuggar ofta andra relevanta komponenter. Genom säsongrensningen kan man alltså enklare se trender och andra komponenter. ’Detrending’: Borttagandet av trenden y t - TR t y t / TR t

26 26 Skattning av komponenter, steg-för-steg 1.Säsongrensning: Serien rensas från säsongkomponenten genom beräkning av centrerade och viktade glidande medelvärden (centered moving averages, CMA): där L=Antal säsonger i serien (L=2 för halvårsdata, 4 för kvartalsdata och 12 för månadsdata)

27 27 Exempel (sales data från tidigare) tid månad antal CMA 112 * 226 * 335 * 445 * 5510 * 668 *

28 28 Trend och cyklisk komponent skattas grovt av CMA t. En första skattning av säsongkomponenterna erhålls genom att beräkna y t /CMA t i en multiplikativ modell y t – CMA t i en additiv modell och sen beräkna medelvärden för alla värden som avser samma säsong. (t.ex. alla januari-värden av y t /CMA t, etc.)  Totalt L medelvärden.

29 29 Medelvärdena måste dessutom justeras så att de vid multiplikativ modell får medelvärde 1, (dvs summan av alla justerade säsongmedelvärden ska bli L) vid additiv modell får medelvärde 0, (dvs summan av alla justerade säsongmedelvärden ska bli 0.) De justerade värdena kallas för säsongskomponenter sn 1,...,sn L

30 30 Exempel, forts

31 31 Medelvärden av grova säsongskomponenter: Juli: ( )/3  Aug: ( )/3  Sep: ( )/3  Okt: ( )/3  Nov: ( )/3  Dec: ( )/3  Jan: ( )/3  Feb: ( )/3  Mar: ( )/3  Apr: ( )/3  Maj: ( )/2  Obs! Bara två värden här! Juni: ( )/2  …och här!

32 32 Summan av de beräknade medelvärdena: )  Summan skall bli L=12 För att få den till 12 multipliceras samtliga medelvärden med 12/ 

33 33 Slutligt skattade säsongkomponenter: Jan: sn 1 = ·  Feb: sn 2 = ·  Mar: sn 3 = ·  Apr: sn 4 = ·  Maj: sn 5 = ·  Juni: sn 6 = ·  Juli: sn 7 = ·  Aug: sn 8 = ·  Sep: sn 9 = ·  Okt: sn 10 = ·  Nov: sn 11 = ·  Dec: sn 12 = ·  0.641

34 34 Tidsserien säsongrensas genom vid multiplikativ modell vid additiv modell där är något av värdena beroende på vilken av säsongerna som t motsvarar.

35 35 Exempel, forts

36 36 2.De säsongrensade värdena används för att skatta trendkomponenten. Skatta en linjär (eller kvadratisk) trend TR t med hjälp av regressionsanalys

37 37 3. Cyklisk och oregelbunden komponent: Om cyklisk komponent ej finns med: Residualerna från regressionsanalysen utgör skattning av termen IR t i den klassiska modellen. Om cyklisk komponent finns med: Skatta cyklisk och oregelbunden komponent som en komponent (CLIR t )

38 38 Den cykliska komponenten skattas nu genom ett centrerat oviktat glidande medelvärde: och den oregelbundna komponenten skattas slutligen som

39 39 Vilka glidande medelvärden ska användas? 2m+1 väljs i regel till något av värdena 3, 5, 7, 9, 11, 13 Hur m skall väljas bestäms genom att titta på den slutliga skattningen av IR t m väljs så att autokorrelationen och variansen för dessa värden blir så låg som möjligt. 2m+1 kallas antal punkter i det glidande medelvärdet

40 40 Minitab kan användas för komponentuppdelning med Stat  Time series  Decomposition Multiplikativ modell är dock något annorlunda: y t = TR t ·SN t +IR t Val av modelltyp Möjlighet att välja komponenter, men dock begränsat

41 41 Säsongrensade data

42 42 Time Series Decomposition Data Sold Length 47,0000 NMissing 0 Trend Line Equation Yt = 5, ,30E-02*t Seasonal Indices Period Index 1 0, , , , , , , , , , , , Accuracy of Model MAPE: 16,8643 MAD: 0,9057 MSD: 1,6388 Dessa blir något annorlunda jämfört med handräkningen tidigare p g a att modellen är annorlunda

43 43

44 44

45 45

46 46 Skattade trend- och säsongkomponenter har lagrats i kolumnerna TREN1 resp. SEAS1 Beräkning av kan göras genom att dividera originaldata med produkten av dessa två CLIR1=Sold/(TREN1· SEAS1) Den cykliska komponenten skall nu skattas genom beräkning av glidande medelvärden på CLIR1

47 47 Stat  Time Series  Moving Average… Antal punkter i det glidande medelvärdet

48 48 Sparar de glidande medelvärdena, dvs den skattade cykliska komponenten i en ny kolumn, som får namnet AVER1

49 49

50 50 Den oregelbundna komponenten (IR) skattas slutligen genom att dividera CLIR1 med AVER1 De resulterade värdena studeras sedan med avseende på spridning, s och seriell korrelation, Corr ( ir t, ir t-1 ) 2m+1sCorr(ir t,ir t-1 )

51 51

52 52 Seriella korrelationer kan enkelt beräknas med Stat  Time series  Lag och sedan Stat  Basic statistics  Correlation eller manuellt i Session window: MTB > lag ’RESI4’ c50 MTB > corr ’RESI4’ c50

53 53 Analys med additiv modell :

54 54 Time Series Decomposition Data Sold Length 47,0000 NMissing 0 Trend Line Equation Yt = 5, ,30E-02*t Seasonal Indices Period Index 1 -4, , , , , , , , , , , ,17361 Accuracy of Model MAPE: 16,4122 MAD: 0,9025 MSD: 1,6902

55 55 Vad står måtten MAPE, MAD och MSD för? Alla tre är mått på hur bra anpassningen är och kan användas för att jämföra olika modeller. Den modell som har lägst MAPE, MAD och MSD har bäst anpassning. Oftast visar alla 3 måtten åt samma håll. Men i vissa fall kan man vara tvungen att välja en av dem. Vid val mellan t ex additiv modell och multiplikativ modell kan det hända att något av måtten är högre för den ena modellen medan ett annat mått är lägre. Det gäller alltså att tolka måtten med visst förnuft.

56 56 MSD kan också jämföras med MSE i den multipla regressionen: Formlerna är väldigt lika. Notera dock att vi dividerar med n och inte med n-k-1. Orsaken är att vi här inte har någon regressionsmodell med parametrar som måste skattas väntevärdesriktigt. Storleksmässigt kan dock MSD jämföras med MSE från tidsserieregressionen och är skillnaden markant kan vi också se vilken av modellerna som ger bäst anpassning. Mean Square Deviation Mean Square Error

57 57 Skillnaden mellan MAD och MSD är att MAD använder absolutavvikelser istället för kvadratiska avvikelser. MAD är mindre känslig för avvikande värden och blir mer användbar när vi har något enstaka värde som uppträder konstigt. Ytterligare en fördel med MAD är att dess värde är i samma skala som y t - observationerna själva, vilket gör det lättare att tolka. Mean Absolute Deviation

58 58 Mean Absolute Percentage Error Måttet använder också absoluta avvikelser, men mäter dem relativt nivån hos y. Vi får alltså relativa (procentuella) avvikelser. Måttet är praktiskt för multiplikativa modeller där den oregelbundna komponenten (IR t ) är ganska betydande, eftersom avvikelserna då blir stora när vi har stora värden på y.

59 59 Multiplikativ Additiv

60 60 multiplikativ

61 61 additiv multiplikativ Trend Line Equation Yt = E-02*t Seasonal Indices Period Index Trend Line Equation Yt = E-02*t Seasonal Indices Period Index


Ladda ner ppt "1 Tidsserieanalys Exempel: Vilka särdrag har tidsseriedata? Varför behövs nya metoder?"

Liknande presentationer


Google-annonser