Hagrannsóknir II fyrirlestraglósur

Σχετικά έγγραφα
Meðalmánaðardagsumferð 2009

Reikniverkefni VII. Sævar Öfjörð Magnússon. 22. nóvember Merki og ker Jónína Lilja Pálsdóttir

Þriggja fasa útreikningar.

Viðskipta- og Hagfræðideild Tölfræði II, fyrirlestur 6

Kaplan Meier og Cox. Aðferðafræði klínískra rannsókna haustið 2010 Fimmtudagur 11 nóvember. Thor Aspelund Hjartavernd og Háskóla Íslands

Líkindi Skilgreining

Ályktanir um hlutföll og tengslatöflur

PRÓFBÚÐIR Í LÍNULEGRI ALGEBRU VIÐ HR VOR 2014 HERKÚLES

fyrirlestrapunktar vor 2009 Háskóli Íslands Mælingar tengdar í tíma. Kafli 7 (muna 5.5. og k. 1-4)

x(t) = T 0 er minnsta mögulega gildi á T

Guðbjörg Pálsdóttir Guðný Helga Gunnarsdóttir NÁMSGAGNASTOFNUN

Undirstöðuatriði RC-tengds magnara Ólafur Davíð Bjarnason og Valdemar Örn Erlingsson 28. apríl 2009

Introduction to the ML Estimation of ARMA processes

SECTION II: PROBABILITY MODELS

t 2 c2 2 Φ = 0. (2.1)

Gagnasafnsfræði Venslaalgebra og bestun fyrirspurna. Hallgrímur H. Gunnarsson

Eðlisfræði 1. Dæmi 5.2 (frh.) Dæmi Dæmi (frh.) d) P = W tog. = 0, 47kW. = 9, 4kJ

Table 1: Military Service: Models. Model 1 Model 2 Model 3 Model 4 Model 5 Model 6 Model 7 Model 8 Model 9 num unemployed mili mili num unemployed

Forritunarkeppni Framhaldsskólanna 2014

Aðskilnaður breytistærða í rúmi

FRÆÐSLUSKRIFSTOFA RAFIÐNAÐARINS

Hæðarkerfi og hæðir Þórarinn Sigurðsson Landmælingar Íslands

Vísandi mælitæki (2) Vísandi mælitæki. Vísandi mælitæki (1) Vísandi mælitæki (3)

Bústólpi ehf - Nýtt kjarnfóður H K / APRÍL 2014

4.01 Maður ekur 700 km. Meðalhraðinn er 60 km/klst fyrstu 250 km og 75 km/klst síðustu 450 km. Hver er meðalhraðinn?

H 2 S loftgæðamælingar í Norðlingaholti og í Hveragerði

RAF301G Merki og kerfi Miðmisserispróf, lausn

Iðjuþjálfun LIE0103 Hrefna Óskarsd.

H2S loftgæðamælingar í Norðlingaholti og í Hveragerði

Span og orka í einfaldri segulrás

Borðaskipan í þéttefni

HW 3 Solutions 1. a) I use the auto.arima R function to search over models using AIC and decide on an ARMA(3,1)

6. júní 2016 kl. 08:30-11:00

H2S loftgæðamælingar í Norðlingaholti og í Hveragerði

H 2 S loftgæðamælingar við Hellisheiðarvirkjun og við Nesjavallavirkjun

Menntaskólinn í Reykjavík

H2S mælingar í Norðlingaholti og Hveragerði Skýrsla um mælingar árið 2013 Unnið fyrir Orkuveitu Reykjavíkur

H 2 S loftgæðamælingar við Hellisheiðarvirkjun og Nesjavallavirkjun

Nokkur valin atriði úr aflfræði

Statistics 104: Quantitative Methods for Economics Formula and Theorem Review

Meistararitgerð. Verðlagning langlífisáhættu

Asymptotic distribution of MLE

1) Birgðabreyting = Innkaup - Sala + Framleiðsla - Rýrnun - Eigin notkun. Almennari útgáfa af lögmálinu hér fyrir ofan lítur svona út:

FOUCAULT þrír textar 2014

H 2 S loftgæðamælingar við Hellisheiðarvirkjun og við Nesjavallavirkjun

5. Partial Autocorrelation Function of MA(1) Process:

H 2 S loftgæðamælingar við Hellisheiðarvirkjun og við Nesjavallavirkjun

Tölfræði II. Lausnahefti við völdum dæmum. Haustönn 2004

Tölfræði II Samantekt vor 2010

Eðlisfræði II: Riðstraumur. Kafli 11. Jón Tómas Guðmundsson 10. vika vor 2016

Um tölvur stýrikerfi og forritun

Hugtakalisti fyrir 10. bekk. Listinn er ekki tæmandi!!!

Rit LbhÍ nr Áhrif aldurs áa, þunga, holda og framleiðsluára. á gagnasafni Hestbúsins

Orkuumbreyting milli raforku og hreyfiorku

ΧΡΟΝΟΣΕΙΡΕΣ & ΠΡΟΒΛΕΨΕΙΣ-ΜΕΡΟΣ 7 ΕΛΕΓΧΟΙ. (TEST: Unit Root-Cointegration )

Lauf_P :26 Page 1 Laufblaðið Gefið út af Landssamtökum áhugafólks um flogaveiki 2. tölublað 9. árg. 2001

barnatennurnar BÓKIN UM Bókin um barnatennurnar

Stær fræ i. Kennsluleiðbeiningar. Kennsluleiðbeiningar. 8tíu. NÁMSGAGNASTOFNUN 15. febrúar 2007

BLDC mótorstýring. Lokaverkefni í rafmagnstæknifræði BSc. Halldór Guðni Sigvaldason

C Q T. þessu blaði. 5. tbl. 23. árg. des. 2005

FORMULAS FOR STATISTICS 1

16 kafli stjórn efnaskipta

Stillingar loftræsikerfa

Fylgiseðill: Upplýsingar fyrir notanda lyfsins. Symbicort mite Turbuhaler 80 míkrógrömm/4,5 míkrógrömm/skammt, Innöndunarduft

SKALI STÆRÐFRÆÐI FYRIR UNGLINGASTIG KENNARABÓK. Grete Normann Tofteberg Janneke Tangen Ingvill Merete Stedøy-Johansen Bjørnar Alseth

ΜΑΘΗΜΑ 3ο. Υποδείγματα μιας εξίσωσης

Skilaverkefni 1. Skil á þriðjudaginn

Stationary Univariate Time Series Models 1

ΤΜΗΜΑΕΠΙΧΕΙΡΗΜΑΤΙΚΟΥΣΧΕΔΙΑΣΜΟΥ & ΠΛΗΡΟΦΟΡΙΑΚΩΝΣΥΣΤΗΜΑΤΩΝ. ΤΕΧΝΙΚΕΣ ΠΡΟΒΛΕΨΕΩΝ& ΕΛΕΓΧΟΥ ΜΑΘΗΜΑ ΘΕΩΡΙΑΣ-ΣΤΑΣΙΜΕΣΔΙΑΔΙΚΑΣΙΕΣ-ΥΠΟΔΕΙΓΜΑΤΑ ARIMA (p,d,q)

Forecasting the Number of International Tourists in Thailand by using the SARIMA Intervention Model

1 (forward modeling) 2 (data-driven modeling) e- Quest EnergyPlus DeST 1.1. {X t } ARMA. S.Sp. Pappas [4]

Προβλέψεις ισοτιμιών στο EViews

HMY 799 1: Αναγνώριση Συστημάτων

Greinargerð Trausti Jónsson. Sveiflur IV. Árstíðasveiflur í háloftunum yfir Keflavík

Καμπύλη Phillips (10.1, 11.5, 12.1, 12.5, 18.3, 18.8, 18.10)

Verkefni 1: Splæsibrúun og jafnhæðarferlar

FYLGISEÐILL FYRIR. PHENOLEPTIL 100 mg töflur fyrir hunda

Fylgiseðill: Upplýsingar fyrir notanda lyfsins

CHEMISTRY. Bylgjueðli ljóss. Bylgjueðli ljóss. Rafeindabygging atóma. Bylgjueðli ljóss. Bylgjueðli ljóss. Bylgjueðli ljóss

Skýrsla LV nr: LV Dags: desember Titill: Landbrot á bökkum Hálslóns í Kringilsárrana úttekt 2017

CHEMISTRY. Eðli orkunnar. Kafli 5 Varmaefnafræði. Hiti-varmi. MR efnafræði í 4. bekk. The Central Science 9th Edition. David P.

Supplementary Appendix

Durbin-Levinson recursive method

SAMANTEKT Á EIGINLEIKUM LYFS. Hver tafla inniheldur 2,0 mg af cýpróterónacetati og 35 míkrógrömm af etinýlestradíóli.

SAMANTEKT Á EIGINLEIKUM LYFS. Hver tafla inniheldur 2,0 mg af cýpróterónacetati og 35 míkrógrömm af etinýlestradíóli.

Fyrir að eða fyrir því að?

Module 5. February 14, h 0min

ΜΑΘΗΜΑ 4 ο. Μοναδιαία ρίζα

Sæmundur E. Þorsteinsson, TF3UA

Fylgiseðill: Upplýsingar fyrir notanda lyfsins. Daivobet 50 míkrógrömm/0,5 mg/g smyrsli. kalsípótríól/betametasón

Stærðfræði. Lausnir. Lausnir. 8tíu. NÁMSGAGNASTOFNUN 20. apríl 2009

Introduction to Time Series Analysis. Lecture 16.

Kafli 4 Línulegur kraftur og hreyfing

Niðurstöður aurburðarmælinga í Jökulsá í Fljótsdal árið 2003

Veghönnunarreglur 03 Vegferill

Kafli 1: Tímastuðull RC liður. Dæmi 1.1 A: 3,3ms B: 7,56V Dæmi 1.2 A: 425µF B: 1s Dæmi 1.3 A: 34,38V B: 48,1V Dæmi 1.4 A: 59,38s

Estimation for ARMA Processes with Stable Noise. Matt Calder & Richard A. Davis Colorado State University

Námsáætlun í stærðfræði fyrir 10. bekk Tímabil: 22. ágúst júní 2012

Kennsluleiðbeiningar Tungutak - Málsaga handa framhaldsskólum

Fylgiseðill: Upplýsingar fyrir notanda lyfsins. Daivobet 50 míkrógrömm/0,5 mg/g hlaup. kalsípótríól/betametasón

Transcript:

Hagrannsóknir II fyrirlestraglósur hluti I Björn Arnar Hauksson bah@hi.is Vor 2003 Útdráttur Efni þessa glósurits er ritað í fyrirlestrum í Hagrannsóknum II, vorið 2003. Kennt af Helga Tómassyni. Engin ábyrgð er tekin á öllum þeim villum sem kunna að leynast í ritinu. Vinsamlegast hafið samband við ritara (Björn) um leiðréttingu á villum. Glósur þessar eru að mestu skrifaðar með þarfir ritara í huga. Því kann sumum atriðum að vera sleppt sem aðrir kynnu að hafa áhuga á. Frjálst er að dreifa þessu skjali án endurgjalds en geta skal uppruna ef því er breytt. Í þessum glósum er orðalag Helga notað nánast óbreytt og sjaldan tilraun gerð til að íslenska orðalag hans þegar það er ekki allt á íslensku. Yfirleitt er í þessum glósum ekki gerð tilraun til að merkja fylki sérstaklega þegar að fyrirlesari gerir það ekki, sjá verður af samhenginu hverju sinni hvort á við. 1

1 FYRIRLESTUR 15. JANÚAR 2 1 Fyrirlestur 15. janúar 1.1 Kynning og lýsing Maximum likelihood orðin vinsælasta aðferina vegna framfara í reiknigetu. Maximum likelihood yfirleitt best ef hægt að koma henni við. Helgi var með kennslubók eftir Kmenta á sínum tíma. SUR = seamingly unrelated regression, að eftirfarandi kerfi geta virðst tengd y 1 = α + βx 1 og y 2 = γ + δx 2 (1.1) Ekki víst að Helgi nái að fara yfir Monte Carlo og bootstrap, þetta eru reikniaðferðir við mat á líkönum, það þarf að forrita svolítið til að nota þessar aðferðir. Panel-data heitir líka repeated mesarues eða analysis of longditudional data. Þetta á við mörg köst guðs, endurteknar tilraunir, t.d. þegar rottur eru rannsakaðar. Margar breytur í okkar umhverfi eru ekki samfelldar, t.d. 0 1 breytur, flokkunarbreytur og fleira. Misjafnt með flokkabreytur hvort þær hafa eðlilega innbyrðis röðun. Hér getum við líka hugsað okkur mælinga á biðtíma, t.d. hve lengi aðili er atvinnulaus. 1.2 Námsefni o.fl. Kennslubókin Econometric Methods plús dreifir kannski efni um samþáttun og forritun. Hagfræðingur úr Sbí verður með dæmatíma á móti Helga. Dæmi í kennslubókinni og Poirier verða í dæmatímum og fólk þarf að redda sér sjálft í tölvudæmunum. Verkefni verða fullt af gögnum, reikna e-ð og setja e-n texta með. Hugbúnaður sem Helgi mælir með er t.d. Gretl, EasyReg, R, Octave, Yacas. Töflureiknar GNUMERIC og OpenOffice. OpenOffice er aðeins hægari en GNUMERIC og hefur færri fídusa. 1.3 Kennsluáætlun Kaflar 1-6 eru svolítið mikið upprifjun frá Poirier, gagnlegt að glugga í Poirier til að dýpka skilning. Exogeneity verður skilgreint nákvæmlega. 2STOLS og 3STOLS er kannski meira kennslubókarefni heldur en e-ð sem notað er á vinnumarkaði. 1.4 Inngangur kennslubókarinnar 1. Asymptotic teoría. Þau lögmál sem gilda þegar mikið af mælingum fyrir hendi. Verður æ mikilvægari vegna tölva. 2. Tímaraðaaðferðarfræði. 3. Diagnostics, líkanagreining. Menn eru mun einbeittari í dag í að spá í hvað gæti verið að líkaninu. 4. GMM, Helgi vill setja þetta atriði innan sviga, þykir þetta ekki merkileg aðferðarfræði, svolítið ad hoc. 5. Reiknifrekar aðferðir, Monte Carlo og bootstraping, svona simulerings aðferðir. Þessar aðferðir byggja algjörlega á tölvunum.

1 FYRIRLESTUR 15. JANÚAR 3 6. Microeconometria. PanelData,.... Líka afleiðing af tölvutækninni, til mikið af gögnum um einstaklinga og fyrirtæki. Samanber heilsutölfræði og biometrics. 1.5 Regression Regression er einskonar skilyrt ályktun, álykta um eina breytu gefin önnur. Til dæmis E(Y X). Köllum þetta línulega regression ef hún er á borð við Og á logralínulegu sniði (log-linear form) Dæmi 1.1 Ef þá fáum við með því að logra höfum að Fáum því E(Y X) = α + βx (1.2) loge(y X) = α + βlog(x) (1.3) X = 1.01 X (1.4) logx = log(1.01) + logx (1.5) log(1.01) 0.01. (1.6) log(e(y X )) log(e(y X)) β 0.01, (1.7) ( E(Y X ) ) log β 0.01 (1.8) E(Y X) E(Y X ) e β 0.01 E(Y X) (1 + β 0.01)E(Y X). (1.9) Dæmi 1.2 ( ) E(Y X) log = α + βx, 1 E(Y X) (1.10) E(Y X) = P(Y = 1 X), 1 E(Y X) = P(Y = 0 X). (1.11) Og P eα+βx log( ) = α + βx => P = 1 P 1 + e α+βx (1.12) Síðustu tvö skrefin er það sem kallast logit vörpun, logistic model. β er það sem kallast odds ratio per einingu af X. Setjum P 1 og P 2 sem líkur á því að fyrirtækjahópar 1 og 2 verði gjaldþrota, finnum svo Odds ratio fyrir hópana OR = P 1 1 P 1 P 2 1 P 2. (1.13) Hlutfallið hér fyrir ofan er margfeldið af því hversu líklegra er að hópur 1 verði gjaldþrota miðað við hóp 2. Það er erfitt að skilja OR en þægilegt að reikna það. Dæmi 1.3 Segjum að X sé kyn, gefið og að Y sé þyngd/laun, spyrjum hvort kynið hefur meiri breytileika í þyngd, V(Y X). Þegar talað er um misrétti í launum þá er fólk bara að skoða fyrsta momentið, E(Y X).

1 FYRIRLESTUR 15. JANÚAR 4 Kafli 1 í bókinni er bara upprifjun, lesa hann bara létt, kafli 2 er líka upprifjun. Kafli 2 er um almennt línulegt líkan. Höfum venjulega fylkjaform á líkaninu, E(Y X) = Xβ, V(Y X) = σ 2. Þá er ˆβ ols = (X X) 1 X Y. Athuga vel að lesa kafla 2.4 um convergence hugtök, Poirier hefur dýpri skýringu á þessu efni. Hér höfum við plim (convergence in probability) og convergince in distribution. Helga finnst auðveldast að skilja convergence in mean square, svo á maður að skilja distribution og svo probability. Þetta verður flóknara þegar random breyta er í spilinu. Svamlað nokkuð hratt í gegnum þetta efni í kennslubókinni. 1.5.1 Kafli 2.5.1 Unit root og stationary hugtökin. Athuga hér að skilja hvað er átt við með stationarity. Svona álíka og að uppgvöta að til sé talan 0, þá dettur manni í hug að kannski séu til aðrar tölur. Unit root ferlar er bara ein fjölskylda af nonstationary ferlum. Maður notar unit root ferla því þeir eru þægilegir til að lýsa óstationary fyrirbærum og auðvelt að skilja það. 1.5.2 Sístæðni Grundvallarhugtak. Erum með runu af mælingum X 1, X 2,... {X} er strongly stationary ef F(X t,...,x tk ) = F(X t1+h,...,x tk+h ) t 1,...,t k og h. (1.14) Þetta er ekki erfitt hugtak en oftar er notað weak stationarity (covariance stationary) E(X t ) = µ, (1.15) autocovariance = Cov(X t,x t k ) = γ(k), (1.16) corr(x t,x t k ) = ρ(k), (1.17) auto-correlation = sjálffylgni. Höfum AR(1) og ef X t = φx t 1 + ε t (1.18) E(ε t ) = 0, (1.19) E(ε t,ε s ) = 0 þegar t s (1.20) E(ε 2 t ) = σ2 (1.21) þá er ε t hvítt suð. Ef ε t N(0, σ 2 ) þá er ε t Gaussian hvítt suð og X t verður líka normaldreift. Höfum því Dæmi 1.4 Höfum mælingarnar X 1, X 2 og σ 2 X t N(0, ), φ < 1, (1.22) 1 φ2 X t X t 1 N(φX t 1,σ 2 ). (1.23) L(φ,σ,x 1,x 2 ) = f (X 1,X 2 ) = f (X 2 X 1 ) f (X 1 ). (1.24)

2 FYRIRLESTUR 22. JAN 5 Finnum svo ML mat á φ og σ 2 f (X 1 ) = 1 1 φ 2 e (1 φ2 )X1 2/2σ2 (1.25) 2π σ f (X 2 X 1 ) = 1 1 2π σ e (X 2 φ 1 X 1 ) 2 /2σ (1.26) 2 log(l(φ,σ)) = 1 2 log(2π) + 1 2 log(1 φ2 ) logσ 1 φ2 )X 2 1 2σ 2 1 2 log(2π) log(σ) X 2 φx 1 ) 2 2σ 2 (1.27) 1.5.3 2.6.2 δlog(l(φ,σ)) δφ = 0 δlog(l(φ,σ)) δσ = 0 Eiginleikar ML d ˆφ ML N(θ, I 1 ), ˆθ ML, asymptotic, consistent, efficient. } og leysa fyrir φ og σ 1.5.4 Dæmi fyrir dæmatíma 2.4, 2.6, 2.10, 2.11, 3.3, 3.12, 3.16, 3.18. 2 Fyrirlestur 22. jan 2.1 Kafli 3 Maður hefur líkan og pælingar. Líkanið er þekkt en nokkra stika þarf að meta. Við höfum þekktar aðferðir. Til dæmis rúmfræðileg nálgun, hafa matið sem næst raunverulegu gildi. Hér þarf ekki að negla niður líkindadreifingu. Svo höfum við aðferðir eins og ML og MM en þá þarf að negla niður líkindadreifinguna. Meðmæli með aðferð minnstu kvaðrata að ekki þarf að negla niður líkindadreifinguna og einnig er hún þægileg í reikningum. Höfum svo venjulegu forsendurnar E(Y X) = Xβ,Y = Xβ + ε (2.1) 1 X 11... X 1k X =...... (2.2) 1 X n1... X nk Y = [Y 1...Y n ] (2.3) β = [β 0...β k ] (2.4) E(ε 1 ) = 0 (2.5) V(ε i ) = σ 2 (2.6) E(ε i ε j ) = 0 ef i j (2.7)

2 FYRIRLESTUR 22. JAN 6 Svo gerum við Þetta má svo leysa með fylkjadeildun. leysa svo fyrir β min(y Xβ) (Y Xβ) = min β (e e) (2.8) δ δβ (Y Xβ) (Y Xβ) = 0 e = Y Xβ (2.9) ˆβ = (X X) 1 X Y (2.10) AC Ŷ = X ˆβ = X(X X) 1 X Y = (I µ)y (2.11) e = Y Ŷ = Y X(X X) 1 X Y = (I X(X X) 1 X )Y = µy (2.12) Y = Ŷ + e (2.13) Ŷ er spá og e er frávik. Samanber Hilbert rúm, breyta hornrétt á aðra þá eru þær óháðar, fylgni núll. Því Ŷ e = 0 (2.14) ((I µ)y ) µy (2.15) = Y (I µ) µy (2.16) = Y (I µ)µy = Y (µ µ 2 )Y (2.17) (I µ) = (X(X X) 1 X ) = X(X X) 1 X = µ. Svo er µ 2 = (I X(X X) 1 X ) 2 = I 2X(X X) 1 X + X(X X) 1 X X(X X) 1 I = I 2X(X X) 1 X + X(X X) 1 X X = I X(X X) 1 X = µ µ og I - µ eru idempotent, µ = µ 2. Einnig kallað projection matrix. Við höfum hér einskonar hornrétta sundurliðun. Í Poirier kafla 5 er fullt af líkindalegum niðurstöðum og normaldreifða vigra. Því Y (µ µ 2 )Y = Y (µ µ)y = 0 (2.18) ˆβ = (X X)X Y = AY (2.19) A (2.20)

2 FYRIRLESTUR 22. JAN 7 Og Sjáum að E(ˆβ) = AE(Y) = (X X) 1 X E(Y) Xβ = β V (ˆβ) = AV (Y )A (2.21) = (X X) 1 X σ 2 IX(X X) 1 (2.22) = (X X) 1 σ 2 (2.23) σ 2 = e e/(n k). (2.24) Gert er ráð fyrir að við kunnum Gauss Markow setninguna. ˆβ BLUE ef ákveðin skilyrði uppfyllt. Gott að glugga í Poirier hvað þessi setning þýðir. Til miserfiðar sannanir á þessari setningu. Augljós sönnun ef maður kann fylkjaalgebru. Smá útúrdúr. Bls. 74 í bók. Data mining er þannig að maður byrjar með einfalt líkan og pælir svo í því hvort maður á að bæta við breytum. R 2 er skýrimáttur líkansins í kæruleysislegu tali. R 2 hækkar alltaf þegar breytum er bætt við. Menn vildu svo koma með stærð þar sem refsað er fyrir of margar breytur, þá var fundið upp R 2 adjusted. Þessi leiðrétta stærð er þó ekki með öllu gallalaus, höfum líka Akaike information criterion, AIC. AIC er bara annað form á því að hafa refsingu fyrir flókið líkan. Einnig til FPE (final prediction error) og það er líkt AIC. Svo er til eitt sem heitir Bayesean IC (BIC) = Schwarz (SC/SIC) og það er enn annað form. BIC og SIC er allavega það sama í einni vídd. Svo er eitt sem heitir Hannan Quinn (HQ). Þessi þrjú fyrstu munu allar ofmeta fjölda breyta í líkaninu. Við data mining munu þessar fyrst þrjár því valda því að líkanið stækkar upp úr öllu valdi. BIC og HQ eru hins vegar samkvæm (consistent) og breytu fjöldi mun stefna á rétt gildi. Hins vegar er ekkert víst að BIC og HQ standi sig vel í litlum úrtökum. Ef við höfum kenningaprófanir H 0 : Rβ = r H 1 : Rβ r Y = Xβ + ε metum líkan fyrst undir H 1 og svo undir H 0. Það er auðveldast að gera þetta í þessari röð. Notum svo LR = likelihood ratio = likelihood f allh 0 likelihood f allh 1. Maður lítur á likelihood sem fall af parameter en lítur á þéttifall sem fall af mælibreyta. Annars lítur formúlan fyrir likelihood fallið og þéttifallið eins út. Almennt gildir að 2logLR ca χ 2. Fjöldi frígráða er munurinn á fjölda metinna parametra á milli H 0 og H 1. Ef við setjum skilyrðin β 0 óbundið β 1 = 0... β k = 0 þá er q = fjöldi frígráða = k. Frígráðurnar eru rankið á R. F = (SSE H 0 SSE H1 )/q SSE H1 /(n k 1)

2 FYRIRLESTUR 22. JAN 8 Nýr X vigur, táknum hann C = [1 X 2 f...x k f ]. Besta spá er þá C β. Hér er gengið út frá því að β sé þekkt. Hér þýðir besta sú spá sem hefur minnsta væntanlega kvaðratvillu. Þá eigum við að spá með væntanlega gildinu. En ef við ætluðum að hafa spá sem lágmarkar væntanlega tölugildið af spávillum, þá notum við miðgildið. Spáum með b = ˆβ, metnum parametrum. Hér er tvenns konar túlkun möguleg. 1. Væntanlegt gildi þeirra með eiginleika C. C er e-r eiginleiki og maður pælir í því hvernig þessi eiginleiki tengist Y. 2. Spá fyrir einstakt Y gildi eintaklings valinn af handahófi sem hefur eiginleika C. Kíkjum aðeins á tvö varíans hugtök. c b c β V (c b) N(0,1) V(c b) = c V(b)c ef σ þekkt c b c β s c (x x) 1 c t n k Getum fundið öryggismörk fyrir E(Y X=c). Í bók er þetta jafna 3.47 (case a eða 1 hér að ofan). Svo er það hin jafnan, 3.48 og ekki má rugla þessum tveim saman (case b eða 2 hér að ofan). Spurningin er V(Y X=c) =?. V(Y X=c) = σ 2. 100 +/- 1.96σ. Kannski svoldið ónákvæmt því að sigma getur verið háð x gildinu, t.d. ef X er þyngd og Y hæð. Meta þarf σ. Spámörkin eru Y Y spá s 1 + c (X X) 1 c t n k (3.48) Passa verður að rugla ekki saman 3.47 og 3.48. Kíkja á appendix 3.4 um útleiðslu á metli og vera viss um að skilja þetta. Til hliðsjónar má hafa appendix aftast í bók. Kíkja líka á jöfnu 3.38 í bók. 2.1.1 Dæmi úr bókinni 3.3, 3.12, 3.16, 3.18. 2.2 Kafli 4 Þekkjum flest af þessu úr hagrannsóknum I. Ýmis vandamál koma upp í regression. Eiginleikarnir um að sjálffylgni ekki til staðar er stundum kallað white noise, dreifni fasti og ekki fylgni á milli einstakra tímapunkta. Gaussiona white noise þýðir svo að það sé normaldreift. White noise er venjulega skilgreindur í tíma en í raun ekkert sem bannar okkur annað samhengi. 2.2.1 Ýmis vandamál 1. Heteroskedcity (misdreifni). 2. Skýristærðir of margar. 3. Skýristærðir of fáar. 4. Form á breytum.

2 FYRIRLESTUR 22. JAN 9 5. X ekki full rank. 6. Tengsl X við ε (afgangslið). 7. Ósístæðar breytur. Þetta eru allt fyrirbæri sem geta valdið vandræðum í regression. Afleiðing fyrir OLS: Villandi t gildi. t gildi sem fylgja OLS verða ekki réttu t gildin. Þetta þýðir að ályktunarfræðin brenglast. Maður sóar tölfræðilegum krafti, getur fengið of hátt R. Ef skýristærðir vantar í líkan þá er það nánast bókað bjögun og nonconsistency. Hinar skýristærðirnar fara að e-u leyti að leika hlutverk þeirra sem vantar. Jafnvel þó að við stækkum úrtakið þá hverfur bjögunin ekki. Frægt dæmi er um tengsl fæðingartíðni og innflutnings á bárujárni. Form á breytum, t.d. ef við höfum X en ættum að hafa X 2, þá erum við bersýnilega að mistúlka áhrifin af X. Þetta myndi ekki lagast þó að við myndum fjölga punktunum. X er ekki full rank. Þá er ekki hægt að umhverfa X. Hér eru þó til lækningar. Tengsl X við ε. Nonconsistency. Þetta getur til dæmis gerst þegar X er mælt með mæliskekkju. Til dæmis Sannleikur : Y = Xβ + ε Met : Y = X β + u X = X +V Hér gæti X verið vísitala sem mæld er með skekkju og taka þyrfti tillit til skekkjunar ef nota á vísitölun. Ósístæðar breytur. Hér er hætta á falskri fylgni. Hér þá hætta á villandi ályktunum. Lesa kaflan um gagnagröft sjálf. Sömuleiðis um Chow próf. Chow próf eru bara venjuleg F próf. Maður skiptir mælingamenginu í tvennt og kannar svo hvort sama regression gildir um báða hlutana. Við megum sleppa Hanson prófinu í bókinni, skoða það allavega lauslega. Við tökum fyrir CuSum og CuSumSq. Þetta eru grafísk próf. Þykja ekki mjög vísindaleg próf. Hugmyndin er sú að CuSum skoða ˆε t og ˆε2 t Við munum fara nokkuð dýpra í recursive regression heldur en gert er í bókinni. Helgi styðst við Harvey bókina í þessari umfjöllun. Hugsum okkur að gefið sé b t (mat á β) og tilsvarandi A t = (X t X t ) 1 b t = (X X) 1 XY þar sem Yt er vigur af k mælingum og X = X fylki fyrir k mælingar.þetta eru e-r byrjunarskilyrði en ekki þarf að pæla mikið í þeim. b t+1 = b t + A t X t+1 (Y t+1 X t+1b t )/ f t+1 (2.25) A t+1 = A t A t X t+1 X t+1a t / f t+1 (2.26) f t+1 = 1 + X t+1 tx t+1 (2.27)

2 FYRIRLESTUR 22. JAN 10 Leiða má þetta út með almennri skynsemi. Þetta er endurtekning notkun á reglu Bayes við mat á hallatölunni. Velja má byrjunargildin b = 0 og A = 10 10 I. v t+1 = Y t+1 X t+1b t (4.27) þar sem v t er kallað recursive residuals. Þetta er hentug aðferð því þetta hentar mjög vel í tölvuvinnslu. Við getum einnig reiknað þetta þó að X sé singular (ekki full rank). X getur verið singular fyrir t.d. ef mælingarnar voru fyrir tilviljun ekki nógu margar. Ef við setjum variance sem hér er A, stórt þá þýðir það að við vitum lítið um viðfangsefnið. Ath! v t óháðir (n-k) eins og stendur í jöfnu 4.29 (OLS afgangsliðir (n) e t ekki óháður). Við fáum jafnmarga v óháða afgangsliði eins og við höfum e afgangsliði. Maður kíkir á stærðina W t = e e χ 2 n k t v j / ˆσ (2.28) j=k+1 S t = t j=k+1 v2 j (n k) ˆσ 2 (2.29) við erum að leggja saman recursive residuals og sjá hvernig þeir þróast. Getum svo skoðað þetta Wt S t á mynd. Ef mikill breytileiki er á einum stað á myndinni þá er það merki um misdreifni (þegar S skoðað). Þegar löng runa af póstitífum residuals (þegar Wt skoðað) þá er það gruggugt. 2.2.2 Dæmi 4.4, 4.8, 5.4, 5.2.

3 FYRIRLESTUR 29. JANÚAR 11 3 Fyrirlestur 29. janúar 3.1 Kaflar 5 og 6 3.1.1 Maximum likelihood L = sennileikafallið, f = þéttifall, θ er parameterinn og y er gagnavektor. L: parametersrúm information.. I er L(θ Y ) = f (Y θ) l(θ) = log(l(θ Y )) δl(θ) δθ = score ˆθ ML er lausn á δl δθ = 0. ( δ 2 ) l(θ Y ) I = E δθδθ ˆθ ML d N(θ,I 1 (θ)) plim(ˆθ) = θ p X n X p( X n X < ε) n 1. ˆθ ML er asymptotiskt efficient. Nýtir upplýsingarnar best. Cramer Rao mörkum náð. Þessi ójafna setur mörk á hversu nákvæmur upplýsingar hægt er að kreista út úr úrtakinu. Að θ ML ˆ þýðir það að í stórum úrtökum er þetta sú upplýsingaaðferð sem kreistir mestar upplýsingar út úr úrtakinu. Á síðustu 30 árum hefur likelihood menningin orðin mjög öflugur í allri ályktunarfræði. Við munum eftir sufficiency úr tölfræði II. ð ˆθ ML er fall af sufficient statistic ef hún er til. Invariance princippið, ef við breytum með einfaldri vörpun líkaninu þá er ˆθ ML alveg óbreyttur, t.d. ef breytt úr króunum í dolllara. Alls ekki sjálfgefið að þetta gildi. Þetta má skrifa ˆθ ML, ML mat á θ g(ˆθ ML ) er ML mat á g(θ). Fyrir línuleg líkön Y = Xβ + ε E(ε) = 0, V(ε) = σ 2 I ˆβ ML = ˆβ OLS Tölfræðilega líkanið fyrir gögnin lítur út svona Y N(Xβ,σ 2 I) ( ) 1 n ( ) 1 n/2 f (Y β,σ 2 ) = 2π σ 2 e (Y Xβ) (Y Xβ)/2 σ2 θ l(β,σ 2 ) = n 2 log(2π) nlogσ (Y Xβ) (Y Xβ)/(2σ 2 ).

3 FYRIRLESTUR 29. JANÚAR 12 Beitum svo smá fylkjareikning. = 2X (Y Xβ) = 0 ˆβ = (X X) 1 X Y e = Y Ŷ = (I X(X X) 1 X ) Y µy δl δσ = 0, σ 2 ML = 1 n e e. biased metill Varðandi tölfræðileg próf. Við höfum núllkenningu, valkost. Svo getum við hafnað H 0 og maður ákveður fyrirfram hve oft maður má hafna. Kenningar eru non-nested hypothesis ef þær eru ekki sértilfelli af H 0. 3.1.2 LR likelihood ratio Grundvallarhugmyndin er sú (sbr. kafla 7.3 í Poirier) að maður reiknar Λ = L H 0 L H1 þar sem L H0 eru líkur á H 0 (líkur á mældri útkomu, Bayesenar reikna hinsvegar samskonar stærð, hjá þeim er θ hendingin) og L H1 eru líkur á H 1. λ = logλ, 2λ χ 2 (q) q = #H 1, #H 0. þar sem # er fjöldi parametra. Þetta gildir ef regularity skilyrði gilda. Höfum [.... Y = X β +ε k vidur H 0 : Rβ = r Rank(R) = k q Y = β 0 + β 1 X 1 + β 2 X 2 + ε ] β 1 β 2 = 0 [01 1][β 0 β 1 β 2 ] = 0 R [ ] β = [ ] r Gott að hafa góðan skilning á línulegu líkönin og þá er yfirleitt þægilegt að stíga út fyrir línulegu líkönin. Það að reikna L H0 krefst þess að við framkvæmum skilyrta hámörkun. 3.1.3 Wald prófið Jafngild LR prófinu í stórum úrtökum. Gott að nota þegar erfitt að framkvæma skilyrtu hámörkunina í LR prófinu. Wald = frávik frávik I 1 H 1

3 FYRIRLESTUR 29. JANÚAR 13 3.1.4 LM prófið Þetta próf er næstum því eins. Það þarf að stinga inn. Það er til rosa auðvelt trix til að reikna LM prófið. Þessu trixi er kannski líkt í heimad. 3 tölfr. II. LM er heppilegt ef líkanið er bara viðráðanlegt undir H 0. Útvíkkum nú aðeins línulega líkanið. Við höfum haft Y = Xβ + ε E(ε) = 0, V (ε) = σ 2 I ˆβ OLS = (X X) 1 X Y Hvað ef? Það er, V(ε) = Ω σ 2. V(ε) σ 2 I E(ˆβ) = (X X) 1 X E(Y) = (X X) 1 X Xβ = β. unbiased Estimatorinn verður enn unbiased. Variansinn verður V(ˆβ) = (X X) 1 X V (Y )X(X X) 1 = (X X) 1 X ΩX(X X) 1 σ 2 ef við látum eins og raunveruleikinn sé ˆβ N(β,σ 2 (X X) 1 ) þegar hann er ˆβ N(β,σ 2 (X X) 1 X ΩX(X X) 1 ) þá verða ályktanir um ˆβ villandi. t-gildi stikanna verða röng. Ω gæti haft misdreifni eða sjálffylgni. Ef við notum ranga dreifingu í ML (munurinn á ML og OLS er að negla þarf dreifingu í ML en OLS er rúmfræðileg) þá þarf að leiðrétta. Getum hugsað okkur það ef Ω = PP (choleski sundurliðun) og prófum ( = P 1 Y = P 1 Xβ + P 1 ε (Y = zβ + u,e(u) = 0,V (u) = σ 2 I) E(P 1 Y) = P 1 Xβ V (P 1 Y) = P 1 V (Y)(P 1 ) = σ 2 P 1 Ω(P 1 ) = σ 2 P 1 PP (P 1 ) = σ 2 I ˆβ OLS = (Z Z) 1 Z Y 1 X P 1 P X) 1 X (P 1 P 1 )Y = ( X Ω 1 X ) 1 X (P 1 P 1 ) Y Ω 1 = (X Ω 1 X) 1 X Ω 1 Y = ˆβ GLS.

3 FYRIRLESTUR 29. JANÚAR 14 Skoðum Y = αx + u ˆα = Y X X 2 α = 1 n Y/X ᾱ = y X Gerum þetta nú þannig að maður skilgreinir dreifinguna Ω stendur fyrir varíans fylki í Y. 3.1.5 Kafli 6 Y N(Xβ,σ 2 Ω) l = n 2 log(2π) 1 2 log Ω 1 2 (Y Xβ) Ω 1 (Y Xβ) δl δβ = 0 2 2 X Ω 1 (X Xβ) = 0 δl δσ 2 = 0 ˆ σ 2 ML = 1 n (Y Xβ) Ω 1 (Y Xβ) Í kafla sex er heilmikið um allskonar próf fyrir misdreifni og sjálffylgni. Mörg þessara tekin fyrir í hagrannsóknum I. Athugið að Breusch-Pagan er LM próf sbr. viðauka 6.1. Ágætt að kíkja á það. Cockrane Orcutt er aðferð til þess að leiðrétta fyrir sjálffylgni. Er að mati Helga alveg úrelt. Tillaga, parameterasa Ω = Ω(θ) og meta θ með ML númerískum aðferðum. Helga finnst þetta slá þessum kennslubókaraðferðum út. Áhrif mæliskekkja skipta máli. Hvað þýðir það að mæliskekkja í X breytum? Ef sanna líkanið er Y = Xβ + ε og svo mælum við Y = X β + u og ef X = X + v E(u) = 0 V(u) = σ 2 u = Xβ + (X X)β + u ε u = ε (X X) β villa Hér er Helgi að tala um innbyggða mæliskekkju sem er alltaf til staðar. Til dæmis ef maður mælir hæð með tommustokk, hve mikil er mæliskekkjan? Mæliskekkjan leiðir til að ˆβ OLS er biased (hlutdrægur) og ekki consistent. Ekki cconsistent þýðir t.d. að bias stefnir ekki á 0, í öðrum tilfellum gæti það þýtt

4 FYRIRLESTUR 5. FEB 15 að dreifnin stefni ekki á 0. Þó að við stækkum úrtakið þá stefnum við ekki á sannleikann. Þetta má sjá með því að líta á e-a svona jöfnu ˆβ = β + (X X) 1 X ε tek plim í gegn (þægilegt með plim að má gera þetta) plimˆβ = β + plim( 1 n X X) 1 plim 1 n X ε ε 1 XX xε 1 = β + Þá er það spurningin hvað er til ráða. Hér blasir við að við myndum kerfismeta vitlaust samband x og y, við nálgumst ekki sannleikann. Trixið er að taka u jöfnuna og margfalda í gegn með e-u, þá eyðir maður villunni í burtu. Notum instrumental breytu, köllum hana bara z. z á að vera ócorreleruð við v=villa og eins mikið correleruð við x og hægt er. Þá fær maður xx + xε zy = zx β + zu ˆβ N = (X P z X ) 1 X Pz 1 Y P z er ofanvarp X á Z Þetta er stundum kallað two stage least squares, fyrsta skrefið er þá að regressa ˆX = Z(Z Z) 1 Z X og skref 2 er að meta líkan með ˆX í stað X. Vandinn er að finna instrument, maður vill hafa mörg instrument og slá út villuna. Helga finnst í rannsóknum svolítið ad hoc aðferðum beitt við að finna instrument. Þegar við lesum um misdreifnipróf og önnur próf þá er gagnlegt að bera saman Newbold kafla 14, Thomas kafla 10 og kennslubókina. Eitt case í viðbót sem leiðir til ekki consistency í OLS, tafin háð breyta + sjálffylgni leiðir til OLS ekki consistent. Nú til dags þá lagfærir maður bara fyrir þessu ef mann grunar að sjálffylgni fyrir hendi. Ef maður sleppir mikilvægri breytu í líkani, þá þýðir það bias. 3.1.6 Dæmi 5.1-5.4, 6.7. Kennslubókin ber þess svolítið merki að hún hefur verið margendurskrifuð, hlutirnir eru tvist og bast í bókinni. Í kafla 6.9 er hlutur sem kallast ARCH, það er visst form á misleitni. Þetta á eiginlega heima í kafla 7. 4 Fyrirlestur 5. feb Síðast: Misdreifni, sjálffylgni og mæliskekkjur. ˆβ GLS = (X Ω 1 X) 1 X Ω 1 Y þar sem vesen er að finna Ω en nota má ML í það. GLS instrumental - two stage LS. Geymum GARCH í kafla 6.9.

4 FYRIRLESTUR 5. FEB 16 4.1 Kafli 7. univariable tímaraðir X 1,X 2,...,X n X t = f (X t 1,X t 2,..., u t ) f ortid innovation svo má útvíkka þetta þ.a. X-ið verði margvítt (jafna 7.12). Box Jenkins kokkabókin skrifuð 1970 með kokteil af líkindafræði og tölfræði. Jenkins hafði áður skrifað bók um spectral greiningu. Box tengdasonur Fischers sem kom með ANOVA og fleira. Þetta er í stórum dráttum það að fást við vandamálið að við höfum tímaraðir og þurfum að álykta e-ð. Höfum AR(1) = Auto Regressive X t = φx t 1 + ε t ε t whitenoise E(ε t ) = 0, V(ε t ) = σ 2 E(ε t ε s ) = 0 e f t s. AR(P) X t = φ 1 X t 1 +... + φ t X t p + ε t Svo höfum við Moving average MA(q). Svoldið villandi nafn, skiljanlegra væri að kalla þetta moving sum. X t = ε t θ 1 ε t 1... θ q ε t q blöndum þessu svo saman ARMA(P, Q) X t = φ 1 X t 1 +... + φ p X t p + ε t θ 1 ε t 1... θ q ε t q innovation Til að gagnasöfnun með tímaröðum sé nothæf þá þarf ergodic skilyrðið að vera uppfyllt. Eiginleiki sem við verðum að hafa. Þýðir að mælingar langt frá hvor annari næstum óháðar. Viljum að X stackrel p µ. Svo verðum við líka að hafa sístæðni. Þýðir gróflega séð að eiginleikar raðarinnar séu óháðir tímahliðrun. Höfum weak E(X t ) = µ E(X t µ)(x t k µ) = γ(k) autocovariance f unction stundum líka kallað white sense stationary. Svo höfum við strict stationary F(X t1,...,x tk ) = F(X t1+n,...,x tk+n ). Óháðar Cauchy hendingar eru t.d. strictly stationary. En meðaltal og covariance er ekki til fyrir Cauchy þ.a. það er ekki weakly stationary.

4 FYRIRLESTUR 5. FEB 17 Getum metið líkan útfrá ósístæðum ferlum ef við höfum t.d. monte carlo með 1000 köstum. Erfitt að prófa hvort röð er ergodic. Hjá sístæðum tímaröðum er mean function bara constant (autocovariance function). γ(k) ρ(k) = γ(k) = autocorrelation f unction(ac f ) γ(0) γ(0) γ(1)... Ω =..... γ(0) X t = φx t 1 + ε t, E(X t ) = 0. E( X t 1 X t γ(1)=φγ(0)+0 ρ(1)= γ(1) γ(0) =φ = φxt 1 2 + ε t X t 1 ) þetta verður svo strax erfiðara fyrir AR(2) X t 1 X t = φ 1 Xt 1 2 2X t 1 X t 2 + X t 1 + ε t X t 2 X t = φ 1 X t 1 X t 2 + φ 2 Xt 2 2 t 2ε t γ 1 = φ 1 γ(0) + φ 2 γ(1) + 0 γ 2 = φ 1 γ(1) + φ 2 γ(0) og þessar síðustu tvær kallast Yule walker jöfnur. Þetta eru tvær óþekktar (φ 1 φ 2 ) og má leysa fyrir φ 1 og φ 2. ε t -ið lætur stochastic koma í dæmið. Getum vel gert úrtaks covariance. Með úrtaksstærðum má ná mati á gömmunum. ˆγ(k) = 1 n n t=k+1 Hvað kallast þessi vinnubrögð? Least squares er (X t X)(X t k X) min φ 1 φ2 (X t ˆX t ) 2. En vinnubrögðin hér fyrir ofan er Method of moments. gamma 1 og 2 eru fræðileg úrtök. Yule var uppi um 1920. Höldum nú aðeins áfram að skoða AR(2). LX t = X t 1 BX t = X t 1 FX t = X t+1 = 1 L X t = X t X t t 1 og þá getum við skrifað X t = φ 1 LX t + φ 2 L 2 X t + ε t X t (1 φ 1 L φ 2 L 2 ) = φ(l)x t

4 FYRIRLESTUR 5. FEB 18 Mismunajöfnur eru ofboðslega líkar diffurjöfnum. Diffurjafna á borð við y + ay + by = 0 lýsir dýnamískum eiginleikum y í tíma. Mismunajöfnur eru diffurjöfnur í strjálum tíma. Skoðnum nú φ(z) = 1 φ 1 Z φ 2 Z 2 = (1λ 1 Z)(1 λ 2 Z) rætur eru utan einingarhrings ef X t stationary. Í fjármálatölfræði dx = deterministic + stochastic, liða þetta í spáanlegan hluta og í óspáanlegan hluta. AR(2) veiðir bara út eina sveiflu því cos samsvarar bara einni tíðni. Til að hafa margar sveiflur þá þurfum við að vera með flóknari dýnamískan strúktur. 4.1.1 Partial Autocorrelation function, PACF Mjög svipað og partial correlation. pacf φkk = fylgni X t og X t k gefið X t 1,..., X t k+1, þetta er skilyrt fylgni. Sjá töflu 7.1 sem tengir autocorrelation, partial autocorrelation eiginlega og hvort þetta er AR eða MA eða ARMA líkan. Sjá útleiðslur 213 og 214, skilja þessar útleiðslur. Næsta skref er að pæla í því hvernig hagmælingar passa í þetta kerfi. Gefum okkur stationary forsendur. Könnum hvort mismunur X t er stationary. Ef d X t er ARMA(p,q) þá X t er ARIMA(p,d,q) þar sem I stendur fyrir integrated. Ef d X t er stationary þá er sagt að X t er I(d). Oft tekinn logrinn fyrst með svona hagraðir. Það er gert því breytingar í hagröðum eru relativar (prósentubreytingar) en aðferðarfræðin gengur út á að skoða level breytingar (absolut breytingar). Með logrun breytir maður relativum breytingum í absolut. Kaflar 14 og 15 í Thomas eru mjög gagnlegir. Þar er um stationarity og próf fyrir stationarity. Við getum séð X t = φx t 1 + ε t = φlx t + ε t (1 φl)x t = ε t φ(l) og við getum deilt 1 - φ Z upp í 1 + φ Z + φ 2 Z 2 +... X t = ε t 1 φl = (1 + φl + φ2 L 2 +...) + ε t = φ j ε t j j=0 Höfum Wold decomposition theorem, stationary process = deterministiskur process + MA( ). Wold sannaði þetta um 1930. Wold sagði að hagfræði sé ekki simultan vísindagrein og því henta tímaraðir betur en simultan jöfnur. Kíkjum núna aðeins á óstationary líkön. Hagraðir virðast almennt ekki vera stationary. Til að átta sig á því hvernig óstationary raðir hegða sér þá hafa Jack og John hermt slíka ferla. Sjá bls. 216. Það að fyrsti mismunur sé constant þýðir e-rs konar trend. Y 1 (1 αl)y t =... + ε t, α = 0,95 Y 2, α = 1 Y 3, α = 1,05 Y 4 (1 αl)(y t δ 0 δ 1 t) = ε t, α = 0,9 Y 5, α = 1.0

5 FYRIRLESTUR 12. FEB 19 þegar rótin er = 1 á einingarhringnum þá glatast sístæðnin. Í α = 1,05 þá er þetta explosivt. Gott að skilja mismunin á milli þessara tilvika. Svo skoðar hann correlogram. Við skoðum ˆρ sem eru metnir sjálffylgnistuðlar. Rétta ρ er 0,95 en hann fær fyrst 0,882. Myndin í heild sinni myndi hafa svipaðan caracter ef við myndum sjálfir gera þessa tilraun. Y t = δ 0 (1 α) + γy t 1 + ε t γ = α 1 Y t = β 0 + γy t 1 + ε t ef H 0 rétt þá höfum við kvaðratískt trend H 0 : α = 1 γ = 0 H 1 : α < 1 γ < 0 Sagt er frá Dickey Fuller prófum. Tafla í bók. Ath. að bók gefur sér að ε t sé white noise, þá augmented dickey fuller. 5 Fyrirlestur 12. feb Kíkja á töflu bls. 216. Prófa að gera óháðar svona raðir líka og reikna fylgni á milli þeirra. Nú í dag förum við í kafla 7.4. Stundum eru heil námskeið bara um kafla 7.4. 5.1 7.4 Sístæðar tímaraðir Aðferðarfræði til að búa til spár fyrir eina röð. Spectral fræðin er tíðni nálgun á tímaraðir. Í einni setningu: Ef við lítum á 100 ára tímabil og lítum á hagsveiflu þá getum við kannski sagt að 5 ár séu á milli toppa eða 20 toppar á 100 árum. Munurinn hér er bara að sveiflurnar eru skoðaðar með mismunandi gleraugum. Tíðniskoðunin segir okkur ekkert nýtt, bara nýtt sjónarhorn. Box Jenkins 1. Identification. Í hefbundnum hagrannsóknum þýddi þetta áður að hægt var að leysa parametra út úr strúktúreðum líkönum. Verkfræðingar slá stundum identification og estimation saman og kalla bæði skrefin identification. 2. Estimation 3. Diagnostics 4. Forecasting Hugmyndin hér er að nálga stationary ferli með ARMA líkani. Arma líkan hefur myndina X t = φx t p + ε t θ 1 ε t 1... θ q ε t q φ(l)x t = θ(l)ε t Rætur φ(z) utan einingahrings X t stationary. Rætur θ(z) utan einingahrings (invertable framsetning s, θ i einhlítt ákvarðaðar). invertable skilyrðið er bara til að hægt sé að skoða theturnar. Athugið að eftirfarandi eru jafngild X t = ε t 2ε t 1 X t = e t 1 2 e t 1

5 FYRIRLESTUR 12. FEB 20 Arma líkön eru þó ekkert sérstaklega áhugaverð þar sem þau eru sístæð. Því var búið til ARIMA líkön. Y t er I(d) ef d Y t = (1 L) d 1/t er stationary ef X t = d Y t er ARMA(p,q) Y t ARIMA(p,d,q) Ath. að j θ j X t j = ε t X t = θx t 1 + θ 2 X t 2 +... + ε t 5.2 Identification skrefið, ákveða p,d,q Leyst með því að skoða úrtaksstærðir Sjá töfluna í bók með acf, pacf, ar, ma, arma. ρ 1.1 ˆ, ρ ˆ.2,... φˆ 11, φˆ 22,... ˆρ i = úrtakssjálffylgni acf φˆ ii = úrtaks partial acf min p,d,q= log ˆσ 2 + P + q logn n BIC(Schwarz Hér þarf að velja fullt af líkönum. Þurfum að meta aragrúa af líkönum með fullt af gildum á p,d,q. Þetta var ekki boðlegt þegar lítið var um tölvur og því höfðu Box og Jenkins sérstakt estimation skref þar sem þessir óþekktu parametrar metnir. Þegar við vinnum gögn þá er það alltaf þessi gangur. Velja líkan, mat á óþekktum parametrum út frá mælingum. Svo diagnostics - pæla í því hvernig líkanið stendur sig. Og svo notkun, í hagrannsóknum er það oft spágerð. 5.2.1 Estimation Nokkur prinsipp á bakvið estimationið 5.3 a) Method of moments. Elsta aðferðin. Nota reiknireglur fyrir væntanlegt gildi og varíans. Skrifa líkanið. Reikna fræðilegt gildi af momentum. Getur verið fall af óþekktum parametrum. Leysa svo fyrir óþekkta parametra. Yule-Walker X t = φ 1 X t 1 +... + φ p X t p + ε t X t 1 = φx t 2 +... + φ p X t p 1 + ε t 1 margfalda svo í gegn og taka væntanlegt gildi X t k X t = X t k φ 1 X t 1 +... + φ p X t p X t k + ε t X t k p óþekktir parametrar og nota p jöfnurγ(0) ˆ =..., γ(1) ˆ =...,..., ˆγ(p ) E(X t k X t == φ 1 E(X t 1 X t k ) +... + φ p E(X t p X t k ) + E(ε t X t k ) cova f laggik

5 FYRIRLESTUR 12. FEB 21 Gætum leyst þetta ef við vissum gömmurnar (p óþekktu). Stingum inn útaksstærðum fyrir þær og köllum lausn. Þetta er consistent lausn en ekki efficient. Þó er hún asymptotiskt efficient. Leysi jöfnur og kalla lausn Fyrir MA(1) ˆφ MM = (ˆφ 1,..., ˆφ p ) X t = ε t θε t 1 γ(1) = E(X 2 X t 1 ) = θσ 2 V (X t ) = (1 + θ 2 )σ 2 Tíska í hagrannsóknum að bæta G fyrir framan MM og kalla generalized method of moments. GMM velur það φ sem leysir jöfnurnar sem best. Þessar jöfnur geta verið milu fleiri en p. Athugið að dreifingin á ε kemur ekki við sögu hér. Eina sem skiptir máli er að momentin séu til. Yule Walker er sem sagt method of moments aðferð. 5.4 b) Least Squares. Viljum leysa lágmörkunar vandamálið min φ,θ n t=? (X t ˆX t ) 2 ˆX t = φx t 1... θˆε t 1... Hvernig á að giska á gömlu ε? Hvað er ˆε t? Ein sniðug aðferð er að nota recursive least residuals. ˆε t er metin spáskekkja. Ath að OLS residuals ekki óháðir, þeir summast í 0. Hvernig á að byrja? Hvað er ˆX 1? Getum byrjað í X max (p,q) + 1. conditional least squares, auðvelt að forrita þessa aðferð. Önnur lausn er að spá aftur í tímann, backcasting. Snúa röðinni við og spá aftur í tímann 5.5 c) Maximum likelihood. n (X t ˆX t ) 2 unconditionalleastsquares Langerfiðasta aðferðin. Þarf alltaf að skrifa niður dreifingu hér. Það þarf ekki að gera í least squares. Festi dreifingu á ε t. Ágætt að muna eftir margvíðu normaldr. Aðallega áhugavert ef ε N því summa normaldreifðra afgangsliða er normaldreifð. X = [X 1,...,X n ] N(0,σ 2 Ω) þar sem Ω er covariance fylki. Mjög flókið fall. Erfitt að skrifa niður nema kannski fyrir einföld líkön eins og AR(1) og MA(1). Í einvíðu er Ω = 1. Þáttum Ω til að geta tekið aðra rót. Ansley fattaði þetta og þá varð auðvelt að reikna þetta fyrir normaldreifingu. f (X φ,θσ) = 1 1 1 Ω 1 X 2σ 2 2π σ Ω 2 e X logl = log f (Xφ,θ,σ) = logσ 1 2 log Ω 1 2σ 2 X Ω 1 X

5 FYRIRLESTUR 12. FEB 22 Fyrir AR(1) er Ω σ 2 Ω = σ 2 x φσ 2 x φ 2 σ 2 x...... σ 2 x E(X 2 t ) = σ 2 X = γ(0), E(X t X t 1 ) = γ(1) Til aðferðir (t.d. Durbin Levinsson) til að reikna Ω. Önnur leið oft sniðug leið til að skrifa likelihood fallið. Skrifa má f(x 1, X 2 ) = f(x 2 X 1 ) * f(x 1 ). Fyrir AR(P) f (X p+1 X 1...X p ) = f (X p+1 X 1...X p ) f (X 1...X p ) predictivadrei f ingin (X p+1 X 1...X p ) N(φ 1 X p + φ 2 X p 1 +... + X p X 1 σ 2 ε) autoregressionas jal ftsig Þannig að ef við getum reiknað Ω fyrir f(x 1... X P ) þá þurfum við ekki meira. Þessi aðferð gengur ekki fyrir MA því þá ekki hægt að þátta fortíðina á þennann hátt. Fyrir MA(1) 1 + θ 2 θ 0... 0 Ω = σ 2 θ 1 + θ 2 θ 0............ Þetta er svona bandfylki. Band í ferningum í hornalínu sem 0 en allt hitt núll. Efe X t er ARMA, búa til nýja breytu { } Xt, ef t í max (p,q) H Z t =. 1 φ 1 X 1 φ 1 X t p, annars.... 0 E(ZZ ) =...... = ll. 0..... og V(e) var diagoanl fylki. Og að umhverfa hornalínufylki er ekkert mál. Flest ný forrit nota þetta ML-trix. Við eigum að kunna prinsippin fyrir ML og MM. Geta leitt þetta út fyrir einföld líkön. Kunna trixið með margvítt þéttifall f(x 1, X 2 ) = f(x 2 X 1 ) * f(x 1 ) en þetta með að varða Ω skiptir ekki höfuð máli. Oft í gagnavinnslu skiptir öllu að láta sér detta í hug teknísk trix. ML eiginleikar: besta nýting á upplýsingum. Verðum að hafa rétta forritið til að fá samkvæm möt. Dreifing má vera vitlaus. Til dæmis nota normal ef ekki N en þá minnkar nýtni. Consistent möt á parametrum en t gildi vitlaus. Má leiðrétta með samlokuaðferðum.

5 FYRIRLESTUR 12. FEB 23 5.6 d) bayesískar aðferðir Tjá okkur um upplýsingar með líkindadreifingu. Apriori dreifing á (φ, θ, σ) táknað π(φ, θ, σ). Ef parameter rúm endanlegt þá getur apriori verið constant. Þurfum að setja vogir á rauntalnaásinn ef óendanlegt param. rúm svo að heildist í 1. likelihood fall fyrir ARMA ferli er π(x φ,θ,σ) X t = φx t 1 + ε t θε t 1, ε N(0,σ 2 ) Nota svo reglu Bayes til að reikna aposteriori dreifingu π(φ,θ,σ) = π(x φ,θ,σ) π(φ,θ,σ) π(x φ,θ,σ) π(φ,θ,σ)dφdθdσ Að reikna þetta er þó mjög erfitt. Margir hafa reynt að sneiða fram hjá þessu með hermunum (kafli 11). Markow chain, Monte Carlo. Gott að nota Bayes aðferðir í hagfræði því setja fram skoðanir um líkan í apriori dreifingu. Ekki auðvelt að steja fram prior fyrir ARMA líkön. Þó hægt að reyna t.d. að setja skoðun um lengd hagsveiflna inn, það er þó smá bögg. Við stöndum alltaf frammi fyrir að ákveða hvernig velja á stika. Stór hluti ástæðu fyrir velgengni Box-Jenkins var áhersla þeirra á diagnostics. Þá skoðum við ˆε t. Ef vel tókst til þá á ˆε t að líkjast hvítu suði. Með líkanasmíðinni erum við að sigta út spáanlega hlutann. Skipta líkaninu í spáanlegan og óspáanlegan hluta. Ef ˆε t ekki líkt hvítu suði þá hefur sigtunin ekki tekist vel. Skoðum t.d. ACF, PACF, gröf: plotta ˆε t á y-ás og tíma á x-ás. Skoðum líka CUSUM, CUSUMSQ sem eru einföld grafísk próf. Ef mikil sjálffylgni er í ˆε t ættum að geta spáð því e-r spáanlegur hluti eftir í leifarliðum og því sigun á spáanlega hlutanum ekki tekist nægjanlega vel. 5.6.1 CUSUM Skoðum E( t j=n ˆε j ) = 0, V ( t j=n t W t = ˆε j j=n höfum ˆε j ) = (t k)σ 2

6 FYRIRLESTUR 19. FEB 24 Því eðlilegt að cusum sveiflist innan ákveðinna marka. Ef fer út fyrir mörkin þá vísbending um að þetta of sveiflukennt og trent þátt vantar kannski í líkanið. Sumir normalisera með því að deila með ˆσ 5.6.2 CUSUMSQ W t = s t = 1 n t ˆε j j=n ˆσ t ˆε 2 j j=n Ef öll ˆε 2 u.þ.b. jafnstór vísbending um ekki misdreifni. Viljum að þetta fylgi u.þ.b. 45 gráðu línu og setjum e-r mörk á þetta. Sjá töflu fyrir línur töflu D8 í bók. Prófin CUSUM og CUSUMSQ eru ágæt en hafa ekki mikið power. 5.6.3 Durbin Watson Durbin Watson er aðferð til að kanna sjálffylgni. DW u.þ.b. 2(1 - ˆρ). Viljum að (ˆρ ε (k)) 2 (*) sé lítil. Spurning hvað maður tekur marga liði í þessari summu. Það er breytilegt milli forrita. Box Pierce Ljung byggir á því að vega (*) og bera svo saman við χ 2 töflur. Að skoða ACF, PACF teikningar getur gefið vísbendingar um hvort bæta við MA eða AR liðum. Gera svo alltaf diagnostics og pæla í því hvar við erum að misstíga okkur. Í næsta tíma verður fjallað um forecasting (sbr. 3.4.6 í Poirier). 6 Fyrirlestur 19. feb Y t,arima(p,d,q) (1 L) d φ(l)x t = θ(l)ε t LX t = X t 1,φ(Z) = 1 φ 1 Z... φ p Z p = (1 λ 1 L)(1 λ 2 L)...(1 λ p L) BX t == X t 1,θ(Z) = 1 θ 1 Z... θ q Z q

6 FYRIRLESTUR 19. FEB 25 Rætur φ, θ utan einingarhrings. φ(z) 0,θ(Z) 0 ef Z 1. φ, θ ekki sameiginlegar rætur (ekki common factor). (1 φl)x t = (1 θl)ε t hvað ef φ = θ, þá X t = ε t hvað ef φ = θ, þá X t = ε t X = X + µ + γt +... Oft höfum við árstíðir í tímaröðum (season). Nálgast má þetta með tvennum hætti. Deterministiskt eða stókastískt. Svo verður að reyna að gera þetta rétt en í praktískri tölfræði veit maður aldrei hvað er rétt. Reynir bara að komast sem næst sannleikanum. Ef við segjum að margir hafi keypt skíði í fyrra þá er líklegt að færri kaupi í ár. Getum þá sett stókastískt seasonal AR þátt í líkan. Gætum líka sett MA þátt í líkanið. Þá verður líkanið e-n veginn AR : MA : X t = µ + φx t 12 + µ t X t = µ + θu t 12 + µ t Ef við veljum φ < 1 þá X stationary. Ef (1 - φz 12 ) þá höfum við tólf rætur á einingarhringnum og þá erum við komin með seasonal unit root og þá er X-ið ekki lengur stationary. Helgi hefur lagt ákveðinn skilning í þetta og borið undir gáfumenni í fræðunum. Ekki viss hvort þeir kunna þetta ekki eða hvort Helgi misskilur þetta. Túlkun Helga: Getum þá tekið seasonal mismun (1 L 12 ) D það er skoða X t X t 12. Þá þýðir það að við vitum ekki hvenær á árinu seasonið er. Það getur færst yfir árið. Getur einnig orðið misstórt. Hér getur annað hvort verið shock á X sem hverfur svo eða e-ð sem lifir alltaf eftir það. Dæmi: síldarsala Íslendinga. Salan var alltaf mest á þriðja ársfjórðung. Svo breyttist e-ð, síldin fór og loðnan kom í staðinn og hún veiddist á öðrum ársfjórðungi. Útflutningurinn hefur heldur ekki neitt eðlilegt meðaltal. Margar hagraðir hafa grip á borð við (1 - φz 12 ). Sumir nota stórt D oft yfir hvað þeir taka oft seasonal difference. Determiniski hluti seasonal er t.d. að setja dummy breytur inn. Til dæmis meta e-n parameter fyrir febrúar. Skíðasölu meðaltal fyrir febrúar. Ef maður gerir þetta þá er maður að negla niður ákveðinn strúktúr. Einnig mætti skella inn cos, sin liðum. Ef vottar fyrir determiniskum sveiflum í hagröðum þá eru þær árstíðarsveiflur. Hitastigið er alveg determiniskt. Vitum að meðalthitinn í jan er 10 gráðum lægri en í júní. Getum sett inn dummy þar. 6.1 Tölvuæfing úr kafla 7 Notum Gretl forritið. Æfingin í kafla 7 um unit root prófunina. Við eigum að gera dæmi 7.6 í kaflanum. Við endurtökum nú það sem er á bls. 227 augmented dickey fuller. Framkvæmum regression Y t = µ + γ t + φy t 1 + µ t reiknum svo t gildi. Nokkur reiknimál: RATS, SHAZAM, TSP, SORITEC, STATA, PK-GIVE, EVIEWS. Búum til tafðar breytur fyrir allar breyturnar og fyrsta mismun. Upphaflegu breyturnar

6 FYRIRLESTUR 19. FEB 26 eru Y1,..., Y5. Hægt að fara í Variables augmented dickey fuller. Helgi ætlar að reikna jöfnu 7.54 og fá út töflu 7.10. 200 mælingar. Veljum mælingar, Set range 101.200. Við fáum e-ð smá annað í constant og hallatölu en í bók því tími byrjar í 101 en ekki í 0 eða 1 eins og í bók. Setjum svo d Y 1 sem háðu breytuna og const, Y 1 1 og time sem skýribreytur í OLS og eigum að fá næstum því það sama og í bók a.m.k. Skoðum svo línu 8), -0,118 er phi stuðullinn, t-gildi -2,45 sem er eins og í bók. Berum t-gildið við töflu 7.9. Ályktum að núll kenning um non stationary er ekki hafnað. Sanna phi var 0,95. Það er mjög nálægt því að vera stationary. Prófum nú að sleppa trendinu (time) og þá kemur það sama og í Bókinni. Skoðum nú housing start bls. 238. Verið að spá í hvað er byrjað á mörgum húsum. Þetta stundum notað sem hagsveiflu indicator. Spurningin hvernig á að spá því. Við förum í Sample->Interpred as time series... og ekki árlegt. Svo Sample->Set frequency og veljum þar 12 1959.01 og Apply. Hugmyndin er að ath. seasonality. Forum svo í Data->Add variables->periodic dummies og þá bætast við 12 dummy breytur. Tökum housing start sem háða breytur og dummy sem skýribreytur. Summa seasonal dummy breytanna er alltaf einn og því við því búið að OLS klikki ef ákveðið form á dummy breytunum. Sleppum const vegna þessa. Forum í OLS og veljum HS sem háða, const, dummy 1,.., dummy 1 2 sem háðar breytur. Des er lægstur og feb. Hér gerum við ráð fyrir að árstíðarsveiflan sé fast lögmál yfir allt tímabilið. Förum nú í R. skrifum >library(ts). Notum fallið ARIMA í ts. ESS er e-r emacs statistics. Skrifum svo >arima(hs, order=c(1,0,0),seasonal=list(order=c(1,0,0),period=12). fyrra order er (p,d,q) og seinna er (P,D,Q). Ekki víst að þurfi að gera period. Berum þetta svo saman við bls. 240 í bókinni og fáum næstum því það saman. Reiknum svo sjálffylgninga > ac <- ac(hs). >ac$acf[1:10] og þetta á að vera það sama og bls. 239.