Kvantitative metoder 2: Inferens i den lineære regressionsmodel1 Kvantitative metoder 2 Inferens i den lineære regressionsmodel 7. marts 2007.

Slides:



Advertisements
Lignende præsentationer
Inferens i den lineære regressionsmodel 19. marts 2007
Advertisements

Dummyvariabler 13. oktober 2006
Anvendt Statistik Lektion 4
KM2: F221 Kvantitative metoder 2 Specifikation og dataproblemer 2. maj 2007.
Økonometri 1: Specifikation og dataproblemer1 Økonometri 1 Specifikation, og dataproblemer 4. november 2005.
KM2: F171 Kvantitative metoder 2 Dummyvariabler 2. april 2007.
Økonometri 1: Instrumentvariabelestimation1 Økonometri 1 Instrumentvariabelestimation 14. april 2003.
Økonometri 1: Instrumentvariabelestimation1 Økonometri 1 Instrumentvariabelestimation 26. november 2004.
Statistik Lektion 6 Konfidensinterval for andele og varians
Økonometri 1: Dummy variable
Økonometri 1: F3 Økonometri 1 Den simple regressionsmodel 15. september 2006.
Økonometri 1: Specifikation og dataproblemer1 Økonometri 1 Specifikation, og dataproblemer 7. april 2003.
Økonometri 1: Binær responsmodeller: Logit og probit1 Økonometri 1 Binær responsmodeller: Logit og probit 8. maj 2003.
Kvantitative metoder 2: Inferens i den lineære regressionsmodel1 Kvantitative metoder 2 Inferens i den lineære regressionsmodel 12. marts 2007.
Økonometri 1: F121 Økonometri 1 Heteroskedasticitet 27. oktober 2006.
Økonometri 1: F61 Økonometri 1 Inferens i den lineære regressionsmodel 25. september 2006.
Økonometri 1: Inferens i den lineære regressionsmodel1 Økonometri 1 Inferens i den lineære regressionsmodel 1. oktober 2004.
Økonometri 1: Den multiple regressionsmodel1 Økonometri 1 Den multiple regressionsmodel 21. september 2004.
Økonometri 1: F81 Økonometri 1 Inferens i den lineære regressionsmodel 2. oktober 2006.
KM2: F261 Kvantitative metoder 2 Instrumentvariabel estimation 16. maj 2007.
Økonometri 1: Instrumentvariabelestimation1 Økonometri 1 Instrumentvariabelestimation II 7. december 2005.
Økonometri 1: Specifikation og dataproblemer1 Økonometri 1 Specifikation, og dataproblemer 9. november 2004.
Heteroskedasticitet 17. marts 2006
Økonometri 1: Heteroskedasticitet1 Økonometri 1 Heteroskedasticitet 22. marts 2006.
KM2: F191 Kvantitative metoder 2 Heteroskedasticitet 16. april 2007.
Økonometri 1: Specifikation og dataproblemer1 Økonometri 1 Specifikation og dataproblemer 2. november 2004.
Økonometri 1: Inferens i den lineære regressionsmodel1 Økonometri 1 Inferens i den lineære regressionsmodel 5. oktober 2004.
Økonometri 1: Inferens i den lineære regressionsmodel1 Økonometri 1 Inferens i den lineære regressionsmodel 3. marts 2006.
Økonometri 1: Instrumentvariabelestimation1 Økonometri 1 Instrumentvariabelestimation II 28. april 2006.
Kvantitative metoder 2: Den multiple regressionsmodel1 Kvantitative metoder 2 Den multiple regressionsmodel 5. marts 2007.
KM2: F251 Kvantitative metoder 2 Instrumentvariabel estimation 14. maj 2007.
Økonometri 1: Dummy variable1 Økonometri 1 Dummy variable 24. marts 2003.
Økonometri 1: Inferens i den multiple regressionsmodel1 Økonometri 1 Inferens i den multiple regressionsmodel 3. marts 2003.
KM2: F61 Kvantitative metoder 2 Den simple regressionsmodel 21. februar 2007.
Kvantitative metoder 2: Inferens i den lineære regressionsmodel1 Kvantitative metoder 2 Inferens i den lineære regressionsmodel 14. marts 2007.
Kvantitative metoder 2: Den multiple regressionsmodel1 Kvantitative metoder 2 Den multiple regressionsmodel 26. februar 2007.
Økonometri 1: Inferens i den multiple regressionsmodel1 Økonometri 1 Inferens i den multiple regressionsmodel 10. marts 2003.
Økonometri 1: Den simple regressionsmodel Økonometri 1 Den simple regressionsmodel 14. september 2004.
Økonometri 1: F151 Økonometri 1 Specifikation og dataproblemer 10. november 2006.
Økonometri 1: Den multiple regressionsmodel1 Økonometri 1 Den multiple regressionsmodel 24. februar 2003.
Økonometri 1: Inferens i den lineære regressionsmodel1 Økonometri 1 Kvalitative variable 8. marts 2006.
KM2: F181 Kvantitative metoder 2 Heteroskedasticitet 11. april 2007.
Økonometri 1: F41 Økonometri 1 Den multiple regressionsmodel 18. september 2006.
Kvantitative metoder 2: F31 Kvantitative metoder 2 Beskrivende statistik og analyse af kvalitatitive data 12. februar 2007.
KM2: F51 Kvantitative metoder 2 Den simple regressionsmodel 19. februar 2007.
Økonometri 1: F51 Økonometri 1 Den multiple regressionsmodel 22. september 2006.
Økonometri 1: Instrumentvariabelestimation1 Økonometri 1 Instrumentvariabelestimation 24. april 2003.
Økonometri 1: Heteroskedasticitet1 Økonometri 1 Heteroskedasticitet 26. oktober 2004.
KM2: F201 Kvantitative metoder 2 Heteroskedasticitet 18. april 2007.
Økonometri 1: Den multiple regressionsmodel1 Økonometri 1 Den multiple regressionsmodel 15. februar 2006.
Økonometri 1: Dummyvariabler1 Økonometri 1 Dummyvariabler 21. oktober 2004.
Økonometri 1: Den simple regressionsmodel Økonometri 1 Den simple regressionsmodel 13. februar 2003.
Økonometri 1: Heteroskedasticitet1 Økonometri 1 Heteroskedasticitet 31. marts 2003.
Økonometri 1: Den simple regressionsmodel Økonometri 1 Den simple regressionsmodel 7. september 2004.
Kvantitative metoder 2: Den multiple regressionsmodel1 Kvantitative metoder 2 Den multiple regressionsmodel 28. februar 2007.
Økonometri 1: F2 Økonometri 1 Den simple regressionsmodel 11. september 2006.
Økonometri 1: Dummyvariabler1 Økonometri 1 Dummyvariabler 12. oktober 2005.
Økonometri 1: Den simple regressionsmodel Økonometri 1 Den simple regressionsmodel 14. september 2005.
Statistik II 4. Lektion Logistisk regression.
Økonometri 1: Inferens i den multiple regressionsmodel1 Økonometri 1 Inferens i den multiple regressionsmodel 27. februar 2003.
Økonometri 1: Dummyvariabler1 Økonometri 1 Dummyvariabler 15. marts 2006.
Økonometri 1: Heteroskedasticitet1 Økonometri 1 Heteroskedasticitet 27. marts 2003.
Økonometri 1: Den multiple regressionsmodel1 Økonometri 1 Den multiple regressionsmodel 17. september 2004.
Økonometri 1: Heteroskedasticitet1 Økonometri 1 Heteroskedasticitet 29. oktober 2004.
Økonometri 1: Instrumentvariabelestimation1 Økonometri 1 Instrumentvariabelestimation I 2. December 2005.
Økonometri 1: Inferens i den lineære regressionsmodel1 Økonometri 1 Inferens i den lineære regressionsmodel 28. september 2004.
Økonometri 1: F71 Økonometri 1 Inferens i den lineære regressionsmodel 29. september 2006.
KM2: F41 Kvantitative metoder 2 Den simple regressionsmodel 14. februar 2007.
Den multiple regressionsmodel 21. september 2005
Heteroskedasticitet 25. oktober 2005
Præsentationens transcript:

Kvantitative metoder 2: Inferens i den lineære regressionsmodel1 Kvantitative metoder 2 Inferens i den lineære regressionsmodel 7. marts 2007

Kvantitative metoder 2: Inferens i den lineære regressionsmodel 2 Opgave fra sidst (Gauss-Markov teoremet) Opgave: Vis at hvis

Kvantitative metoder 2: Inferens i den lineære regressionsmodel 3 Oversigt: de næste forelæsninger Statistisk inferens: Det drejer sig om at man med udgangspunkt i en statistisk model kan drage konklusioner på grundlag af data. Dette indebærer blandt andet estimation af parametre samt metoder til afprøvning af statistiske hypoteser. Simulationseksperimenter (Note på hjemmesiden)  Ideen med at lave simulationseksperimenter  Opbygning af en simulationsalgoritme  Eksempel: Den forventede startløn for en økonom Resultater om OLS med endeligt antal observationer (kap. 4):  Normalitetsantagelse (MLR.6).  Test af en enkelt lineær restriktion på koefficienter i lineær regressionsmodel. Asymptotiske resultater for OLS: (kap. 5). Test af flere lineære restriktioner (kap. 4.5 og 5.2). Efficiens (kap 5.3 og B&L 9.12)

Kvantitative metoder 2: Inferens i den lineære regressionsmodel 4 Hvorfor simulationseksperimenter? Ideen med at introducere simulationseksperimenter i Kvantitative metoder 1 og 2 er at kunne illustrere vigtige statistiske begreber Simulationseksperimenter er ikke dækket af Wooldridge, så derfor benyttes en note (se hjemmesiden) Konkret kan vi vise at OLS estimatoren har en fordeling Simulationseksperimenter vil også optræde til øvelserne

Kvantitative metoder 2: Inferens i den lineære regressionsmodel 5 Monte Carlo eksperimenter: Ideen Simulationer af ”datasæt” fra en fuldt specificeret model: Datagenererende proces (DGP) Eksempel: Vi kender de "sande parametre" og. Genererer et sæt af fx n=100 observationer fra modellen: ”Glemmer” at vi kender og : Anvend estimator (”regneregel”) til at skønne over fx ud fra et konkret (men kunstigt) sæt af observationer: Fx gennemsnittet:

Kvantitative metoder 2: Inferens i den lineære regressionsmodel 6 Monte Carlo eksperimenter: Ideen (fortsat) Kan vi på en nem måde vurdere, om er en ”rimelig” estimator for ? Lav ny uafhængig trækning af datasæt genereret af den samme DGP. Beregn værdien af estimatoren for hvert datasæt: Lav mange uafhængige trækninger (”replikationer”). Se på fordelingen af estimaterne over replikationerne: Beregn fx fordelingens gennemsnit og varians. Parallel til ”tankeeksperimentet”: Vores konkrete faktiske datasæt er blot ét blandt mange potentielle udfald.

Kvantitative metoder 2: Inferens i den lineære regressionsmodel 7 Monte Carlo eksperimenter: Ideen (fortsat) Formål med Monte Carlo eksperimenter:  Efterprøve analytiske resultater: Fx at OLS er middelret under MLR.1-4.  Sammenligne forskellige estimatorer eller test, hvor det er besværligt/umuligt analytisk.  Vurdere hvor mange observationer der skal til for at man kan bruge asymptotiske resultater i praksis (kap. 5).

Kvantitative metoder 2: Inferens i den lineære regressionsmodel 8 Monte Carlo eksperimenter: Eksempel DJØFs hjemmeside ”Vejledende startløn” for en privatansat, nyuddannet økonom er kr om måneden. Antag:  Startlønninger er uafhængige og normalfordelte.  Sand middelværdi i lønfordelingen er kr  Sand lønfordeling har standardafvigelse på kr Hermed er lønfordelingen fuldt specificeret. Simulere en situation, hvor der indhentes en tilfældig stikprøve af n=100 startlønninger.

Kvantitative metoder 2: Inferens i den lineære regressionsmodel 9 Monte Carlo eksperimenter: I praksis Proc IML; antalobs = 100; mu = j(antalobs,1,29.5); seedvct = j(antalobs,1,1) ; seedvct = 117*seedvct ; e = normal(seedvct) ; y = mu * e ; quit;

Kvantitative metoder 2: Inferens i den lineære regressionsmodel 10 Monte Carlo eksperimenter: I praksis (fortsat) m1est=sum(y)/antalobs; * estimatet m1 (gennemsnittet); m2est=1/2*(min(y)+max(y)); * estimatet m2 (gns. min og max);

Kvantitative metoder 2: Inferens i den lineære regressionsmodel 11 Monte Carlo eksperimenter: I praksis (fortsat) Trin 3: Gentag trin 1 og 2: M= replikationer: antalrep = 10000; * antal replikationer i simulationen; m1 = j(antalrep,1,.); * vektorer til at gemme estimaterne i; m2 = j(antalrep,1,.); do j=1 to antalrep; * løkke over simulationer;.. end; Trin 4: Analysér fordelingerne af de to sæt estimater: Histogram Gennemsnit, varians, højere momenter

Kvantitative metoder 2: Inferens i den lineære regressionsmodel 12 Monte Carlo eksperimenter: Eksempel Brug algoritmen til at analysere og som estimatorer for middelværdien i fordelingen af startlønninger. Simulere telefoninterviews med tilfældigt udvalgte, nyuddannede økonomer, som oplyser (?) deres startløn. SAS-programmet MC.sas udfører M= replikationer. Se på n=100, n=50 og n=10. Link til SAS

Kvantitative metoder 2: Inferens i den lineære regressionsmodel 13 Monte Carlo eksperimenter: Eksempel (fortsat) Middelværdi og varians af de to estimatorer baseret på M= simulationer har lavest varians Varians aftager med n n=100 Middelværdi29,49929,502 Varians0,02230,2089 n=50 Middelværdi29,499 Varians0,04430,2445 n=10 Middelværdi29,49829,489 Varians0,22090,4116

Kvantitative metoder 2: Inferens i den lineære regressionsmodel 14 Monte Carlo eksperimenter: Afrunding Husk:  Resultater og konklusioner fra Monte Carlo eksperimenter afhænger potentielt af de valgte parametre og fordelinger.  I praktiske anvendelser må man i hvert enkelt tilfælde godtgøre, at den valgte model har relevans for den problemstilling, man ønsker at belyse.

Kvantitative metoder 2: Inferens i den lineære regressionsmodel 15 Hypotesetest i den lineære regressionsmodel: Endelige stikprøver (kap. 4) For hypotesetest behøver vi fordelingen af. Introducere yderligere antagelse: Normalitet. MLR.6: u er uafhængig af og normalfordelt med middelværdi nul og varians. Definerer den klassiske lineære model (CLM). Restriktiv antagelse:  Argument for: u opsamler alle de mange effekter der er udeladt af modellen: Central grænseværdisætning køres i stilling.  Argumenter imod i konkrete problemstillinger: Begrænsede variabler (positive!), andre typer af fordelinger (log-normal, diskrete).

Kvantitative metoder 2: Inferens i den lineære regressionsmodel 16 Fordeling af OLS estimatoren: Endelig stikprøve Linearitet af i u og CLM giver følgende resultat: Theorem 4.1: Under CLM antagelserne og betinget på gælder at hvor Heraf følger:

Kvantitative metoder 2: Inferens i den lineære regressionsmodel 17 Fordeling af OLS estimatoren: Endelig stikprøve (fortsat) Theorem 4.1 indeholder den ukendte parameter, derfor ikke umiddelbart operationel. Erstattes af kan man vise at der gælder følgende resultat: Theorem 4.2: Under CLM antagelserne og betinget på gælder at hvor k+1 er antal regressorer i modellen inkl. konstantled. t-fordelingen går mod N(0,1) når antallet af frihedsgrader vokser. Fin approximation hvis større end 120.

Kvantitative metoder 2: Inferens i den lineære regressionsmodel 18 Hypotesetest: Restriktion på en enkelt koefficient Betragt en nulhypotese om en regressionskoefficient:, hvor a er en konstant. Under nulhypotesen påstår vi altså en bestemt værdi af en parameter i den sande model. Analogt til at specificere en parameter i DGP’en for et Monte Carlo eksperiment. Tænk på nulhypotesen som DGP’en for et tankeeksperiment: Givet denne værdi af kender vi fordelingen af. Bruge afvigelsen mellem estimatet, og den postulerede værdi, a, til at vurdere gyldigheden af nulhypotesen.

Kvantitative metoder 2: Inferens i den lineære regressionsmodel 19 Hypotesetest: Restriktion på en enkelt koefficient t-testet for er givet ved og er fordelt som under nulhypotesen. Alternativhypotesen:  Ensidede alternativer: eller  Tosidet alternativ: Ex. Afkast af uddannelse: Hypotese om  Nulhypotese:  Relevant alternativ:

Kvantitative metoder 2: Inferens i den lineære regressionsmodel 20 Hypotesetest: Restriktion på en enkelt koefficient Klassisk teststrategi:  Vælg signifikansniveau: Sandsynlighed for at afvise nulhypotesen, givet at den er sand. Typisk vælges 5 %.  Vælg alternativhypotese: Bestemmer den kritiske region, givet signifikansniveauet.  Beregn teststatistik. Afvis nulhypotesen hvis testet er i den kritiske region. Afvis ellers ikke. Alternativ: Beregn p-værdi: Marginale signifikansniveau som ville betyde at nulhypotesen netop ville blive afvist.

Kvantitative metoder 2: Inferens i den lineære regressionsmodel 21 Hypotesetest: Restriktion på en enkelt koefficient Typiske eksempler:  a=0: Standard signifikanstest.  a=1 eller a=-1: Test af homogenitet eller proportionalitet. Konfidensinterval: Givet signifikansniveau,, fx 5 %. Så er 100- % konfidensintervallet givet ved: Konstrueres intervallet således vil det i 100- % af udfaldene rumme den sande værdi. Nulhypoteser om værdier udenfor vil således blive afvist. Skitsér på tavlen.

Kvantitative metoder 2: Inferens i den lineære regressionsmodel 22 Hypotesetest: Eksempel: Lønrelationen Afhængig variabel: log(timeløn) Kilde: Output fra SAS-programmet lon_udd2.sas RegressorModel (1)Model (2) uddaar0,0452 (0,0035) 0,0485 (0,0032) erfaring_0,0139 (0,0010) konstant4,3500 (0,0420) 4,1051 (0,0424) Antal observationer1046 0,1400,275

Kvantitative metoder 2: Inferens i den lineære regressionsmodel 23 Generel lineær restriktion Nulhypotese på linearkombination af koefficienter: Involverer flere koefficienter, men stadig kun en restriktion (et lighedstegn). Ex. Produktionsfunktion af Cobb-Douglas typen med arbejdskraft (L), kapital (K) og uobserverbare faktorer (U): I log-transformerede størrelser: Test antagelse om konstant skalaafkast:

Kvantitative metoder 2: Inferens i den lineære regressionsmodel 24 Generel lineær restriktion (fortsat) Hypotesen er af formen: ”Linearkombination af koefficienterne er lig med konstant”. Estimere, men hvad med ? Omparameterisere modellen: OLS af I reparameterisering er hypotesen direkte en restriktion på koefficienten til : Kald den fx Test restriktionen vha. t-stat. på Hvis CLM opfyldt så eksakt t-fordelt.

Kvantitative metoder 2: Inferens i den lineære regressionsmodel 25 Næste gang Aflevering af obligatorisk opgave Test af flere restriktioner W. kap. 4.5 Asymptotiske resultater W. kap og B&L kap 9.12  Konsistens  Efficiens