Økonometri – lektion 8 Multipel Lineær Regression

Slides:



Advertisements
Lignende præsentationer
Inferens i den lineære regressionsmodel 19. marts 2007
Advertisements

Dummyvariabler 13. oktober 2006
KM2: F221 Kvantitative metoder 2 Specifikation og dataproblemer 2. maj 2007.
Statistik Lektion 3 Simultan fordelte stokastiske variable
Økonometri 1: Specifikation og dataproblemer1 Økonometri 1 Specifikation, og dataproblemer 4. november 2005.
Anvendt Statistik Lektion 8
Statistik II Lektion 5 Modelkontrol
Logistisk Regression Kategoriske og Kontinuerte Forklarende Variable
Økonometri 1: F3 Økonometri 1 Den simple regressionsmodel 15. september 2006.
Økonometri 1: Binær responsmodeller: Logit og probit1 Økonometri 1 Binær responsmodeller: Logit og probit 8. maj 2003.
Statikstik II 2. Lektion Lidt sandsynlighedsregning
Kvantitative metoder 2: Inferens i den lineære regressionsmodel1 Kvantitative metoder 2 Inferens i den lineære regressionsmodel 12. marts 2007.
Økonometri 1: F121 Økonometri 1 Heteroskedasticitet 27. oktober 2006.
Opsamling Simpel/Multipel Lineær Regression Logistisk Regression
Multipel Lineær Regression
Statikstik II 2. Lektion Lidt sandsynlighedsregning
Økonometri 1: Inferens i den lineære regressionsmodel1 Økonometri 1 Inferens i den lineære regressionsmodel 1. oktober 2004.
Økonometri 1: F81 Økonometri 1 Inferens i den lineære regressionsmodel 2. oktober 2006.
Økonometri – lektion 7 Multipel Lineær Regression
Økonometri 1: Instrumentvariabelestimation1 Økonometri 1 Instrumentvariabelestimation II 7. december 2005.
Økonometri 1: Specifikation og dataproblemer1 Økonometri 1 Specifikation, og dataproblemer 9. november 2004.
Økonometri – lektion 5 Multipel Lineær Regression
Carsten Stig Poulsen1 HA 4. semester Markedsanalyse 3. gang Torsdag d. 23. april 2009.
Heteroskedasticitet 17. marts 2006
Økonometri 1: Heteroskedasticitet1 Økonometri 1 Heteroskedasticitet 22. marts 2006.
KM2: F191 Kvantitative metoder 2 Heteroskedasticitet 16. april 2007.
Økonometri 1: Specifikation og dataproblemer1 Økonometri 1 Specifikation og dataproblemer 2. november 2004.
Økonometri 1: Instrumentvariabelestimation1 Økonometri 1 Instrumentvariabelestimation II 28. april 2006.
Kvantitative metoder 2: Den multiple regressionsmodel1 Kvantitative metoder 2 Den multiple regressionsmodel 5. marts 2007.
Økonometri 1: Dummy variable1 Økonometri 1 Dummy variable 24. marts 2003.
Simpel Lineær Regression
Økonometri – lektion 4 Multipel Lineær Regression Model Estimation Inferens.
Økonometri 1: Inferens i den multiple regressionsmodel1 Økonometri 1 Inferens i den multiple regressionsmodel 3. marts 2003.
KM2: F61 Kvantitative metoder 2 Den simple regressionsmodel 21. februar 2007.
Simpel Lineær Regression
Kvantitative metoder 2: Inferens i den lineære regressionsmodel1 Kvantitative metoder 2 Inferens i den lineære regressionsmodel 14. marts 2007.
Kvantitative metoder 2: Den multiple regressionsmodel1 Kvantitative metoder 2 Den multiple regressionsmodel 26. februar 2007.
Økonometri 1: Inferens i den multiple regressionsmodel1 Økonometri 1 Inferens i den multiple regressionsmodel 10. marts 2003.
Økonometri 1: Den simple regressionsmodel Økonometri 1 Den simple regressionsmodel 14. september 2004.
Økonometri 1: F151 Økonometri 1 Specifikation og dataproblemer 10. november 2006.
Økonometri 1: Den multiple regressionsmodel1 Økonometri 1 Den multiple regressionsmodel 24. februar 2003.
KM2: F181 Kvantitative metoder 2 Heteroskedasticitet 11. april 2007.
Økonometri 1: F41 Økonometri 1 Den multiple regressionsmodel 18. september 2006.
KM2: F51 Kvantitative metoder 2 Den simple regressionsmodel 19. februar 2007.
Økonometri 1: F51 Økonometri 1 Den multiple regressionsmodel 22. september 2006.
Økonometri 1: Instrumentvariabelestimation1 Økonometri 1 Instrumentvariabelestimation 24. april 2003.
Økonometri 1: Heteroskedasticitet1 Økonometri 1 Heteroskedasticitet 26. oktober 2004.
KM2: F201 Kvantitative metoder 2 Heteroskedasticitet 18. april 2007.
Økonometri 1: Den multiple regressionsmodel1 Økonometri 1 Den multiple regressionsmodel 15. februar 2006.
Økonometri 1: Den simple regressionsmodel Økonometri 1 Den simple regressionsmodel 13. februar 2003.
Økonometri 1: Heteroskedasticitet1 Økonometri 1 Heteroskedasticitet 31. marts 2003.
Økonometri 1: Den simple regressionsmodel Økonometri 1 Den simple regressionsmodel 7. september 2004.
Kvantitative metoder 2: Den multiple regressionsmodel1 Kvantitative metoder 2 Den multiple regressionsmodel 28. februar 2007.
Økonometri 1: Instrumentvariabelestimation1 Økonometri 1 Instrumentvariabelestimation 28. april 2003.
Økonometri 1: Dummyvariabler1 Økonometri 1 Dummyvariabler 12. oktober 2005.
Økonometri 1: Den simple regressionsmodel Økonometri 1 Den simple regressionsmodel 14. september 2005.
Økonometri 1: Heteroskedasticitet1 Økonometri 1 Heteroskedasticitet 24. marts 2006.
Statistik II 4. Lektion Logistisk regression.
Økonometri 1: Instrumentvariabelestimation1 Økonometri 1 Instrumentvariabelestimation 7. december 2004.
Økonometri 1: Inferens i den multiple regressionsmodel1 Økonometri 1 Inferens i den multiple regressionsmodel 27. februar 2003.
Økonometri 1: Dummyvariabler1 Økonometri 1 Dummyvariabler 15. marts 2006.
Økonometri – lektion 6 Multipel Lineær Regression
Økonometri 1: Heteroskedasticitet1 Økonometri 1 Heteroskedasticitet 27. marts 2003.
Økonometri 1: Den multiple regressionsmodel1 Økonometri 1 Den multiple regressionsmodel 17. september 2004.
Økonometri 1: Heteroskedasticitet1 Økonometri 1 Heteroskedasticitet 29. oktober 2004.
Økonometri 1: F71 Økonometri 1 Inferens i den lineære regressionsmodel 29. september 2006.
Økonometri 1: F131 Økonometri 1 Heteroskedasticitet 30. oktober 2006.
Den multiple regressionsmodel 21. september 2005
Heteroskedasticitet 25. oktober 2005
Anvendt Statistik Lektion 8
Præsentationens transcript:

Økonometri – lektion 8 Multipel Lineær Regression Likelihood-baseret inferens Generaliseret Mindste Kvadraters Metode

Tæthedsfunktionen Hvis Y~ N( m , s2 ) , så har Y tæthedsfunktion Som sædvanligt Men f(c) siger stadig noget om hvor ”troelig” (likely) Y=c er.

Likelihood-funktionen Antag observation/data y er givet. Hvor troelig er y for forskellige værdier af m og s2 ? Likelihood-funktionen L er tæthedsfuntionen, men nu betragtet som en funktion af parametre og ikke data:

Likelihood-funktionen Generelt: Tæthed for data-vektor Y er typisk specificeret ved parameter-vektor qT=(q1,…, qk): Tilsvarende likelihood-funktion: Log-likehood-funktionen (naturlig logaritme)

Score-funktionen Givet log-likelihood er score-funktionen givet ved: Siger noget om hældningen på (log)-likelihood ”overfladen”

Maksimum Likelihood Estimat (MLE) Den parameterværdi der gør data mest troelig, dvs. maksimerer likelihood-funktionen, kaldes Maksimum Likelihood Estimatet (MLE). For maksimum likelihood estimatet gælder

MLEs Egenskaber Konsistent: For alle e > 0 gælder Fortolkning: Hvis vi vælger n stor nok, så kan vi få vilkårlig stor sandsynlighed for at ligger vilkårligt tæt på den sande værdi .

Asymptotisk Normalfordelt MLE følger asymptotisk en normalfordeling: Dvs. jo større n bliver jo mere ligner fordelingen af en normalfordeling.

Informations-matricen Definition: Informations-matricen hvor Y ~ f( y ; q ). Hvor Hessian matricen er

Asymptotisk Effektiv I tilfældet med en enkelt parameter q gælder Ingen anden asymptotisk konsistent estimator har en mindre asymptotisk varians. For q vektor gælder Hvor V er en semi-definit matrix.

Score-funktionen of Varians Middelværdien af score-funktionen: Variansen af score-funktionen:

Multivariate Normalfordeling Hvis en n-dimenional stokastisk vektor Y følger en multivariat normal-fordeling med middelværdi m og varians-kovarians matrix S, så har Y tæthed I notation: Hvis Z = AY + b, så

Eksempel: n = 2 Uafhængige ei og samme varians – sfæriske fejlled.

Uafhængige fejlled ei med forskellige varianser.

MLE og MLR Model Dvs. Varains-kovarians matricen for y er: Tæthed:

Log-likelihood og MLE Log-likelihood funktionen Løs: Løsning:

Informations-matricen

Informations-matricen – fortsat Kombineres forrige slide fås Da Er fordelingen af og uafhængige.

Bemærkninger MLE er samme estimat som opnås ved MKM (OLS). Da residual-vektor har vi . Fra tidligere Mao. er ikke en central estimator!

Bemærkninger Værdien af likelihood-funktionens maksimum:

Likelihood-baserede Test Teste hypotesen H0: Rb = r R er en q ╳ k matrix (q<k) Lad MLE for MLR. Lad MLE for MLR under H0.

Likelihood-ratio Definition: Små værdier af l er kritiske for H0. Definition: Likelihood-ratio (LR)

Udregning af LR Restingerede residualer:

Wald Test Hvis H0 er sand så er nok tæt på 0. Vi har hvor Under H0 gælder

Wald Test - fortsat Generelt: Hvis Z~Nq(m, S) så har vi fra tidligere at Konkret Kan også skrives som

Lagrange Multiplier (LM) Test Vi har at . Hvis H0 er sand så skulle så er tæt på og dermed er tæt på nul. Under H0 giver det følgende teststørrelse …som kan skrives som

Sammenligning af Teststørrelser Likelihood-ratio kan tilnærmes til Dvs at

Sammenligning af Teststørrelser – fortsat Likelihood-ratio kan tilnærmes til Deraf følger Alt i alt: Asymptotisk er de tre teststørrelser ens.

Ikke-Sfæriske Fejlled Model: hvor W er en given positiv definit matrix. Dvs.

Likelihood og log-Likelihood funktioner

Maksimere Likelihood-funktionen Løs simultant: Heraf følger:

MLE Egenskaber Middelværdien af ML estimatore:

Generaliseret Mindske Kvadraters Metode Hvis W er positiv definit, kan vi finde ikke-singulær matrix P, så MLE bliver nu Det svarer til estimatet for multipel lineær regression med Py som afgængig variabel of PX som matrix af forklarende (design matricen) og ”sfæriske fejlled”.

Omskrivning af Model Omskriv den lineære model: Hvor

GLS Estimater Estimatet af b baseret på genereliseret mindske kvadrater er