Præsentation er lastning. Vent venligst

Præsentation er lastning. Vent venligst

Kap. 14. Geodætisk statistik og mindste kvadraters metode.

Lignende præsentationer


Præsentationer af emnet: "Kap. 14. Geodætisk statistik og mindste kvadraters metode."— Præsentationens transcript:

1 Kap. 14. Geodætisk statistik og mindste kvadraters metode.
1. Statistiske Grundbegreber Fordelinger Normalfordeningen 2. Linearisering 3.Mindste Kvadraters Metode Det overbestemte problem Det underbestemte problem 3. Løsning af normal-ligninger

2 Kap. 14. Statistiske grundbegreber – Fordelinger- Histogram.
Beskriver fordelingen af gentagne observationer Gentagne til forskellige tidspunkter eller steder: Fordeling af globale 10 middel tyngde-anomalier

3 Deterministiske størrelser kan se ud som om der er normal-fordelte !
Kap. 14. Statistik: Fordelinger behøver ikke at have noget at gøre med ”tilfældige” hændelser ligesom terningkast. Vi vil bruge statistisk beskrivelse på ”deterministiske” størrelser såvel som på tilfældige (random) størrelser. Deterministiske størrelser kan se ud som om der er normal-fordelte !

4 Basalt begreb: Kap. 14. ”Hændelse”
Målt afstand, temperatur, vandstand, tyngdeværdi, Afbildning Stokastisk variabel . I matematik: funktional, H – funktionsrum – evt. Hilbertrum. Tyngden i punkt P: afbildning af rummet af alle mulige tyngdepotentialer til den reelle akse.

5 Kap. 14. Sandsynlighedstæthed, f(x):
Hvad er sandsynligheden P for at udfaldet ligger i et bestemt interval

6 Kap. 14. Middelværdi og Varians, Estimations-operator E:

7 Kap. 14. Fler-dimensionale Udfaldsrum, Varians-kovarians:
Også her middelværdi og varians

8 Kap. 14. Sandsynlighedstæthed, f(x):
Hvad er sandsynligheden P for at udfaldet ligger i et bestemt interval Tyngde-vektor: så 3-dimensioner.

9 Kap. 14. Korrelation og kovarians-propagation:
Korrelation mellem 2 størrelser: = 0: uafhængige. P.gr.af lineariteten h

10 Kap. 14. Middelværdi og varians af vektor
Hvis X og A0 er vektorer af dimension n og A er en n x m matrix, så gælder Den inverse P = kaldes ofte vægt-matricen

11 Kap. 14. Fordeling af sum af 2 tal:
Eksempel 3.1: Her er n = 2 og m = 1. Vi betragter summen af 2 observationer: Hvad er så variansen, hvis vi betragter differensen mellem 2 observationer ?

12 Kap. 14. Normalfordelingen
En 1-dimensional størrelse er normalfordelt hvis Tilsvarende består en vektor af simultant normalfordelte størrelser hvis Den kaldes den n-dimensionale normalfordeling.

13 Kap. 14. Kovarians-propagation i flere dimensioner:
X n-dimensionalt normalfordelt, D nxm matrix , så Z=DZ også normalfordelt, E(Z)=D E(X)

14 Kap. 14. Skøn for middel, varians mm.

15 Kap. 14. Kovariansfunktion
Hvis kovariansen COV(x,y) er en funktion af x,y så har vi en Kovariansfunktion Kan være funktion af Tidsforskel (stationær) Afstand på enhedskuglen (isotrop)

16 Kap. 14. Normalfordelte data og resultater.
Hvis date er normalfordelte, så er resultater også normalfordelte Hvis de er lineært relateret ! Vi må lineariserer – TAYLORUDVIKLING MED 0 or 1. ordens led. Fordel: vi kan tolke fejlfordelinger.

17 Kap. 14. Variogram. Hvis middelværdi er ukendt benyttes variogram i stedet for covariansen:

18 Kap. 14. Fordelinger i uendelig-dimensionale rum.
T( P) element i separabelt Hilbertrum: Stokastisk variable: Normalfordelte med summen af varianserne endelig !

19 Kap. 14. Stokastisk proces. Hvad er sandsynligheden P for at udfaldet ligger i et bestemt interval Eksempel: Hvad er sandsynligheden for at tyngden i Buddinge ligger mellem -20 og 20 mgal og tyndgen i Rockefeller ligger i det samme interval

20 Kap. 14. Stokastisk proces i Hilbertrum
Hvad er middelværdi og varians af ”Evaluerings-funktionalet”,

21 Kap. 14. Kovariansfunktion af stationær tidsrække.
Kovariansfunktion afhænger kun af |x-y| Varianserne kaldes ”Power-spektret”.

22 Kap. 14. Kovariansfunktion - Tyngdepotentialet
Antag Xij normalfordelt med samme varians for konstant ”i”.

23 Kap. 14. Isotrop Kovariansfunktion for Tyngdepotentialet

24 Kap. 14. Linearisering: begrundelse.
Vi vil finde bedste skøn (X) for m størrelser udfra n observationer (L). Data normalfordelte, medfører resultat normalfordelt hvis der er en lineær sammenhæng. Hvis m > n findes der en optimal metode til at finde X: Mindste kvadraters metode

25 Kap. 14. Linearisering – Taylor-udvikling.
Hvis ikke-lineær: Start-værdi (skøn) for X kaldes X1 Taylorudvikling med 0 og 1. ordens led efter rokering af led:

26 Kap. 14. Kovariansmatrix for lineariserede størrelser
Hvis målinger uafhængigt normalfordelt med varians-kovarians Så er resultatet y normalfordelt med varians-kovarians:

27 Kap. 14. Linearisering af afstands-formel.
Lineariseres udfra koordinaterne

28 Kap. 14. På Matrix form: Hvis 3 ligninger med 3 ubekendte !

29 Kap. 14. Tal-eksempel, cf. Øvelse 10.
Hvis (X11, X12,X13) = ( m, m, m). Satellit: ( , , ) Beregnet afstand: Målt afstand: (( )dX1 + ( ) dX2+( ) dX3)/ = ( ) eller: dX dX dX3 = -2.7

30 Kap. 14. Linearisering i Fysisk Geodæsi udfra T=W-U
I funktions-rum kan Normal-potentialet betragtes som 0-te ordens leddet i en Taylor-udvikling. Man kan differentiere i et Metriskt rum (Frechet-afledet).

31 Kap. 14. Mindste kvadraters metode. Overbestemte problem.
Flere observationer end størrelser der skal bestemmes: Eksempeler: geodætisk net med alle vinkler og afstande målt) GPS-observationer, hvor vi bliver stående (statisk) Vi ønsker koordinater for et eller flere punkter bestemt. Antager nu de ubekendte er m lineært uafhængige størrelser !

32 Kap. 14. Mindste kvadrater = Udjævning.
Observations-ligninger: Vi søger løsning så Differentiation:

33 Kap. 14. Mindste kvadraters metode. Varians-kovarians.

34 Kap. 14. Mindste kvadraters metode. Lineært problem.
Tyngdemåling: H, g= /-0.02 mgal 12.11+/-0.03 -22.7+/-0.03 G 10.52+/-0.03 I

35 Kap. 14.Tyngdemålinger, observations-ligninger..

36 Kap. 14. Mindste kvadraters metode. Overbestemte problem.
Opgave 3.3.1: Udregn varians-kovarians-matricen

37 Kap. 14. Mindste kvadraters metode.
Optimal hvis observationerne er normalfordelte + Lineær sammemhæng ! Virker alligevel, hvis de ikke er det. Og den lineære sammenhæng kan forbedres ved iteration. Sidste resultat bruges som nyt Taylorpunkt. Eksempel: En GPS modtager tændes første gang

38 Kap. 14. Mindste kvadraters metode. Underbestemte problem.
Vi har færre observationer end observationer: tyngdefelt, magnetfelt, global temperatur eller trykfordeling. Vi vælger endeligt dimensionalt underrum, dimension lig med eller mindre end antal observationer. To muligheder (kan kombineres): Vi søger ”glattest mulig løsning” = minimum norm Vi søger løsning, der passer bedst med muligt med data under hensyn til data-fejl

39 Kap. 14. Mindste kvadraters metode. Underbestemt problem.
Vi søger først endeligt dimensionale rum, så ”løsningen” i et variabelt punkt Pi bliver en linear-kombination af observationerne yj: Hvis stokastisk proces ønskes ”interpolationsfejlen” minimum

40 Kap. 14. Mindste kvadraters metode. Underbestemt problem.
Størrelserne er kovarianser: Ved differentiation: Fejlvarians:

41 Kap. 14. Mindste kvadraters metode.Tyngdeprediktion.
Opgave 3.3.2: Kovarianser: COV(0 km)= 100 mgal2 COV(10 km)= 60 mgal2 COV(8 km)= 80 mgal2 COV(4 km)= 90 mgal2 4 km 8 km Q 10 mgal P 6 mgal 10 km

42 Kap. 14. Mindste kvadraters metode. Tyngdeprediktion.
Opgave 3.3.1, fortsat: Udregn fejlskønnet for anomalien i R.

43 Kap. 14. Mindste kvadraters Kollokation.
Kaldes også: optimal lineær estimation For tyngdefeltet: navnet stammer fra løsning af differential-ligninger, hvor begyndelsesdata blev fastholdt. Funktionalanalytisk version af Krarup (1969) Kriging, hvor man bruger variogram i tæt familie med kollokation.

44 Kap. 14. Mindste kvadraters Kollokation.
Vi skal bruge kovarianser – men vi har kun en Jord. Vi drejer Jorden om sit tyngdepunkt: vi får ny Jord. Kovariansfunktionen antages kun afhængig af sfærisk afstand og afstand fra tyngdepunktet. Så kan man for hver(t) afstand(sinterval) finde par af punkter, af hvilke man kan tage middeltallet af produktet.

45 Kap. 14. Kovariansfunktion for Tyngder, r=R.

46 Kap. 14. Kovariansfunktion for Tyngder:
Forskellige modeller for gradvarianserne: Kaula, 1959, (tyngden får uendelig varians) Tscherning & Rapp, 1974 (variansen endelig).

47 Kap. 14. Løsning af normalligninger.
Ved brug af mindste kvadraters metode skal der løses et ligningssystem med en positiv semi-definit matrix Ved brug af Kollokationsmetoden skal der løses et ligningssystem med en positiv definit matrix. I de fleste løsningsmetoder dannes differenser mellem næsten lige store tal: AFRUNDINGSFEJL D= CHOLESKYS metode giver mindst ciffertab

48 Kap. 14. CHOLESKY, kvadratroden af matricen..
L=Lower triangular, LT = U upper triangular = L x y

49 Kap. 14. CHOLESKY, tilbageløsning (Back-substitution).
Sidste ligning bliver 1 ligning med 1 ubekendt – læses, og Indsættes, og vi får igen 1 ligning med 1 ubekendt. L-1y LT x =

50 Kap. 14. Cholesky – induktivt bevis.
n=1, så er L= (et tal) Antag vi har fundet Lm for et system med m+1 ubekendte. Så vil Lm+1 være lig med (vises ved at danne produktet LTL)

51 Kap. 14. CHOLESKY Algoritme
Hvis vi udvider Matricen med højre side samt Diagonal-leddet med kvadratrummen af y-erne Fås generel algoritme.

52 Kap. 14. CHOLESKY – Eksempel 3.4.1.
..

53 Kap. 14. Løsning af normalligninger, Cholesky, Determinant.
For triangulær matrix er determinanten lig med produktet af diagonal-elementerne, Her = kvadratroden af N’s determinant. Hvis determinant 0 eller meget lille: singularitet eller nær-singularitet (søjler er næsten linært afhængige). Metoden han dermed fange fejl i ligningssystemet Målingen duede ikke Målt

54 Kap. 14. Invers matrix, ved løsning af n ligninger.
Invers matrix findes ved løsning af lignings-systemet med n enheds-vektorer.

55 Kap. 14. Lager Plads besparelser i CHOLESKY
Kun den ene halvdel lagres Hvis der står nuller i starten af en søjle kan de udelades Matricen kan deles i flere filer og parallel-processering kan benyttes

56 Kap. 14. Fejlskøn ved CHOLESKY
Vi uddrager ikke den sidste kvadratrod ! Trin1 Trin 2


Download ppt "Kap. 14. Geodætisk statistik og mindste kvadraters metode."

Lignende præsentationer


Annoncer fra Google