Fotogrametria Flashcards

(134 cards)

1
Q

Po co tworzy się mapy cieni?

A

Aby otrzymać informacje o terenie. Gdzie są jego przewyższenia, a gdzie obniżenia.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Z jakim pikselem najlepiej tworzyć mapę spadków?

A

Jeżeli chcemy je bardzo dokładnie zbadać, to piksel musi być zbliżony do odległości pomiędzy punktami w chmurze punktów albo większy, żeby nie było w mapie dziur.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Co jest potrzebne do stworzenia chmury punktów?

A

Elementy orientacji zewnętrznej, metryka kamery, NMT.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Kamera typu FMC oznacza kamerę

A

z kompresją rozmazania

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

TDI to

A

elektroniczny system kompresji rozmazania obrazu

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Kamera typu AMC oznacza kamerę:

A

na stabilizowanym podwieszeniu.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Dystorsja radialna jest wynikiem

A

konstrukcji obiektywu i położenia przysłony

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Powłoka antywinietowa obiektywu

A

wyrównuje spadek jasności w polu widzenia

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Rozkład normalny, rozkład Gaussa N(μ,σ)

A

Wykres funkcji prawdopodobieństwa tego rozkładu jest krzywą w kształcie dzwonu (tak zwaną krzywą dzwonową). Rozkład normalny jest też bardzo intuicyjny: większość obserwacji jest skupiona wokoło średniej, obserwacje leżące dalej od średniej występują rzadziej.

N(μ,σ)
μ oznacza wartość oczekiwaną, czyli średnią
σ oznacza odchylenie standardowe- im większe odchylenie standardowe tym częściej występują obserwacje bardziej oddalone od średniej.

W okolicy wartości średniej(w odległości σ) znajduje się 68% obserwacji.
[μ−σ,μ+σ] 68.2%
[μ−2σ,μ+2σ] 95.4%
[μ−3σ,μ+3σ] 99.7%

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Porównywanie możliwości interpretacyjnych (zdolności rozdzielczej) zdjęć analogowych i zdjęć cyfrowych (o takim samym pikselu terenowym) pokazuje, że

A

zdjęcia cyfrowe mają 1,5 – 2,0 razy większą zdolność rozdzielczą

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

W czystej atmosferze

A

przeważa rozproszenie molekularne

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Kamera DMC ma

A

4 głowice panchromatyczne i 4 głowice wielospektralne

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

AWAR oznacza:

A

średnią zdolność rozdzielczą w formacie zdjęcia

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Graniczna zdolność rozdzielcza układu obiektyw – emulsja to:

A

punkt przecięcia obiektywu MTF (obiektywu) z progiem kontrastu emulsji

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Stabilizacja podwieszenia współczesnych kamer pozwala poziomować kamerę z dokładnością około:

A

0,5 stopnia

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

We współczesnych analogowych kamerach pomiarowych stosowane są migawki

A

centralne rotacyjne

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
17
Q

Porównywanie współczesnych kamer cyfrowych (wielkoformatowych) z szerokokątna kamerą analogową w zakresie dokładności opracowania wysokościowego pokazuje, że

A

oba typy kamer dają zbliżone dokładności opracowania wysokościowego

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
18
Q

Przy pomiarze położenia kamery w locie opartym o GPS, położenie kamery rejestruje się:

A

co 1 sek.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
19
Q

Zdjęcia prawie pionowe mają odchylenia od linii pionu nie większe niż:

A

3 stopnie

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
20
Q

Skanowanie lotniczych współczesnych zdjęć analogowych bez utraty rozdzielczości zapewnia rozdzielczość skanowania (piksel) około:

A

11-15 m*10^(-6) (mikrometrów)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
21
Q

Integracja GPS/INS jest konieczna do:

A

wyznaczenia położenia środków rzutów i kątów nachylenia kamery

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
22
Q

Do wykonawstwa zdjęć lotniczych do celów pomiarowych dopuszcza się minimalną wysokość słońca

A

25 stopni

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
23
Q

Polska jest regularnie kryta (cykl 5 lat) zdjęciami w skali

A

1:26 000 i 1:13 000

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
24
Q

Orbita heliosynchroniczna umożliwia obrazowanie:

A

przy tym samym azymucie słońca

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
25
Obrazowanie mikrofalowe (radarowe) wykorzystuje zakres fal o długości:
kilka cm
26
Wynikiem lotniczego skanera laserowego (LIDAR) jest chmura punktów tworząca w przybliżeniu:
NMPT
27
Źrenica wejściowa obiektywu to:
obraz fizycznej przesłony utworzony przez część obiektywu poza przysłoną
28
Elementy orientacji zewnętrznej kamery to:
kąt nachylenia kamery i współrzędne położenia kamery
29
Punkt nadirowy zdjęcia ma te własności, że:
kąty na zdjęciu o wierzchołku w tym punkcie nie są obarczone wpływem nachylenia
30
Typowe pokrycie podłużne zdjęć w szeregu (dla opracowań sty.- wys.) wynosi:
60%
31
Promien rdzenny na zdjeciu to:
prosta przechodzaca przez punkt glowny zdjecia
32
Punkt nadirowy zdjecia to:
przeciecie plaszczyzny zdjecia linia pionu przechodzaca przez srodek rzutow.
33
Elementy orientacji zewnetrznej obrazu pozyskiwanego lotniczym skanerem elektrooptycznym muszą być mierzone w locie z wykorzystaniem:
polączenia systemu GPS i INS
34
Podstawą komputerowego rozpoznawania obiektow ( klasyfikacja nadzorowana i nienadzorowana) jest:
komputerowa analiza kształtu tekstury i struktury obrazu rozpoznawanych obiektów
35
Do wytworzenia cyfrowej ortofotomapy konieczne są następujące dane początkowe:
zdjęcie w postaci cyfrowej, elementy orientacji wewnętrznej i zewnętrznej zdjęcia, NMT.
36
Ze zdjec lotniczych wykonywanych z kamerą szerokokątną w skali 1:13000 można wygenerować NMT o dokładności wysokościowej (blad sredni):
04-0,6m
37
Numeryczny model pokrycia terenu (NMPT) zawiera informacje o wysokosci:
Powierzchni topograficznej gruntu oraz obiektow wystajacych ponad teren
38
Numeryczny model terenu (NMT) reprezentowany w strukturze GRID zwiera:
wys. punktow w regularnej siatce
39
Kompensacja rozmazana w kamerach z matryca CCD o duzej rozdzielczosci realizowana jest poprzez:
ruchy matry CCD podczas ekspozycji
40
Na segment pokładowy lotniczego skanera laserowego LIDAR składają się następujące niezbędne do działania elementy:
dalmierz laserowy, GPS, INS
41
Zdjęcie przetworzone na przetworniku fotomechanicznym różni się od zdjęcia nieprzetworzonego tym, że:
w zdjęciu przetworzonym są wyeliminowane błędy spowodowane nachyleniem zdjęcia
42
W opracowaniu stereogramu na autografie można wyróżnić etapy realizacji.
1. Rekonstrukcja elementów orientacji wewnętrznej 2. Orientacja wzajemna 3. Orientacja bezwzględna
43
Warunek kolinearności to wyraz zależność między:
współrzędnymi tłowymi obrazu punktu na zdjęciu, współrzędnymi terenowymi tego punktu i el. or. wew. i zew. zdjęcia.
44
Paralaksa poprzeczna to:
q = y’-y”
45
Elementy orientacji zewnętrznej zdjęcia kamery to:
kąt nachylenia kamery ω,φ,κ i współrzędne położenia kamery (X,Y,Z)
46
Dla zbudowania modelu (t. orientacji wzajemnej) potrzebne są punkty o danych współrz. ter. W liczbie nie mniejszej niż:
4
47
Macierz obrotu zdjęcia jest:
macierzą 3 x 3 elementarną, której parametrami są kąty obrotu ω,φ,κ
48
Współrzędne przestrzenne obiektu dla przypadku „normalnego” zdjęć naziemnych wytyczna Y=B/p*y”, X=B/p*x”, Z=B/p*z” współrzędne te są wyrażane w układzie współrzędnych takim że:
początek znajduje się w połowie długości i bazy, oś „Z” pokrywa się z linią pionu, oś „Y” pokrywa się z linia bazy, oś „Y” jest równoległa do osi lewego zdjęcia.
49
Przestrzenne wcięcie wstecz pozwala:
wyznaczyć elementy orientacji zewnętrznej zdjęcia, konieczne są do tego min 3 fotopunkty odfotografowane na każdym z nich.
50
Fotopunkty stanowiące wysokościową osnowę fotogrametryczną położone są w bloku aretrangulacji:
w strefie brzegowej bloku, wokół po jego obwodzie
51
W kontekście orientacji wzajemnej warunek: iloczyn mieszany wektorów ma się równać zero.
dotyczy komplenarności wektora bazy i wektorów zdjęcia lewego i prawego
52
Punkt izometryczny zdjęcia to:
punkt przebicia płaszczyzny zdjęcia przez dwusieczna kąta utworzonego przez główna oś kamery i linie pionową przechodzącą przez środek rzutów.
53
Punkt główny zdjęcia to:
spadek prostopadły środka rzutów na płaszczyznę zdjęcia.
54
Fotogrametria
photos - światło gramma - zapis metreo - pomiar fotogrametria - pomiar obrazów zapisanych światłem Fotogrametria jest działem nauki i praktyki zajmującym się określaniem położenia, wymiarów i kształtu obiektów przestrzennych na podstawie ich zdjęć fotograficznych (i obrazów).
55
Kamera typu kadrowego to:
zespół kamer złożony z kilku (zwykle 4) głowic panchromatycznych i 4 głowic wielospektralnych. 4 głowice panchromatyczne dają łącznie wirtualny obraz panchromatyczny o bardzo dużej rozdzielczości. Głowice wielospektralne mają mniejszą zdolność rodzielczą, kąt widzenia każdej z nich odpowiada łącznemu polu widzenia 4-ch głowic panchromatycznych.
56
Błędy geometryczne zdjęcia lotniczego:
- deniwelacje terenu - nachylenie zdjęcia - dystorsja obiektywu Te błędy mogą zostać usunięte w procesie opracowania. zdjęcie lotnicze => rzut środkowy mapa => rzut ortogonalny
57
Idea analogowego opracowania pojedynczego stereogramu
Opracowanie autogrametryczne sprowadza się do zasady „podwójnej projekcji”, tzn. rekonstrukcji wiązek, rekonstrukcji położenia wiązek i przestrzennego wcięcia w przód z bazy projekcji. Jest to więc zadanie odwrotne do fotografowania. Rekonstrukcja wiązek (tj. rekonstrukcja elementów orientacji wewnętrznej kamery/zdjęcia) sprowadza się to odpowiedniego scentrowania zdjęć na nośnikach w projektorach autografu (koszach kamer) i odłożeniu odpowiedniej odległości obrazowej zdjęć.
58
Etapy opracowania na autografie
1. Rekonstrukcja wiązek (tj. el. or. wewnętrznej) 2. Orientacja wzajemna zdjęć (wiązek), tj. budowa modelu 3. Orientacja bezwzględna modelu  skalowanie modelu  poziomowanie modelu 4. Właściwy pomiar (np. tworzenie mapy syt. - wys.)
59
Orientacja wzajemna zdjęć. Budowa modelu
Orientacja wzajemna zdjęć sprowadza się do usunięcia paralaks poprzecznych z powierzchni stereogramu (tzw. strojenie zdjęć). W praktyce sprowadza się to usunięcia paralaks w 6 charakterystycznych obszarach stereogramu. Paralaksę usuwa się ruchami (liniowymi i obrotami kątowymi) wiązek (zdjęć). Do budowy modelu nie są konieczne fotopunkty. Są 2 grupy metod strojenia zdjęć : 1. Orientacja metodą ruchów kątowych obu kamer. Wykorzystuje się ruchy: 2. Orientacja metodą „dostrajania” zdjęcia prawego do lewego. Wykorzystuje się ruchy: Istnieją różne „recepty” or. wzajemnej. Zawsze jest to proces iteracyjny.
60
Orientacja bezwzględna modelu
 skalowanie modelu  poziomowanie modelu Do orientacji bezwzględnej modelu konieczne są 3 fotopunkty
61
Klasyfikacja autografów (wg. rodzaju projekcji):
 a. z projekcją optyczną  a. z projekcją mechaniczną  a. z projekcją optyczno-mechaniczną  a. z projekcją analityczną (a. analityczne)  a. cyfrowe (cyfrowe stacje fotogrametryczne) DPW
62
Istota obserwacji stereoskopowych:
"wskazanie” punktów homologicznych
63
Podstawy dopasowania obrazów
 Pomiar (manualny) stereoskopowy a dopasowanie obrazów => znalezienie odpowiedniości dwóch fragmentów obrazów, reprezentowanych przez elementy źródłowe obrazów, tzw. prymitywy (np. gęstości optyczne, lub cechy wyekstrahowane, np. krawędzie)  Zastosowanie w fotogrametrii: - Automatyczny pomiar znaczków tłowych (orientacja wewnętrzna zdjęć) - Automatyczny pomiar punktów przejściowych (orientacja wzajemne, aerotriangulacja) - Generowanie NMT (automatyczny pomiar wysokości) Dopasowanie obrazów => ang: Image Matching
64
Korelacja krzyżowa
Idea automatycznego poszukiwania punktów homologicznych na parze zdjęć stereoskopowych, oparta na porównaniu jasności pikseli
65
Warunki udanego dopasowania
 oba obrazy muszą być pozyskane w tym samym zakresie spektralnym,  obrazowanie w tym samym czasie  obiekty są nieruchome  powierzchnia obrazowanego obiektu jest „gładka” (nie występują nieciągłości powierzchni)  powierzchnia obiektu jest nieprzezroczysta
66
Metody dopasowania obrazów
 Dopasowanie powierzchniami – ABM (ang. Area Based Matching).  Dopasowanie cechami – FBM (ang. Feature Based Matching).  Dopasowanie relacyjne (lub symboliczne) (ang. Relational Matching, Symbolic Matching).
67
Zalety metody FBM (w porównaniu z ABM):
 wystarcza gorsze przybliżenie początkowe  bardziej odporna na różnice gęstości optycznej spowodowane oświetleniem, kątem obserwacji, czy innymi czynnikami  bardziej odporna na różną geometrię obrazów spowodowaną deniwelacjami i nieciągłością powierzchni  szybka
68
Zdjęcia znormalizowane
 Podejście powszechnie stosowane w cyfrowych stacjach fotogrametrycznych (wyświetlane obrazy są pozbawione paralaksy poprzecznej)  Obecnie proces przekształcenia realizowany „w locie”
69
Tworzenie piramidy obrazu
Metody:  metoda próbkowania co n-ty piksel (ang. subsampling), zwykle co 2-gi piksel, bez uśrednienia (bez zmiany gęstości optycznej),  przepróbkowanie z uśrednieniem (ang. averaging),  przepróbkowanie z filtrowaniem metodą Gaussa
70
Porównanie metod tworzenia piramidy obrazu
Metody:  Metoda próbkowanie bez uśredniania jest metodą najszybszą  Przepróbkowanie z uśrednieniem jest metodą wolniejszą od poprzedniej, ale szybszą od przepróbkowania z filtrowaniem metodą Gaussa. Daje lepszy efekt końcowy  Przepróbkowanie z filtrowaniem metodą Gaussa jest metodą najwolniejszą, ale daje najlepsze rezultaty. Ta metoda jest zalecana jeśli przewiduje się dopasowanie obrazów na dalszych etapach opracowania. Piramida obrazu przydatna również:  Przy automatycznym generowaniu NMT  Pozwala na znaczne usprawnienie wyświetlania obrazów na monitorze, oraz zmianę powiększenia
71
Obserwacje stereoskopowe na DPW:
```  Separacja przestrzenna  Separacja spektralna  Separacja czasowa: - metoda polaryzacyjna (metoda pasywna) - metoda aktywna (aktywne okulary LCD) ```
72
DPW – automatyzacja
 Fotogrametria cyfrowa wyróżnia się na tle fotogrametrii analogowej i analitycznej możliwością automatyzacji procesów pomiaru i opracowania zdjęć. To głównie stanowi o zaletach DPW, w porównaniu z autografem analitycznym.  W zakresie automatyzacji największy udział i sukces mają techniki dopasowania obrazów. Pozwoliło to wyeliminować obserwatora i obserwacje stereoskopowe z wielu operacji pomiarowych.  Dopasowanie obrazów pozwoliło zautomatyzować proces orientacji wewnętrznej zdjęć i pomiar punktów homologicznych na stereogramie (opracowanie pojedynczego stereogramu), czy zespole zdjęć (aerotriangulacja). Uczyniło to tak złożony proces jak aerotriangulacja prawie całkowicie zautomatyzowanym.  Automatyczne dopasowanie obrazów pozostawia część obserwacji błędnych. Bardzo duża nadliczbowość obserwacji pozwala wbudować w przebiegi procesów procedury mające na celu automatyczne wychwycenie i wyeliminowanie takich „odstających” obserwacji. Jest to możliwe właśnie dzięki nadliczbowości obserwacji, a proces może przebiegać płynnie, bez zacięć i ingerencji operatora.
73
Przebieg podstawowych etapów opracowania zdjęć na DPW
Przebieg podstawowych etapów opracowania zdjęć na DPW:  Prace przygotowawcze - definicję projektu, włączającą przyjęte jednostki, założone tolerancje dokładnościowe, skalę zdjęć, dane kalibracyjne kamery, dane fotogrametrycznej osnowy terenowej, parametry systemu, dane o zdjęciach  Orientacja wewnętrzna: Polega na transformacji z układu pikselowego (kolumny, wiersze) do układu współrzędnych tłowych zdjęcia, definiowanego przez znaczki tłowe - pomiar (wskazanie) obrazów znaczków tłowych zdjęcia: * monokularny * automatyczny * półautomatyczny W przypadku zdjęć wykonanych kamerami cyfrowymi nie ma znaczków tłowych, a układ współrzędnych tłowych jest definiowany przez strukturę wierszy i kolumn przetwornika CCD (patrz: wykład, sem. 4).  Orientacja wzajemna Celem orientacji wzajemnej jest określenie wzajemnych relacji geometrycznych obu zdjęć tworzących stereogram. W rezultacie tworzy się model przestrzenny, a ze stereogramu zostają usunięte paralaksy poprzeczne. Polega na usunięciu paralaks w wybranych miejscach stereogramu: - manualnie - automatycznie - półautomatycznie (manualnie ze wspomaganiem korelatora obrazów) Po wykonaniu orientacji wzajemnej zdjęcia mogą być przetworzone do tzw. zdjęć znormalizowanych. Zdjęcia takie są wyświetlane na monitorze bez paralaks poprzecznych (dobry efekt stereo na całym ekranie)  Orientacja bezwzględna Polega na przetransformowaniu przestrzennego modelu (zbudowanego w wyniku orientacji wzajemnej) na układ zewnętrzny na podstawie pomierzonych na modelu kilku fotopunktów o znanych współrzędnych terenowych - W praktyce orientacja bezwzględna na DPW sprowadza się do manualnego pomiaru fotopunktów (mono lub stereo)  Inne procesy technologiczne na DPW: Powyższe etapy stanowią rutynowe prace przygotowawcze przed właściwym opracowaniem. To opracowanie może przybrać różną postać: - pomiaru wysokościowego form i punktów dla zbudowania NMT, - pomiaru obiektów terenowych dla tworzenia mapy numerycznej w postaci wektorowej, - ortorektyfikacji zdjęć, z wykorzystaniem NMT opracowanego wcześniej z tych samych zdjęć, lub z wykorzystaniem już gotowego NMT, - innego opracowania, bazującego na pomiarze przestrzennym.
74
DPW a autograf analityczny
Kluczowa różnica to forma danych wejściowych, tj. zdjęć Wśród konkretnych różnić wskazujących na przewagę DWP można wymienić: 1. Możliwości korekcji radiometrycznej wyświetlanych zdjęć bezpośrednio w zasięgu operatora: zmiana powiększenia, zmiana kontrastu, jasności, koloru, wyrównanie tonalne w obrębie zdjęcia i bloku zdjęć, itp. 2. Znacznie większa uniwersalność DWP dzięki nieobecności tradycyjnego sprzętu fotogrametrycznego jak stereokomparator, czy nakłuwacz i przejęcie ich roli przez DWP. 3. Brak komponentów mechaniczno-optycznych z ruchomymi elementami, wymagającymi serwisowania i okresowej kalibracji. 4. Możliwość obserwacji więcej niż jednej pary zdjęć, co ma doniosłe znaczenie przy pomiarze punktów przejściowych w bloku zdjęć podczas realizacji aerotriangulacji. 5. Możliwość obserwacji stereoskopowej bez układu optycznego przez kilka osób jednocześnie, co ma znaczenie np. w procesie szkolenia. 6. Obsługa DWP jest bardziej przyjazna dla operatora niż autograf analityczny, co umożliwia jej obsługę przez mniej zaawansowanych operatorów. 7. Możliwość generowania cyfrowej ortofotomapy, obecnie najbardziej popularnego produktu fotogrametrycznego. Ortofotomapa ma postać rastrową i jako taka nie jest możliwa do opracowania na autografie analitycznym. 8. Łatwość wizualizacji produktów DWP i łączenia ich z innymi aplikacjami użytkownika, a w tym ze środowiskiem GIS. 9. Duży stopień automatyzacji procesów opracowania zdjęć. 10. Możliwość pracy w sieci.
75
Aerotriangulacja – uwagi wstępne
``` 1. Opracowanie fotogrametryczne można sprowadzić do opracowania kolejnych modeli (stereogramów) pokrywających obiekt. ``` 2. Do takiego opracowania konieczna jest znajomość:  elementów orientacji zewnętrznej każdego ze zdjęć, lub  terenowych współrzędnych przestrzennych (X,Y,Z) grupy punktów na każdym stereogramie. 3. Dane te (tj. elementy orientacji zewnętrznej każdego ze zdjęć lub współrzędne przestrzenne (X,Y,Z) grupy punktów) wyznacza się zwykle nie poprze pomiar (elementy w locie a punkty w terenie), ale kameralnie, metodami fotogrametrycznymi, w tzw. procesie aerotriangulacji. ```  Na obszarze opracowania, złożonym z wielu szeregów i zdjęć, istnieje pewna (nieliczna) grupa punktów o współrzędnych wyznaczonych metodami geodezyjnymi – tzw. fotopunktów. ``` ```  W procesie aerotriangulacji wyznacza się (kameralnie) współrzędne punktów na każdym stereogramie w liczbie koniecznej do dalszego opracowania stereogramu, stąd mówi się, że aerotriangulacja to kameralne zagęszczenie istniejącej osnowy geodezyjnej ``` Aerotriangulacja sprowadza się do połączenia dużej liczby zdjęć (bloku zdjęć złożonego z wielu szeregów) w jednolitą sieć geometryczną, wyrażoną zwykle w zewnętrznym, przestrzennym układzie współrzędnych geodezyjnych. Warunkiem jest pokrycie wzajemne szeregów i zdjęć w szeregach:  podłużne p > 60%,  poprzeczne q > 25%. Celem aerotriangulacji jest:  określenie (wyznaczenie) elementów orientacji zewnętrznej zdjęć (XO, YO, ZO, ω, φ, κ),  wyznaczenie przestrzennych współrzędnych terenowych punktów przejściowych (X, Y, Z)
76
Georeferencja wprost
Georeferencja wprost polega na bezpośrednim pomiarze elementów orientacji zewnętrznej kamery, tj. bez udziału fotopunktów. Konieczne jest w tym celu uwzględnienie przestrzennych i czasowych relacji między trzema systemami: GPS, INS i kamery. Sprowadza się to do przestrzennej (3D) transformacji wektora obrazowego r^0 (wektora obrazu punktu w przestrzennym układzie współrzędnych kamery) do wektora ri^m m punktu terenowego w terenowym (geodezyjnym) układzie współrzędnych.
77
Systemy INS
Sercem systemu INS jest inercyjna jednostka pomiarowa – IMU (Inertial Measurement Unit), „na głucho” zintegrowana z obudową kamery. W jednostce znajdują się trzy akcelerometry mierzące przyśpieszenia wzdłuż trzech ortogonalnych osi i triada żyroskopów sztywno związanych z osiami poruszającej się kamery. Obecnie nie są to tradycyjne żyroskopy z wirującymi masami, lecz żyroskopy laserowe, oparte na technologii światłowodowej, nie zawierające ruchomych elementów. Pozycja oraz orientacja w systemach INS jest wyliczana na podstawie zmierzonych przyśpieszeń i kursu. Integracja tych wielkości nazywana jest mechanizacją surowych pomiarów. W wyniku dość złożonej obróbki pomiarów można wyznaczyć wartości kątowe orientacji kamery oraz przyrosty współrzędnych przebyte przez kamerę. System INS dostarcza bardzo dokładne wyniki względne, niestety, wartości bezwzględne pogarszają się istotnie wraz z upływem czasu pracy systemu (tzw. dryft).
78
Integracja GPS/INS
Integracja obserwacji uzyskanych w systemach GPS i INS w znaczący sposób poprawia osiągane dokładności i eliminuje ich wady. Wykorzystuje się tu fakt, że oba systemy pozycjonowania mają różną propagację błędów, co czyni je wzajemnie komplementarnymi. Z jednej strony to wykorzystanie wysokiej dokładności, jaką w krótkim okresie czasu osiągają systemy INS, do wygładzenia obserwacji GPS. Położenie i prędkość pomierzone przez INS pomaga odbiornikowi GPS wyznaczyć nieoznaczoność fazy, zniwelować wpływ utraty cykli oraz zakłóceń odbioru sygnału z satelitów GPS. Z drugiej strony, wysoka stabilność GPS umożliwia wykorzystanie jego obserwacji do kompensacji błędów systematycznych systemu INS, związanych z pogarszaniem wyników wraz z upływem czasu. W pierwszym etapie obserwacje z obu urządzeń są filtrowane przez własne dedykowane filtry i dopiero po tym następuje integracja w filtrze wspólnym. Praktycznie realizowane jest to w ten sposób, że filtry przez większość czasu pracują oddzielnie i co jakiś określony interwał wyniki z jednego systemu są używane jako pseudoobserwacje do korekcji pomiarów drugiego systemu. W tym procesie powszechnie stosuje się filtr Kalmana.
79
Numeryczny Model Terenu - definicja
Numeryczny Model Terenu jest dyskretną (punktową, liniową) reprezentacją wysokości topograficznej terenu, wraz z algorytmem interpolacyjnym umożliwiającym odtworzenie jej kształtu w określonym obszarze z = f(x,y) (DTM - Digital Terrain Model)
80
Numeryczny Model Pokrycia Terenu (NMPT) - definicja
Numeryczny Model Pokrycia Terenu (NMPT) odnosi się do powierzchni terenu wraz ze znajdującym się na niej naturalnym (np. lasy) lub sztucznym pokryciem (np. zabudowania), tj. opisuje powierzchnię terenu wraz z obiektami ponad nią „wystającymi” Inaczej:  Numeryczny Model Powierzchni Topograficznej wraz z pokryciem  Numeryczny Model Powierzchni Odpowiednik w literaturze: Digital Surface Model (DSM)
81
Numeryczny Model Terenu – produkty pochodne:
```  profile poprzeczne  mapa warstwicowa  mapa spadków  mapa ekspozycji stoków (mapa nasłonecznienia)  mapa widoczności  różne rodzaje wizualizacji terenu. ```
82
Lotniczy skaning laserowy – zasada działania
- Wykorzystuje dalmierz laserowy. - Działa w zakresie podczerwieni (bliska podczerwień, do 1540 nm) lub rzadziej w zakresie widzialnym; - Wykorzystuje impulsową metodę pomiaru z częstotliwością rzędu 2 - 100 kHz, czyli próbkuje kilka - kilkadziesiąt tysięcy punktów na sekundę; - Promienie światła są kierowane na teren w płaszczyźnie poprzecznej do kierunku lotu, za pomocą zwierciadła (obrotowego lub wahadłowego); lub światłowodem
83
Przetwarzanie rzutowe zdjęcia lotniczego
Przetworzenie (opracowanie) pojedynczego zdjęcia Cel opracowania:  wyeliminowanie zniekształceń perspektywicznych, spowodowanych nachyleniem zdjęcia,  doprowadzenie do jednorodnej, żądanej skali
84
Idea ortorektyfikacji zdjęcia lotniczego
``` Istnieje matematyczna zależność między punktem terenowym (XYZ), pikselem ortofoto (XY) i jego obrazem (xy). Zależność tą stanowi warunek kolinearności ```
85
Cyfrowa ortofotomapa
Ortofotomapa cyfrowa jest rastrowym, ortogonalnym i kartometrycznym obrazem terenu, który powstał w wyniku cyfrowego przetworzenia skanowanych zdjęć lotniczych i satelitarnych, lub obrazów cyfrowych. W trakcie przetworzenia usunięte zostają zniekształcenia występujące na zdjęciu (obrazie) spowodowane geometrią i deniwelacjami terenu. Ortofotomapa zachowuje zasób informacji jak zdjęcie (obraz) z dodatkową możliwością pomiaru współrzędnych płaskich (posiada georeferencję).
86
Przepróbkowanie (resampling) - metody
Metody:  najbliższego sąsiedztwa (Nearest Neighbor),  interpolacja bilinearna (Bilinear Interpolation),  splotu sześciennego (Cubic Convolution),  wykładnicza (Expotential).
87
3D model miasta
3D model miasta to cyfrowy opis, w tym trójwymiarowej geometrii, terenu, ulic, roślinności oraz budynków w terenie zabudowanym. Model miasta 3D jest przestrzennym, wirtualnym odwzorowaniem bryły miasta (lub pojedynczego obiektu) w przyjętym, przestrzennym układzie odniesienia. Modeli taki zawiera powierzchnię topograficzną terenu w formie numerycznego modelu terenu (NMT), wraz z obiektami „wystającymi” ponad tę powierzchnię, a więc bryły budynków i inne obiekty topograficzne (drogi, cieki, mosty, itp.), oraz obiekty infrastruktury technicznej (rurociągi, linie energetyczne, mosty itd.). Model taki zawiera zwykle również model roślinności. Poszczególne obiekty oprócz reprezentacji geometrycznej mogą mieć również atrybuty opisowe (tak jak obiekty w bazie danych topograficznych). Wszystkie elementy modelu (wszystkie punkty modelu) mają przestrzenne współrzędne (X, Y, Z) w przyjętym układzie współrzędnych (podobnie jak mapa numeryczna). Istotna różnica sprowadza się do trójwymiarowej reprezentacji (zwykła mapa jest „plaska”). Obiekty oprócz reprezentacji graficznej mogą mieć listę atrybutów opisowych (tak jak obiekty w bazie danych topograficznych). Obiekty w modelu mogą mieć różny stopień szczegółowości reprezentacji detali, aż do pokrycia ścian budynków teksturami wziętymi ze zdjęć fotograficznych i nadania światłocienia, co przydaje modelowi znamion „realności”.
88
Poziomy szczegółowości LoD (Level-of-Detail) wg. CityGML:
 LoD 0: model regionalny, typu 2.5D, NMT z nałożoną ortofotomapą, bez reprezentacji 3D budynków. Odpowiednik skali: < 1:50 000  LoD 1: blokowy model miasta, bez kształtu dachów, budowany poprzez „podniesienie” obrysów budynków. Kompletność powyżej 6x6 m. Odpowiednik skali: 1:5000 – 1:50 000  LoD 2: model miasta z oddaniem kształtu dachów, teksturami i roślinnością. Kompletność powyżej 4x4 m. Odpowiednik skali: 1:1000 – 1:5000  LoD 3: model miasta ze szczegółowymi elementami kształtu (oknami i drzwiami), roślinnością, uzbrojeniem pasa drogowego. Kompletność powyżej 2x2 m  LoD 4: model wnętrz, szczegółowe modele architektoniczne z wewnętrznymi strukturami jak np. ścianami wewnętrznymi, pomieszczeniami i meblami. Kompletność powyżej 0,2x0,2 m.
89
Klasyfikacja technik / metod budowy modeli 3D:
```  Model blokowy (metoda uproszczona)  Metoda fotogrametryczna (lotnicza)  ALS – lotniczy skaning laserowy (LiDAR) (Airborne Laser Scanning)  TLS – naziemny skaning laserowy (Terrestrial Laser Scanning)  Fotogrametria naziemna (cyfrowa)  MMS – mobilny system pomiarowy (Mobile Mapping System) ```
90
Piramida obrazów
Piramida obrazów- obrazy posiadające strukturę hierarchiczną, tworzone przez redukowanie rozdzielczości obrazu pierwotnego. Proces matchingu (automatycznego dopasowania obrazów) jest powtarzany na każdym poziomie, aż do znalezienia dokładnej pozycji. Metody wykorzystywane na poszczególnych poziomach: Feature based Matching- obiekty z obrazów oryginalnych są porównywane do odpowiednich obiektów na pozostałych obrazach. Least Squares Matching- porównuje się małe fragmenty obrazów, a następnie mierzy się ich podobieństwa na podstawie korelacji lub metody najmniejszych kwadratów. Piramidę obrazów wykorzystuje się w celu ograniczenia obszaru poszukiwań odpowiedników na innych obrazach.
91
Mapa spadków
Mapa spadków przedstawia kąt nachylenia terenu w danym miejscu albo procentowy spadek (tutaj: kąt nachylenia terenu). Im mniejsza rozdzielczość tym wynikowa mapa bliższa jest rzeczywistości (dokładniejsza).
92
Ortofotomapa
Ortofotomapa- mapa, której treść jest przedstawiona obrazem fotograficznym. Charakteryzuje się: rzutem ortogonalnym oraz jednolitą skalą dla całej powierzchni terenu (skali nie mają jednak obiekty wystające ponad teren). Do stworzenia ortofotomapy są potrzebne: zdjęcia, elementy orientacji zewnętrznej i wewnętrznej zdjęć oraz NMT (tutaj: ze skaningu lotniczego).
93
Ortorektyfikacja
zamiana rzutu środkowego na ortogonalny. Zdjęcia fotogrametryczne są rzutem środkowym przestrzeni na płaszczyznę.
94
Ortoobrazy
Ortoobrazy generowane z chmury punktów charakteryzują się tym, że są w pełni ortogonalne, w przeciwieństwie do Orthophoto. W wykonanej ortofotomapie obiekty wystające ponad powierzchnię terenu odwzorowane są w rzucie środkowym. Można ten efekt skorygować, np. przesuwając dachy budynków zgodnie z rzutem prostokątnym oraz uzupełniając brakujące obrazy terenu fragmentami z sąsiednich zdjęć. True-Ortho, czyli rzeczywista ortofotomapa jest w pełni ortogonalna. Wadą ortoobrazów generowanych z chmury punktów są białe pola, które świadczą o braku punktów w tych miejscach. Opracowanie tego jest bardzo czasochłonne. Dużo zależy także od gęstości punktów w chmurze. Tru-Ortho, czy Orthophoto są lepszym rozwiązaniem.
95
True ortofoto - prawdziwa ortofotomapa -
True ortofoto - prawdziwa ortofotomapa - jest to mapa fotograficzna na której obrazy wszystkich (lub wybranych) obiektów s ą zrektyfikowane do poło Ŝenia ortogonalnego.
96
Fotogrametria analogowa
Fotogrametria analogowa wykorzystuje analogową postać danych (zdjęcia analogowe na filmie zwojowym) i analogowe metody opracowania. Również postać końcowa ma postać analogową (mapa papierowa).
97
Fotogrametria analityczna
Fotogrametria analityczna wykorzystuje analityczne metody opracowania. Wynik opracowania ma zwykle postać wektorową, zapisaną na nośnikach komputerowych. Typowym produktem fotogrametrii analitycznej jest mapa numeryczna.
98
Fotogrametria cyfrowa
Fotogrametria cyfrowa wykorzystuje cyfrową postać danych początkowych (postać rastrową), tj. zeskanowane zdjęcia analogowe lub pozyskane bezpośrednio kamerami cyfrowymi. Wynik opracowania może przybierać formę wektorową (np. mapa numeryczna) lub rastrową (np. cyfrowa ortofotomapa). Cechą wyróżniającą metody fotogrametrii cyfrowej spośród wcześniejszych jest bardzo wysoki poziom automatyzacji technologicznych procesów opracowania.
99
Rodzaje rozproszenia w atmosferze:
- rozproszenie molekularne (Rayleigha), stosuje się do rozproszenia w ośrodku o cząstkach nie większych niż długość fali światła, dobrze opisuje rozproszenie w czystej atmosferze (tj. wolnej od aerozoli), - rozproszenie Mie, opisuje rozproszenie na cząstkach o wielkości porównywalnych lub większych do długości fali, ten model jest szczególnie odpowiedni do rozproszenia w aerozolu atmosferycznym (pewna ilość zawiesin znajdująca się w atmosferze - oprócz gazów, np. para wodna, dymy, pyły)
100
system pasywny
wykorzystuje promieniowanie słoneczne odbite od powierzchni Ziemi lub promieniowanie własne Ziemi
101
system aktywny
sam oświetla powierzchnię Ziemi i rejestruje energię odbitą (np. systemy radarowe)
102
martwe pola
są fragmentami terenu zasłoniętymi przez przeszkody
103
stosunek bazowy
to stosunek długości bazy (tj. odległości sąsiednich miejsc fotografowania) do wysokości lotu
104
zdolność rozdzielcza zdjęcia
Szczegółowość zdjęcia zależy od jego zdolności rozdzielczej, a ta zależy od: - zdolności rozdzielczej obiektywu, - zdolności rozdzielczej emulsji fotograficznej, - rozmazania obrazu wskutek ruchu kamery w czasie otwarcia migawki (ruch postępowy nośnika i wibracje korpusu), - rozproszenia światła i innych zjawisk optycznych zachodzących w atmosferze.
105
resampling
Obraz cyfrowy jest tablicą składającą się z pikseli poukładanych w kolumny i wiersze, charakteryzujących się wartością radialną. Jednym z podstawowych procesów w produkcji ortofotomap jest transformacja tablicy zeskanowanego zdjęcia pomiędzy układem kamery i terenowym układem współrzędnych (przepróbkowanie - resampling).
106
stereo-matching
Technika matching'u znajduje punkty homograficzne na dwóch (stereo) lub większej ilości obrazów (2D) zawierających ten sam obszar przestrzeni.
107
korelacja obrazów
Korelacja obrazów polega na automatycznym odnajdywaniu na zdjęciu fragmentów, które mają największy stopień prawdopodobieństwa do przyjętego wzorca. Mając tablicę wzorcową, np. znaczka tłowego i znając jego przybliżone położenie, przeszukujemy obszar wokół tego położenia.
108
piramida obrazów
Metoda piramid jest metodą hierarchiczną stosowaną w wielu algorytmach korelacji (matching'u). Polega ona na hierarchicznej wielopoziomowej korelacji, która rozpoczyna się od utworzenia piramidy. Materiałem wyjściowym do tworzenia piramidy są zdjęcia. Pierwszy poziom wygładzany jest przez odpowiedni filtr Gaussa. Poszczególne poziomy piramidy różnią się rozdzielczością.
109
aerotriangulacja
Technologia kameralnego zagęszczenia osnowy. Aerotriangulacja cyfrowa wykorzystuje korelację obrazów.
110
TIN (Triangular Irregular Network)
Nieregularna sieć trójkątów wraz z topologią. Wierzchołki trójkątów opierają się na punktach pomiarowych.
111
regularna sieć (kwadratów, prostokątów lub trójkątów, zwykle kwadratów)
Powstaje zwykle nie poprzez pomiar, lecz poprzez interpolację między rozproszonymi punktami pomiarowymi. Określana jako "sieć wtórna" lub "sieć wynikowa" DTM.
112
Rozdzielczość przestrzenna
wielkość terenowa piksela, rozmiar terenu odwzorowany na zdjęciu przez piksel, np. 30x30[m] dla Landsat.
113
Rozdzielczość spektralna
zakres długości fali, który może być odbierany przez detektor na satelicie, podział na kanały spektralne.
114
Rozdzielczość radiometryczna
ilość bitów określająca zakres wartości radiometrycznych pikseli obrazu (dla 8 bitów – 256 stopni, od 0 do 255, najczęściej stosowana rozdzielczość radiometryczna).
115
Pokrycie podłużne
stosunek procentowy długości wzajemnie pokrywających się części zdjęć sąsiednich szeregów do długości pojedynczego zdjęcia mierzonej wzdłuż prostej prostopadłej do kierunku lotu samolotu. Pokrycie podlużne – ok. 60%.
116
Pokrycie poprzeczne
stosunek dwukrotnie sfotografowanej części zdjęcia do długości całego zdjęcia mierząc wzdłuż prostej równoległej do kierunku lotu. Pokrycie poprzeczne – ok. 30%.
117
Baza poprzeczna fotografowania (w skali zdjęcia i w terenie).
odległość osi sąsiednich szeregów w terenie
118
Podstawowe parametry geometryczne zdjec:
wysokosc fotografowania (lotu), baza zdjec, pokrycie podłużne i poprzeczne pomiedzy zdjeciami.
119
Skala
stosunek odległości obrazu kamery pomiarowej do wysokości lotu
120
wysokosc fotografowania (lotu)
iloczyn skali zdjęcia i odległości obrazowej kamery (przybliżona wartość)
121
Georeferencja bezpośrednia (metoda bezpośredniego kodowania)
określenie elementów orientacji zewnętrznej w czasie lotu. W celu określenia orientacji zewnętrznej (elementów liniowych i kątowych) zdjęć w szeregu i w bloku w czasie lotu, stosowane są obecnie zintegrowane systemy GPS/INS. Dla określenia w czasie lotu tylko liniowych elementów (współrzędnych x,y,z środków rzutów) stosowane są niezależne systemy GPS. INS określa parametry kątowe (nachylenie podłużne, poprzeczne i azymut). Znaczenie: elementy orientacji zewnętrznej są już wyznaczone w trakcie lotu, nie trzeba nad tym pracować na autografach cyfrowych.
122
Orientacja wewnętrzna
Orientacja wewnętrzna definiuje perspektywiczną geometrię zdjęcia i określa kształt wiązki promieni wychodzących ze środka rzutów. Orientacja wewnętrzna ma wpływ na wierność odtworzenia wiązki promieni w przestrzeni obrazowej w stosunku do odpowiadającej jej wiązki w przestrzeni obiektu. Orientacja wewnętrzna jest opisana przez: - kalibrowaną odległość obrazuf (ck), - położenie punktu głównego zdjęcia O(xo yo)w układzie znaczków tłowych xt yt, - charakterystykę geometryczną dystorsji obiektywu kamery.
123
punkt główny zdjęcia
punkt w którym oś optyczna (wzdłuż promienia głównego wiązki) przebija płaszczyznę zdjęcia–współrzędne tego punktu są określone w układzie znaczków tłowych
124
Orientacja wzajemna dwóch kolejnych zdjęć w szeregu
oznacza określenie takiego ich wzajemnego przestrzennego położenia, jakie miały one w trakcie wykonania zdjęć kamerą lotniczą. Parametry orientacji wzajemnej wyznacza się zawsze w stosunku do lokalnego układu odniesienia jakim jest baza fotografowania, dowolnie zorientowana w stosunku do układu terenowego. Równanie określające paralaksę poprzeczną, jest zatem podstawą do określenia modelu matematycznego dla wyznaczenia orientacji wzajemnej dwóch zdjęć.
125
Aerotriangulacja przestrzenna zdjęć
Głównym celem aerotriangulacji jest określenie elementów orientacji zewnętrznej zdjęć, co dotyczy zadania georeferencji obrazów. W procesie aerotriangulacji, zdjęcia w szeregu i bloku są powiązane (łączone pomiędzy sobą w szeregu i pomiędzy szeregami) na podstawie punktów wiążących, dla których ostatecznie zostają wyznaczone współrzędne w układzie terenowym. W trakcie aerotriangulacji, następuje rekonstrukcja położenia przestrzennego zdjęć, jakie one miały w czasie fotografowania, czyli zostają wyznaczone elementy orientacji zewnętrznej zdjęć. Jeśli elementy te zostają wyznaczone w trakcie nalotu przez zintegrowane systemy GPS/INS (środki rzutów zdjęć i elementy kątowe), lub tylko przez GPS (środki rzutów), wówczas zostają one uwzględnione w procesie aero i jedynie poprawione ze względu na błędy systematyczne systemu. Metoda rejestracji elementów orientacji zewnętrznej w czasie lotu przy użyciu systemu GPS/INS zwana jest: metodą bezpośredniego geokodowania lub georeferencja wprost.
126
Automatyczna aerotriangulacja
Automatyczna aerotriangulacja jest wykonywana na stacjach cyfrowych, gdzie pomiar punktów wykonuje się w trybie pół-automatycznym lub automatycznym. Programy do wyrównania aerotriangulacji bazują na takich samych podstawach, jakie są w klasycznych metodach aerotriangulacji analitycznej. Jednakże zwykle stosuje się wyrównanie obserwacji metodą niezależnych zdjęć (wiązek).
127
Korekcja atmosferyczna
metoda optycznego lub numerycznego eliminowania szumu, czyli części promieniowania rozproszonego w atmosferze, które nie miało kontaktu z badanym obiektem i nie przenosi o nim informacji a dociera do urządzenia rejestrującego i jest przez niego rejestrowana.
128
Teledetekcja
obejmuje zespół technik i metod umożliwiających rozpoznawanie i badanie obiektów oraz zjawisk z odległości, tj. bez kontaktu z tymi obiektami i zjawiskami.
129
Okna atmosferyczne
zakresy promieniowania elektromagnetycznego, w których atmosfera nie pochłania promieniowania. Są to: pasmo widzialne i bliska podczerwień (odbita), podczerwień średnia, podczerwień termalna, zakres mikrofalowy.
130
Charakterystyka spektralna
rozkład energii odbitej i wypromieniowanej przez obiekt w różnych zakresach spektralnych.
131
Sposoby rejestracji stereopar obrazów z pułapu satelitarnego.
Wychylanie układu optycznego w przód i wstecz pozwala uzyskać stereoskopię z jednej orbity. System obrazuje dany obszar dwa razy: raz wychylając układ do przodu i drugi raz wstecz, z opóźnieniem kilkudziesięciu sekund. Stereoskopia z sąsiednich orbit stosowana w satelitach SPOT i IRS jest gorszym rozwiązaniem. W tym wypadku obrazy stereo otrzymuje się przez wychylenie układów w poprzek.
132
Przetwarzanie cyfrowe zdjęć
techniki analizy komputerowej zdjęć w postaci cyfrowej, których podstawowym celem jest ułatwienie pozyskania bądź bezpośrednie pozyskanie określonej kategorii informacji. Główna idea przetwarzania cyfrowego sprowadza się do sekwencyjnego przeliczania wartości radiometrycznych pikseli z wykorzystaniem zadanego algorytmu.
133
Przetwarzanie wstępne zdjęć cyfrowych
procedury korygujące zdjęcie satelitarne z uwagi na zniekształcenia w zakresie radiometrii oraz geometrii obrazu powstałe w trakcie rejestracji.
134
Klasyfikacja nadzorowana
wykorzystuje tzw. „pola treningowe", czyli wybrane fragmenty obrazu (określamy ich granice w postaci odpowiedniego pliku wektorowego), które można uznać za reprezentatywne dla poszczególnych kategorii użytkowania terenu, stanowiące wzorce klas. Dzięki temu interpretator może „nadzorować” przebieg automatycznego procesu klasyfikacji, opierając się na wszelkich dostępnych informacjach, pozyskiwanych nie tylko z treści obrazu, ale także innych źródeł (materiały kartograficzne, zdjęcia lotnicze, opisy tekstowe, obserwacje terenowe, itp.).