Ciekawe Tematyarchiwum Geodetywiadomościnewsletterkontaktreklama
Najnowsze wydarzenia z dziedziny geodezji, nawigacji satelitarnej, GIS, katastru, teledetekcji, kartografii. Nowości rynkowe, technologiczne, prawne, wydawnicze. Konferencje, targi, administracja.
blog

Obrazowania satelitarne


Zdzisław Kurczyński

Rozwój technik obrazowania satelitarnego
Historia obrazowania powierzchni Ziemi z bliskiej przestrzeni kosmicznej jest stosunkowo krótka, praktycznie rozpoczęła się wraz z umieszczeniem pierwszych bezzałogowych satelitów, a wkrótce załogowych statków kosmicznych na orbitach wokółziemskich. W programach wszystkich załogowych lotów kosmicznych było przewidziane fotografowanie powierzchni Ziemi. Można tu wymienić amerykańskie programy lotów kosmicznych Mercury (1961-63), Gemini (1965-66), Apollo, oraz radzieckie statki kosmiczne Sojuz.

Podczas tych misji fotografowano wybrane rejony, wykorzystując małoobrazkowe (film szerokości 35 mm) i średnioformatowe (film szerokości 70 mm) amatorskie aparaty fotograficzne. Stosowano filmy barwne negatywowe i pozytywowe w barwach rzeczywistych, filmy panchromatyczne, oraz barwne w podczerwieni. Jakość tych zdjęć była zróżnicowana, przekonano się - co było do przewidzenia - że nie można uzyskać prawidłowego oddania barw na zdjęciach z powodu silnego wpływu atmosfery, a szczególnie zawartej w niej pary wodnej. Ale już te zdjęcia dały całkowicie nowy obraz naszej planety, niemożliwy do uzyskania nawet na drobnoskalowych zdjęciach lotniczych. Te pierwsze zdjęcia spotkały się z zainteresowaniem specjalistów różnych dziedzin, szczególnie geologów i meteorologów. Utwierdzono się w celowości fotografowania satelitarnego, oraz potrzebie rozwijania specjalnych metod fotograficznych.

W ramach programu Apollo, zorientowanego na załogowe lądowanie na Księżycu, rozpoczęto eksperymenty z fotografią wielospektralną, oraz skonstruowano bardzo zaawansowane, specjalistyczne kamery panoramiczne, przeznaczone m.in. do fotografowania powierzchni Księżyca dla wytypowania miejsc lądowania.

Fotografowanie było ważnym elementem programów realizowanych na orbitalnych stacjach badawczych Skylab (USA) czy Salut (ZSRR). Zaczęto używać adaptowanych kamer fotogrametrycznych, oraz rozwijano techniki fotografii wielospektralnej.
W ramach fotografii satelitarnej ważny rozdział stanowią programy fotograficzne realizowane w ramach misji promu kosmicznego Space Shuttle. Mowa tu o programach kartograficznych z użyciem kamery pomiarowej MC (ang.: MC - Metric Camera) i wielkoformatowej kamery LFC (ang.: Large Format Camera).

Równie ważnym działem fotografii satelitarnej są programy rozpoznania satelitarnego dla celów militarnych. Oba supermocarstwa USA i ZSRR stworzyły bardzo rozbudowane i zaawansowane systemy rozpoznania oparte na zdjęciach fotograficznych. W przypadku USA był to program "Corona" zatwierdzony w 1958 roku, a odpowiadający mu program w ZSRR miał kryptonim "Zenit". Program Corona był oparty na specjalnie dla niego skonstruowanej kamerze panoramicznej KH (ang.: Key Hole - "dziurka od klucza"). Była to kamera panoramiczna na film o szerokości 70 mm, z ruchomym obiektywem o ogniskowej f=605 mm i polu widzenia 6 w kierunku lotu i 70 w kierunku poprzecznym. Powstało wiele modeli tej kamery. Zdjęcia wykonane tą kamerą charakteryzują się bardzo wysoką terenową zdolnością rozdzielczą, od kilkunastu metrów dla początkowych modeli (12 m dla KH-1), do 2 m dla modeli późniejszych. Kamera wykonywała zdjęcia pionowe, niektóre modele wykonywały konwergentne zdjęcia stereoskopowe, poprzez nadanie kamerze ruchu wahadłowego "do przodu" i "wstecz". Ładowniki z naświetlonym filmem były odstrzeliwane z satelity, powracały na Ziemię i były przechwytywane w powietrzu przez samoloty lub wyławiane z morza. W latach 1960-72 w ramach programu wykonano 362 misje satelitarne. Satelity programu Corona poruszały się po orbitach o wysokości 185-280 km oraz 400-700 km. Opracowano nowe metody i specjalne instrumenty do interpretacji i opracowania zdjęć panoramicznych. (W 1995 roku prezydent B. Clinton polecił odtajnić ponad 860 tys. zdjęć wykonanych w ramach satelitarnych misji zwiadowczych w latach 1960-72).
Realizację programu Zenit (ZSRR) rozpoczęto w 1961 roku. Wykorzystywano kamery o różnych formatach, aż do formatu 30x30 cm i różnych ogniskowych, aż do f = 3000 mm i terenowej zdolności rozdzielczej 1 m. Kamery były instalowane na pokładach satelitów serii Kosmos. Ocenia się, że jedna trzecia tych satelitów to satelity zwiadu wojskowego. Wojskowe misje fotograficzne były stosunkowo krótkie: trwały od 8 do 12 dni. Naświetlony film był przechwytywany w powietrzu. Przykładem bardzo zaawansowanego satelitarnego systemy kartograficznego o "militarnym rodowodzie", jest nadal działający, komercyjny system Kometa.

Programy zwiadu kosmicznego odegrały doniosłą rolę; były dla obu stron jedynym obiektywnym źródłem informacji niemożliwych do zdobycia innymi metodami. Jako takie programy te stały się ważnym instrumentem wzajemnej kontroli zbrojeń i utrzymania stanu równowagi militarnej w okresie zimnej wojny.

W pierwszej fazie obrazowania satelitarnego systemy fotograficzne miały zdecydowaną przewagę nad systemami niefotograficznymi. Zaletą systemów fotograficznych w tamtym okresie była możliwość pozyskania zdjęć o wysokiej rozdzielczości i doskonałej geometrii, co dla niektórych zastosowań miało zasadnicze znaczenie, np. dla zwiadu wojskowego. Dużym jednak ograniczeniem systemów fotograficznych była konieczność "sprowadzania" filmu na Ziemię.

Obok metod fotograficznych bardzo dynamicznie rozwijały się i nadal się rozwijają niefotograficzne metody obrazowania Ziemi z kosmosu. W początkowym okresie były to kamery telewizyjne, a później skanery optyczno-mechaniczne, skanery elektrooptyczne, radiometry i systemy radarowe wykorzystujące mikrofalowy zakres spektrum. Systemy niefotograficzne, określane również jako systemy obrazowania elektronicznego, mają szereg zalet nad systemami fotograficznymi:

  • Dostarczają obraz drogą radiową w tzw. czasie rzeczywistym, tj. w momencie obrazowania. Ma to zasadnicze znaczenie dla śledzenia z kosmosu procesów szybkozmiennych (np. pokrywy chmur dla meteorologii).
  • Mogą dostarczać obrazy w zakresach spektralnych niedostępnych dla fotografii (podczerwień średnia, podczerwień termalna, mikrofale).
  • Satelity umieszczone na orbitach bliskobiegunowych dostarczają obrazy praktycznie z powierzchni całego globu.
  • Żywotność satelitów liczona jest w latach, a niefotograficzne systemy umieszczone na ich pokładzie permanentnie dostarczają obrazy Ziemi, pokrywające obrazami co kilka-kilkanaście dni cały glob. Pozwala to monitorować dynamikę procesów zachodzących na powierzchni Ziemi.
  • Pierwotna forma zapisu obrazów jest formą cyfrową, idealnie nadającą się do dalszego przetwarzania komputerowego.
  • Koszty pozyskania obrazów niefotograficznych z bezzałogowych satelitów są niewspółmiernie mniejsze niż koszty zdjęć satelitarnych.

Ograniczeniem obrazowania elektronicznego, szczególnie w początkowej fazie, była stosunkowo niska rozdzielczość pozyskiwanych obrazów i ich bardzo znaczne zniekształcenia geometryczne. Rozwój satelitarnego obrazowania niefotograficznego przejawia się we wzroście geometrycznej zdolności rozdzielczej i rozdzielczości radiometrycznej. Szybki rozwój mikroelektroniki i cyfrowych metod opracowania obrazów powoduje wypieranie metod fotograficznych, co ciekawsze, zdobycze techniczne w tym zakresie przechodzą z pułapu satelitarnego na pułap lotniczy.

Przełom w obrazowaniu Ziemi stanowiło zapoczątkowanie w 1972 r. programu Landsat. Był to pierwszy z serii satelita specjalnie zaprojektowany do globalnego, powtarzalnego i wielospektralnego obrazowania Ziemi. Wysoka jakość obrazów, oraz łatwy do nich dostęp spowodowały gwałtowny rozwój teledetekcji satelitarnej i zainteresowanie specjalistów różnych dziedzin. Satelity te określane są jako "teledetekcyjne", "technologiczne", "gospodarcze" czy "ogólnogeograficzne", podkreślając tym ich uniwersalne przeznaczenie. Lata 70. i 80. to szybki rozwój obrazowania satelitarnego w zakresie optycznym. Kolejne generacje satelitów Landsat charakteryzują się coraz większymi geometrycznymi zdolnościami rozdzielczymi oraz coraz szerszym zakresem spektralnego pozyskiwanych obrazów. W latach 80. pojawił francuski system SPOT, umożliwiający dodatkowo stereoskopię, dużą rolę odgrywa również indyjski program IRS. Lata 90. to dalszy rozwój systemów teledetekcyjnych obrazujących w zakresie optycznym, oraz zaistnienie kilku systemów satelitarnych obrazujących w zakresie mikrofalowym: europejskiego systemu ERS, japońskiego systemu JERS oraz kanadyjskiego systemu Radarsat. Systemy te zostały wyposażone w radary z syntetyzowaną anteną - SAR. Unikalną właściwością systemów radarowych jest ich niezależność obrazowania od warunków oświetleniowych i pogodowych. Obrazy wymienionych systemów radarowych spotkały się z dużym zainteresowaniem i weszły do powszechnego użycia.

Globalna odwilż w stosunkach międzynarodowych zaowocowała powstaniem komercyjnych, wysokorozdzielczych systemów obrazowania powierzchni Ziemi, dostarczających obrazy z terenowym pikselem poniżej 1 m. Nie jest przesadą stwierdzenie, że systemy te otwarły "nową erę" obrazowania satelitarnego i skłaniają do rewizji ukształtowanych przez 40 lat poglądów w tym zakresie. Dotychczas wyraźnie rozróżniało się obrazowanie lotnicze i satelitarne. To rozróżnienie dotyczyło nie tylko różnych pułapów pozyskiwania zdjęć i obrazów, ale całkowicie różnych zdolności rozdzielczych pozyskiwanych z obu tych pułapów. Zaistnienie satelitarnych obrazów "metrowych" oznacza zrównanie przepaści różnej zdolności rozdzielczej obu tych źródeł; satelitarne obrazy metrowe są pod tym względem równowartościowe drobnoskalowym zdjęciom lotniczym.

Krótka historia wysokorozdzielczego obrazowania satelitarnego

Na początku lat 90. Rosja udostępniła na komercyjnych zasadach satelitarny system z kamerą fotograficzną KFA-1000, pierwotnie przeznaczony do celów wywiadu militarnego, o terenowej zdolności rozdzielczej 5-10 m. W 1992 roku umożliwiono komercyjny obrót zdjęciami satelitarnymi pozyskiwanymi kamerą KVR-1000 i KFA-3000 o terenowej zdolności rozdzielczej 2-3 m.

W marcu 1994 prezydent Stanów Zjednoczonych wydał dyrektywę nr 23, która komercyjnym systemom satelitarnym - umożliwiających obrazowanie powierzchni Ziemi z pikselem terenowym 1 m - stworzyła szansę rozwoju. Rozpoczął się wyścig trwający do dziś. Zawiązały się konsorcja stawiające sobie za cel zbudowanie komercyjnych systemów obrazowania satelitarnego i dystrybucję obrazów z "metrową" rozdzielczością: EarthWatch, ORBIMAGE, Space Imaging i ImageSat Int. Zostały zaangażowane ogromne środki finansowe oraz potencjał badawczy i produkcyjny, pracujący do niedawna na potrzeby wojska. Wkrótce opublikowano parametry techniczne budowanych systemów oraz zapowiedzi terminów umieszczenia ich na orbicie. Po serii nieudanych porób 24 września 1999 r., nastąpił długo oczekiwany przełom, z powodzeniem umieszczono na orbicie system Ikonos-2, który stał się pierwszym i przez 2 lata jedynym komercyjnym systemem dostarczającym obrazy z "metrowym" pikselem.

Po ponad dwóch latach operowania systemu Ikonos-2, 18 października 2001 r. z powodzeniem umieszczono na orbicie drugi "metrowy" system satelitarny QuickBird-2 (konsorcjum Digital Globe, dawniej EarthWatch) obrazujący z pikselem 0,61 m. Wcześniej, bo 5 grudnia 2000 r. na orbicie został umieszczony system EROS-A1 firmy ImageSat Int. obrazujący w zakresie panchromatycznym z pikselem 1,8 m, zapowiadany jest system EROS-B z pikselem "metrowym". 26 czerwca 2003 umieszczenie na orbicie trzeci "metrowy" system OrbView-3 firmy ORBIMAGE z pikselem terenowym 1m.
W międzyczasie, w grudniu 2000 r., władze amerykańskie wydały licencje dla Space Imaging i EarthWatch na operowanie komercyjnymi systemami obrazowania satelitarnego z terenowym pikselem do 0,5 m (!).

Charakterystyka wysokorozdzielczych systemów satelitarnych
Podstawowe charakterystyki komercyjnych, wysokorozdzielczych systemów satelitarnych przedstawione są w tabeli. Systemy te różnią się w szczegółach, mają jednak wiele wspólnych cech mających zasadnicze znaczenie dla ich użyteczności i wyróżniających je z systemów znanych wcześniej:

  • Systemy są umieszczane na kołowych orbitach heliosynchronicznych, tj. orbitach nachylonych do płaszczyzny równika o kąt około 98°. Jest to więc orbita okołobiegunowa (odchylona o około 80 od biegunów), taka że zachowany jest stały w czasie kąt między płaszczyzną orbity a kierunkiem na Słońce. Oznacza to przejście satelity przez dany obszar zawsze o tym samym czasie lokalnym, a w konsekwencji obrazowanie o porównywalnych warunkach oświetleniowych (przy tym samym azymucie Słońca).
  • Trajektoria orbity oraz elementy orientacji kamery są z dużą częstotliwością i dokładnością rejestrowane. To bardzo ważne dla dalszego opracowania pomiarowego. Uzyskiwana precyzja pomiaru tych elementów pozwala w zakresie drobniejszych skal opracowywać obrazy bez znajomości punktów geodezyjnych - tzw. fotopunktów.
  • System obrazowania oparty jest na zasadzie skanera elektro-optycznego. W płaszczyźnie ogniskowej układu optycznego umieszczona jest linijka detektorów (linijka CCD) dająca linię obrazu w kierunku poprzecznym do kierunku orbity, obraz w kierunku orbity tworzony jest w sposób ciągły, w wyniku ruchu satelity. O zdolności rozdzielczej decyduje wysokość orbity, ogniskowa układu optycznego i wymiary samych pikseli. Zdolność ta charakteryzowana jest przez terenowy wymiar piksela. Używane określenie "system metrowy" oznacza system z terenowym wymiarem piksela bliskim 1 m.
  • W płaszczyźnie ogniskowej znajduje się zwykle linijka detektorów rejestrująca w zakresie widzialnym - tryb panchromatyczny oraz linijki rejestrujące w wąskich podzakresach spektrum, zwykle niebieskim, zielonym, czerwonym i podczerwonym - tryb wielospektralny. Regułą jest, że rozdzielczość w trybie wielospektralnym jest gorsza - piksel jest zwykle 4 razy większy.
  • Systemy charakteryzują się dużą rozdzielczością radiometryczną, tj. zdolnością rozróżniania wielkości odbicia obiektów naziemnych. Zdolność tą charakteryzuje tzw. zakres dynamiczny, np. zakres 11-bitowy oznacza możliwość rozróżnienia 2048 poziomów szarości (dla porównania, tradycyjne zdjęcia fotograficzne charakteryzują się zakresem około 6 bitów, co odpowiada rozróżnieniu 64 poziomów szarości).
  • Układ optyczny może być wychylany w dużym przedziale kątowym w przód, wstecz i na boki. Oznacza to, że stosunkowo wąski pas obrazowania jest wybierany z szerokiego pasa terenu, nad którym przelatuje satelita. Ma to kapitalne znaczenie dla operatywności systemu, można bowiem "zaprogramować" seans obrazowania z danej orbity tak, aby obrazować tylko interesujące obszary oraz te spośród nich, które w danym momencie nie są pokryte chmurami. Możliwość wychylenia układu "na boki" kapitalnie skraca tzw. okres rewizyty, tj. odstępy czasu, w którym dany obszar na powierzchni Ziemi może być "ujrzany" przez system. Możliwość wychylenia układu optycznego w przód i wstecz umożliwia tzw. stereoskopię z jednej orbity. System obrazuje dany obszar dwa razy: raz wychylając układ "do przodu" i drugi raz "wstecz", z opóźnieniem kilkudziesięciu sekund (patrz rysunek). W rezultacie otrzymuje się parę stereo o bardzo dobrych warunkach pomiaru wysokości. Ten sposób stereoskopii ma zdecydowaną przewagę nad stereoskopią "z sąsiednich orbit" stosowaną w satelitach SPOT i IRS. W tym przypadku obrazy stereo otrzymuje się poprzez wychylenie układu w poprzek i obrazowanie z sąsiednich orbit. Problem jednak w tym, że przejście przez te orbity następuje w różnych terminach i w obu muszą jednocześnie zaistnieć sprzyjające warunki pogodowe. To bardzo zmniejsza szanse na dobrą stereoskopię. Alternatywą do stereoskopii jest możliwość obrazowania z jednej orbity więcej niż jednego pasa terenu. Pozwala to istotnie zwiększyć szerokość obrazowanego pasa terenu podczas jednego przejścia satelity. Wyjaśnia to rysunek.
  • Operatorzy systemów komercyjnych zakładają umieszczanie kolejnych satelitów, co wydłuży ich żywotność do wielu lat. Towarzyszy temu sprawna sieć dystrybucji obrazów radykalnie skracająca czas ich dostępu dla użytkownika. Bogata jest oferta przetwarzania obrazów do produktów kartograficznych o różnej skali i dokładności geometrycznej.

fotogrametria

Ikonos ma możliwość bardzo szybkiej zmiany kierunku obrazowania. Jeżeli ma być zobrazowany duży obszar z jednej orbity, pierwszy szereg może być obrazowany zgodnie z kierunkiem ruchu satelity, po tym kierunek obrazowania zostanie odwrócony o 180 ° i kolejny szereg zostanie zobrazowany w kierunku przeciwnym do kierunku poruszania się skanera. Kolejny zostanie zobrazowany ponownie zgodnie z ruchem po orbicie. I tak dalej...

Komercyjne wysokorozdzielcze systemy satelitarne

Produkty wysokorozdzielczych systemów
Typowe produkty wysokorozdzielczych systemów satelitarnych to:

  • "Surowe" obrazy, zwykle po wstępnej korekcji geometrycznej i radiometrycznej. Takie obrazy, uzupełnione o model geometryczny kamery i parametry orbity, nadają się do dalszego opracowania, np. tworzenia ortofotomap czy automatycznej klasyfikacji. W przypadku obrazów stereoskopowych możliwe jest generowanie DTM lub stereodigitalizacja (przestrzenny pomiar, np. dla tworzenia mapy wektorowej).
  • Obrazy ortorektyfikowane, przetworzone do wybranej projekcji kartograficznej na wybraną elipsoidę. Pojedyncze obrazy mogą być połączone (mozaikowane), tworząc ciągły obraz większego obszaru.

Produkty te mogą być dostarczane w opcji czarno-białej - wynik pracy systemu w trybie panchromatycznym (PAN) - lub w opcji barwnej - tryb wielospektralny (MSI). Jeżeli system obrazuje w zakresie niebieskim, zielonym, czerwonym i podczerwonym, to możliwe jest wygenerowanie obrazu barwnego w barwach rzeczywistych (poprzez złożenie zakresu niebieskiego, zielonego i czerwonego) lub barwnego w podczerwieni (złożenie zakresu zielonego czerwonego i podczerwonego).
Regułą jest, że zdolność rozdzielcza obrazów w zakresie wielospektralnym jest gorsza niż w zakresie panchromatycznym. Piksel w zakresie wielospektralnym jest zwykle 4 razy większy niż w zakresie panchromatycznym. Powszechnie stosuje się fuzję obu takich produktów, dającą obraz barwny "wyostrzony" (ang.: pan-sharpened - PSM). Są to barwne obrazy, ale z pikselem jak w zakresie panchromatycznym. To właśnie takie obrazy są zwykle prezentowane w publikacjach.

IKONOS-2 (Space Imaging)

fotogrametria


System został umieszczony na orbicie 24 września 1999 r. Obrazuje w zakresie panchromatycznym (PAN) i wielospektralnym (MS). Podstawowe parametry orbity i kamery przedstawione są w tabeli. Sercem systemu obrazowania jest teleskop o ogniskowej 10 m (!) zbudowany przez firmę KODAK. Jest to teleskop zwierciadlany złożony z 3 zwierciadeł ogniskujących i 2 zwierciadeł płaskich, co umożliwiło skrócenie fizycznej długości teleskopu do około 2 m. W płaszczyźnie ogniskowej znajduje się linijka detektorów CCD obrazująca w zakresie panchromatycznym, złożona z 13 816 elementów oraz dodatkowo 4 linijek obrazujących w zakresie wielospektralnym. Umożliwia to obrazowanie pasa terenu o szerokości 11 km z terenowym wymiarem piksela 0,82 m w nadirze. System ma pokładowy rejestrator. Dane są przesyłane do stacji naziemnych w Fairbanks (Alaska) i Tromso (północna Norwegia). Dodatkowo istnieje sieć naziemnych stacji odbierających dane w czasie bezpośredniego zasięgu. Od jesieni 2004 r. funkcjonuje taka stacja w Komorowie. Jest to tzw. Satelitarne Centrum Operacji Regionalnych - SCOR. Polska znajduje się również w zasięgu stacji położonej w Turcji oraz w Monachium.

fotogrametria

System IKONOS-2. Porównanie obrazów: panchromatycznego (piksel 1m),
wielospektralnego (piksel 4 m) i wielospektralnego
"wyostrzonego" (piksel 1 m)

fotogrametria

Zasięg stacji odbiorczych w: Komorowie/Polska (kolor czerwony),
Monachium/Niemcy (czarny) i Ankarze/Turcja (niebieski)

fotogrametria

fotogrametria

fotogrametria

Fragmenty Warszawy na obrazach z satelitów: Ikonos, QuickBird, SPOT-5 i EROS-1

QuickBird-2 (Digital Globe)

fotogrametria

System QuickBird-2 został umieszczony na orbicie 18 października 2001 r. stając się drugim - po Ikonosie - dostarczającym "metrowe" obrazy. Podstawowe parametry orbity i kamery przedstawione są w tabeli. System ten w zakresie panchromatycznym obrazuje z pikselem terenowym w nadirze równym 0,61 m w pasie o szerokości 16,5 km. Przy wychyleniu układu optycznego na boki ten wymiar i szerokość nieco wzrastają (np. dla wychylenia 25° jest to 0,72 m). Jest to więc obecnie komercyjny system o najwyższej zdolności rozdzielczej. Osiągnięto to, zmieniając orbitę: z planowanej pierwotnie wysokości 600 km na 450 km. Taką decyzję podjęto po uzyskaniu w międzyczasie licencji na operowanie systemem z pikselem do 0,5 m. Ta zmiana pozwoliła zwiększyć zdolność rozdzielczą, ale kosztem zmniejszenia szerokości pasa obrazowania (z 22 km do 16,5 km) i zmniejszenia wydajności obrazowania (o czym w dalszej części). Teleskop układu optycznego ma ogniskową o długości 8,78 m i został zbudowany przez Ball Aerospace. Linijka CCD rejestrująca w zakresie panchromatycznym ma ekwiwalentną długość 27 632 elementy.

Obrazy rejestrowane na pokładowych nośnikach są przesyłane do dwóch stacji naziemnych: w Fairbanks (Allaska) i Tromso (północna Norwegia). Takie "północne" położenie obu stacji powoduje, że każda orbita satelity znajduje się z zasięgu jednej z nich, umożliwiając przekaz zarejestrowanych danych. Dane te następnie przesyłane są specjalną magistralą do centrum przetwarzania w Longmont koło Denwer (Kolorado). Nie przewiduje się sieci naziemnych stacji odbiorczych. Wynikać to może m.in. z konieczności dość złożonego przetwarzania wstępnego danych.

EROS-A1 (ImageSat International)

fotogrametria


Interesującą alternatywą dla obu opisanych "metrowych" systemów może być system EROS-A1 (Earth Observation Satellite) umieszczony na orbicie 5 grudnia 2000 r. Jest to kopia izraelskiego wojskowego systemu Ofeg 3. Satelita EROS jest lekkim satelitą, o masie 250 kg. Operuje na orbicie heliosynchronicznej o wysokości 480 km. Dwie linijki detektorów CCD tworzą łącznie 7043 elementy, co daje obraz pasa terenu o szerokości 12,5 km z pikselem 1,8 m (w nadirze). Układ optyczny może wychylać się poprzecznie o kąt ±45°. System obrazuje tylko w zakresie panchromatycznym. Nie ma zapisu pokładowego, co oznacza odbiór tylko w bezpośrednim zasięgu stacji naziemnych. Istnieje sieć stałych i ruchomych stacji odbiorczych.

Przewiduje się rozbudowę systemu o następne satelity. Jednocześnie są zapowiedzi uruchomienia systemu EROS-B, który z orbity 600 km będzie obrazował pas terenu 13 km z pikselem 0,8 m. System ten ma mieć również możliwość obrazowania wielospektralnego (w zakresie widzialnym i podczerwieni). Oferowane są surowe obrazy (poziom 0 A), obrazy skorygowane radiometrycznie (poziom 1 A) i skorygowane geometrycznie z wykorzystaniem zarejestrowanych danych pokładowych i modelu kamery (poziom 1 B).

W minionych kilku latach obserwujemy znaczące zmiany w rozwoju obrazowania satelitarnego. Te zmiany można dostrzec w kilku zarysowanych trendach:

  • Przechodzenie od systemów subsydiowanych przez państwo na systemy komercyjne.
  • Przechodzenie od ciężkich i drogich satelitów na satelity małe. Określeniem "małe" obejmuje się satelity mikro (masa 10-100 kg), mini (masa 100 - 500 kg) i średnie (masa 500-1000 kg). Ocenia się, że satelity małe w porównaniu z dużymi (masa powyżej 1000 kg) mogą dostarczyć 95% korzyści przy 5% kosztów lub 70% korzyści przy 1% kosztów satelitów dużych.
  • Łączenie w projektowanych systemach zarówno potrzeb wojskowych, jak i cywilnych (tzw. systemy dualne).
  • Rozwój obrazowania w zakresie mikrofalowym (SAR).

Efektem tych zmian będzie zakończenie dużych programów LANDSAT i SPOT. Program SPOT będzie zastąpiony przez program ORFEO będący wynikiem porozumienia Francji z Włochami. W ramach tego porozumienia Francja będzie rozwijać program wysokorozdzielczego obrazowania w zakresie optycznym Pléiades HR, a Włochy dostarczać wysokorozdzielcze obrazy mikrofalowe (SAR) w ramach programu COSMO-SkyMed. W latach 2008-2009 przewiduje się uruchomienie dwóch satelitów z serii Pléiades HR, które będą dostarczać obrazy z pikselem 0,7 m.
Do niedawna na rozwój techniki satelitarnej mogły sobie pozwolić tylko najbogatsze kraje. Obecnie, dzięki postępowi technicznemu i towarzyszącej mu miniaturyzacji, zbudowanie i umieszczenie na orbicie satelity teledetekcyjnego stało się dostępne dla wielu krajów. Koszt takiego przedsięwzięcia może zamykać się w kwocie 10-20 mln USD. Spowodowało to, że obecnie już 13 krajów umieściło na orbitach systemy o dużej i średniej rozdzielczości. Do końca dekady liczba ta wzrośnie do 20. Obecnie mamy więc bogatą ofertę różnych systemów i ambitne plany na najbliższe lata. Ocenia się, że w przedziale rozdzielczości dużych i średnich:

  • w zakresie optycznym operuje 26 systemów, a kolejnych 25 jest w planie,
  • w zakresie radarowym operują 3 systemy, a kolejnych 9 jest w planie.

Wybrane z nich przedstawia tabela. Na uwagę zasługuje m.in. system Pléiades - następca SPOT w zakresie optycznym, który będzie obrazował z pikselem 0,7 m w zakresie panchromatycznym i 2,8 m w 4 kanałach wielospektralnych.
W ramach programu NextView zawarto kontrakty z firmami DigitalGlobe i OrbImage na zbudowanie i operowanie systemów z pikselem 0,5 m. Budowane systemy będą miały nawet mniejszy piksel (0,41 m), ale ze względu na przepisy USA do odbiorców cywilnych nie mogą trafić obrazy z pikselem poniżej 0,5 m. Wkrótce zostaną uruchomione satelitarne systemy radarowe SAR o rozdzielczości nawet do 1 m (tabela). Wśród nich należy wyróżnić dwa systemy europejskie, oba pracujące w zakresie X (3,1 cm):

  • niemiecki TerraSAR-X,
  • włoski SAR-X Cosmo-Skymed-1 we współpracy z Francją.

Umieszczenie dwóch satelitów TerraSAR-X pozwoli tworzyć NMT o zasięgu globalnym o dokładności wysokościowej 2 m, tzw. projekt TanDEM-X. Rozpatrywana jest możliwość współdziałania dwóch systemów SAR-X Cosmo-Skymed z 3-4 pasywnymi mikrosatelitami, co umożliwiłoby generowanie NMT o dokładności 1 m (tzw. projekt Cartwheel).


Wybrane satelitarne systemy obrazowania

Dr hab. Zdzisław Kurczyński jest pracownikiem dydaktycznym Instytutu Fotogrametrii i Kartografii Politechniki Warszawskiej



dodaj komentarz

KOMENTARZE Komentarze są wyłącznie opiniami osób je zamieszczających i nie odzwierciedlają stanowiska redakcji Geoforum. Zabrania się zamieszczania linków i adresów stron internetowych, reklam oraz tekstów wulgarnych, oszczerczych, rasistowskich, szerzących nienawiść, zawierających groźby i innych, które mogą być sprzeczne z prawem. W przypadku niezachowania powyższych reguł oraz elementarnych zasad kultury wypowiedzi administrator zastrzega sobie prawo do kasowania całych wpisów. Użytkownik portalu Geoforum.pl ponosi wyłączną odpowiedzialność za zamieszczane przez siebie komentarze, w szczególności jest odpowiedzialny za ewentualne naruszenie praw lub dóbr osób trzecich oraz szkody wynikłe z tego tytułu.

ładowanie komentarzy

Mobilne skanowanie na Motławie
czy wiesz, że...
© 2023 - 2024 Geo-System Sp. z o.o.

O nas

Geoforum.pl jest portalem internetowym i obszernym kompendium wiedzy na tematy związane z geodezją, kartografią, katastrem, GIS-em, fotogrametrią i teledetekcją, nawigacją satelitarną itp.

Historia

Portal Geoforum.pl został uruchomiony przez redakcję miesięcznika GEODETA w 2005 r. i był prowadzony do 2023 r. przez Geodeta Sp. z o.o.
Od 2 maja 2023 roku serwis prowadzony jest przez Geo-System Sp. z o.o.

Reklama

Zapraszamy do kontaktu na adres
redakcji:

Kontakt

Redaktor prowadzący:
Damian Czekaj
Sekretarz redakcji:
Oliwia Horbaczewska
prześlij newsa

facebook twitter linkedIn Instagram RSS