|2015-10-08|
GIS, Teledetekcja, Imprezy
Wymiana dobrych praktyk z zakresu informacji o środowisku
Ponad 300 osób uczestniczyło wczoraj (7 października) w sesji plenarnej drugiej edycji Konferencji „Środowisko Informacji” – największego w Polsce spotkania specjalistów zajmujących się pozyskiwaniem, gromadzeniem, przetwarzaniem i aktywnym udostępnianiem danych i informacji o środowisku i jego ochronie. Spotkanie odbywa się w Centrum Nauki Kopernik w Warszawie, a jego organizatorami są Ministerstwo Środowiska, Generalna Dyrekcja Ochrony Środowiska oraz Narodowy Fundusz Ochrony Środowiska i Gospodarki Wodnej.
– Obecnie dysponujemy danymi, informacjami, zasobami i bazami, które dostarczają nam wiedzy o stanie przyrody, o skażeniach, jakości powietrza, gleb, wód itd. Pozwalają na lepsze planowanie, lepsze podejmowanie często kluczowych decyzji również gospodarczych czy zapobieganie z wyprzedzeniem negatywnym zjawiskom w środowisku – mówił podczas otwarcia spotkania minister środowiska Maciej Grabowski. – W ostatnich latach największy skok zrobiliśmy jeśli chodzi o poprawę ochrony przeciwpowodziowej. Mamy mapy ryzyka i zagrożenia powodziowego, Informatyczny System Osłony Kraju przed nadzwyczajnymi zagrożeniami. Są to narzędzia niezwykle cenne, ciekawe i warte, żeby z nich szeroko korzystać – dodał minister.
– Zbieramy dane dotyczące monitoringu przyrodniczego w każdym parku narodowym całego kraju. Jednak czy agregujemy te dane i analizujemy je pod kątem stanu środowiska na poziomie krajowym? – pytał z kolei główny konserwator przyrody Piotr Otawski. – W Polsce corocznie powstaje kilkanaście tysięcy raportów oceny oddziaływania na środowisko. Szczęśliwie baza danych ocen oddziaływania na środowisko jest na etapie pilotażu i wkrótce powinna zostać udostępniona organom administracji, jak i całemu społeczeństwu. Istotne jest jednak pytanie, czy faktycznie wykorzystujemy wiedzę zgromadzoną w tej dokumentacji? I dotyczy to nie tylko administracji, ale też inwestorów i całego społeczeństwa. Finalizowany jest ISOK, w kwietniu br. udostępniono mapy ryzyka powodziowego. Czy robimy z tego właściwy użytek, niezależnie od tego, jaki zasób informacji jest tam zgromadzony? – kontynuował GKZ.
Zdaniem Piotra Otawskiego takich pytań można by stawiać więcej. Przy czym z jego strony nie jest to ani samokrytyka, ani próba pokazania nieudolności. Wręcz odwrotnie. – Chodzi o pokazanie potencjału, jaki już tkwi w tych danych gromadzonych corocznie w zasobach publicznych – kontynuował. – Aby ten potencjał został właściwie wykorzystany, zbiory danych muszą spełnić kilka podstawowych wymogów. Po pierwsze, standaryzacja. Aby informacja o środowisku mogła być przetwarzana i stanowić podstawę uogólnień czy wnioskowań, konieczne jest określenie standardów zarówno w zakresie wytwarzania informacji, jak i jej prezentacji. Po drugie agregacja. Potrzebne są narzędzia pozwalające na gromadzenie i analizę informacji, bo inaczej ponosimy koszty wytworzenia informacji, ale nie czerpiemy korzyści z ich istnienia, ale także wartości dodanej związanej z przetwarzania tych informacji. Kolejna rzecz to narzędzia do udostępniania. Dodatkowo istotne jest przeprowadzenie krzyżowych analiz dotyczących zakresu wykorzystywanych informacji po to, abyśmy wykluczyli wielokrotne zbieranie tych samych lub podobnych informacji przez różne podmioty publiczne i prywatne oraz umożliwili optymalizację sposobu i zakresu zbierania tych informacji – przekonywał Otawski. Jego zdaniem doskonałym forum do wypracowania nowych rozwiązań jest to spotkanie.
Konferencja, jak przekonują organizatorzy, jest miejscem, gdzie spotyka się świat nauki, biznesu i administracji i jest to doskonała okazja do przedstawienia zasobów bazodanowych i narzędzi do ich wykorzystania w obszarze ochrony środowiska, nawiązania przydatnych kontaktów, a także wzięcia udziału w wymianie dobrych praktyk. Uczestnicy pierwszego dnia spotkania mieli okazję zapoznać się m.in. z informacjami o środowisku dostępnymi z pułapu lotniczego (dr hab. Katarzyna Osińska-Skotak z Politechniki Warszawskiej) czy satelitarnego (dr hab. Stanisław Lewiński z CBK PAN). – To, że państwowy zasób otworzył się na nowych użytkowników, bardzo przyspieszyło pozyskanie informacji o środowisku. Wcześniej dostępu do danych praktycznie nie było. Trzeba je było sobie samemu zwektoryzować albo mieć ogromne pieniądze na kupno tych danych – stwierdziła dr hab. Osińska-Skotak. Jej zdaniem dzięki temu zyskujemy też argument w dyskusji ze społeczeństwem. Jeśli np. przedstawiamy dane o określonym wariancie przebiegu autostrady i dysponujemy do tego wiarygodnymi danymi, łatwiej będzie o swojej racji przekonać. – Jako dydaktyk mogę powiedzieć, że wiele prac studenckich polega na sprawdzeniu, czy dotychczasowe decyzje administracyjne np. dotyczące położenia autostrady w określonym wariancie były prawidłowe i często, niestety, okazuje się, że prawidłowe nie były – dodała. Z kolei dr hab. Stanisław Lewiński mówił m.in. o tym, że dzięki europejskiemu programowi Copernicus oraz polityce udostępniania danych prowadzonej przez Stany Zjednoczone uzyskujemy powszechny dostęp do zdjęć satelitarnych i produktów generowanych na ich podstawie. Przekonywał również, że w Polsce tkwi ogromny potencjał rozwoju własnych technologii pozyskiwania tego typu danych (własny satelita, własne zdjęcia). Jednak aby w kraju rozwój technologii kosmicznych był możliwy, niezbędne jest rzeczywiste wsparcie instytucji państwowych, które będą te technoogie wdrażać lub zlecać ich wdrażanie – podkreślał dr hab. Stanisław Lewiński.
O projekcie realizowanym przez Instytut Badawczy Leśnictwa dotyczącym kompleksowego monitoringu dynamiki drzewostanów Puszczy Białowieskiej z wykorzystaniem danych teledetekcyjnych mówił z kolei Krzysztof Stereńczak z IBL, a ratownicy z Grupy Podhalańskiej GOPR omawiali rolę GIS-u w zapewnieniu bezpieczeństwa w górach. Można też było obejrzeć mapę „Topografia Tatr podczas ostatniego zlodowacenia” uznaną niedawno za najlepszą opublikowaną w 2014 r. przez „Journal of maps” wraz z promującymi ją animacjami. Opracowanie to – jak przekonywał jeden ze współautorów Jerzy Zasadni z AGH w Krakowie – w doskonałej konwencji kartograficznej integruje wyniki badań terenowych i analiz teledetekcyjnych. Jest też pierwszym opracowaniem pokazującym przestrzenny obraz lodowców w całych Tatrach.
Na dziś (8 października) zaplanowano 5 równoległych sesji tematycznych (• Oceny oddziaływania na środowisko, • Monitoring, • Przegląd zasobów bazodanowych o środowisku, • Wykorzystanie technologii w pozyskiwaniu danych o środowisk, • Wykorzystanie danych o środowisku), podczas których blisko 60 prelegentów przedstawi najciekawsze innowacyjne projekty i rozwiązania z zakresu wykorzystywania i przetwarzania danych przestrzennych, nowoczesnych technologii i monitoringu. Zaplanowano też warsztaty komputerowe, podczas których przedstawiciele partnerów konferencji (MGGP Aero i Esri Polska) zapoznają uczestników m.in. z podstawami analiz danych ALS (odpowiedzą na pytania, jak pozyskać dane z chmury, jak przetwarzać dane LiDAR-owe, z jakich narzędzi korzystać), hiperspektralnych (pokażą potencjał informacyjny tkwiący w tego typu danych, ich specyfikę, możliwości pozyskania i przetwarzania), a także wykorzystaniem narzędzia Model Builder w ArcGIS, które pozwala na interaktywne budowanie powtarzalnych procesów analitycznych.
– Nie byłoby tego wszystkiego – przekonywała na zakończenie pierwszego dnia obrad Ewa Madej-Popiel z Ministerstwa Środowiska – gdyby nie partnerzy merytoryczni konferencji: Państwowy Instytut Geologiczny-PIB, Esri Polska, MGGP Aero oraz Multiconsult. Dzięki nim bowiem pozyskano wielu prelegentów. – Jednak z uwagi na ograniczenia, ostatecznie musieliśmy wybierać spośród zgłoszeń prelegentów, musieliśmy też ciąć listę uczestników – dodała. Przez 2,5 tygodnia otwarcia rejestracji chęć uczestnictwa zgłosiło grubo ponad 700 osób. A mogliśmy to umożliwić jedynie części z nich. Reszta, mam nadzieję, obserwuje nas w internecie – dodała. Pierwszy dzień obrad można było bowiem śledzić na kanale Youtube firmy Esri Polska.
Anna Wardziak
|