|2021-05-25|
Geodezja, Teledetekcja, Edukacja
Optimum danych prosto z chmury
Do wytyczenia linii prostej wystarczą tylko 2 punkty – A i B. Jeśli jednak do dyspozycji ma się tysiące punktów, to jej wytycznie staje się trudne. Nadmiar danych staje się kłopotem. Jak sobie z nim poradzić? Dr hab. Wioleta Błaszczak-Bąk, prof. UWM znalazła na to sposób – program OptD.
Dr hab. Wioleta Błaszczak-Bąk
|
|
|
|
|
|
Kiedy do masowego użytku weszły skanery, geodeci i budowlańcy byli zachwyceni. Zamiast pojedynczych punktów otrzymywali całą ich chmurę. Tylko brać i wybierać. Szybko okazało się jednak, że to, co początkowo znacznie ułatwiło ich pracę, stało się utrudnieniem. Zbyt duża liczba danych spowolniała sporządzanie planów, analiz, projektów itp. Na całym świecie naukowcy zaczęli pracować więc nad systemami gromadzenia i przetwarzania danych.
Dr hab. inż. Wioleta Bąk-Błaszczak z Katedry Geodezji Wydziału Geoinżynierii UWM w Olsztynie zwróciła na to uwagę w 2001 r., kiedy rozpoczęła przygotowania do doktoratu. Po doktoracie w 2006 r. rozwijała swoje zainteresowania związane z szeroko rozumianym pojęciem big data. – To były początki skaningu laserowego. Nie mieliśmy nawet wtedy w katedrze skanera. Pierwsze duże zbiory danych z pomiaru lotniczym skanerem laserowym pozyskałam w 2009 r. od firmy Visimind. Były wykorzystane w grancie prof. Waldemara Kamińskiego, w którym byłam jednym z głównych wykonawców, odpowiedzialnym właśnie za redukcję liczebności chmur punktów. To wtedy zauważyłam, że jest problem z redukcją danych. Tak wielkich ilości do wykonywania różnych zadań, szczególnie budowy numerycznych modeli terenu, nie potrzebowałam. Wybieranie odpowiednich obserwacji z chmury danych zajmowało mi wiele czasu. Człowiek nie jest w stanie szybko i racjonalnie wybrać z chmury to, co potrzebuje. A tymczasem wraz z rozwojem nowych technologii pomiarowych problem nadmiaru danych nie znika. Trzeba zatem szukać nowych metod redukcji liczebności zbiorów obserwacji. Ta redukcja nie może być przypadkowa. Nie można założyć, że wybierzemy np. co dziesiąty punkt, bo w ten sposób można pominąć punkty istotne dla naszego zadania. Tak zaczęła się moja praca nad sposobem redukcji danych uwzględniającym potrzeby użytkownika – wspomina prof. Błaszczak-Bąk.
Słowo istotny dla każdego korzystającego z jakiegoś zbioru danych oznacza co innego. Czego innego szuka geodeta wytyczający teren pod osiedle mieszkaniowe, a czego innego projektant, który opracowuje dokumentację renowacji jakiejś kamienicy, jeszcze czego innego – hydrolog badający wały przeciwpowodziowe. – Po zakończeniu projektu skupiłam się na tworzeniu metody redukcji, która nie będzie przypadkowa. Metody, w której użytkownik decyduje o stopniu redukcji danych, podając tzw. kryterium optymalizacyjne – opowiada prof. prof. Błaszczak-Bąk.
Te badania zajęły jej kilka lat, w czasie których doskonaliła swą metodę OptD na różnych przykładach. – Z dr. inż. Marianem Poniewierą, pracownikiem Katedry Eksploatacji Złóż Politechniki Śląskiej, redukowałam moją metodą OptD dane z lotniczego skaningu laserowego zalewisk w kopalniach górniczych. Z dr. inż. Czesławem Suchockim z Katedry Geodezji Politechniki Koszalińskiej sprawdzałam ją w badaniach ubytków i defektów ścian budynków. Moja metoda OptD pozwoliła na poprawę widoczności tych zmian na ścianach. Z prof. Andrzejem Statecznym z Politechniki Gdańskiej redukowałam dane z jeziora Kłodno w Zaworach z pomiaru echosondą wielowiązkową wykonanego hydrodronem. Prowadziła je załoga Marine Technology ze Szczecina. Redukowałam również dane z pomiaru mobilnym skanerem laserowym, które pozyskałam wraz z zespołem z Columbus w trakcie kampanii pomiarowej w 2017 r. podczas stażu w Ohio State University w USA – wylicza naukowczyni.
Swą metodę prof. Błaszczak-Bąk po raz pierwszy ujawniła w 2016 r. w czasopiśmie „Acta Geodynamica et Geomaterialia”. Nazwała ja Optimum Dataset w skrócie OptD. Na czym ona polega? – To algorytm, który do redukcji danych wykorzystuje metody generalizacji kartograficznej. Co to takiego generalizacja kartograficzna? To proces zmniejszania szczegółowości mapy podczas prac redakcyjnych związanych ze zmniejszaniem jej skali. To stare, sprawdzone metody, które nie są skomplikowane obliczeniowo, polegające np. na pokazaniu rzeki jako uproszczonej krzywej na mapie, ale bez uwzględnienia jej idealnego kształtu. Przez lata ten algorytm modyfikowałam i testowałam na różnych danych pomiarowych. Nie jestem informatykiem, więc w pracach nad ich implementacją do algorytmu pomagał mi inż. Michał Kowalik, wyspecjalizowany programista. Głównym celem było zoptymalizowanie czasu przetwarzania metodą OptD oraz implementacja metody w odpowiednim języku programowania. Duże zbiory danych muszą być redukowane szybko i efektywnie. Dzięki OptD można zmniejszyć zbiór nawet o 99% – uzupełnia prof. Błaszczak-Bąk.
Wszystkie te działania przekonały ją do komercjalizacji metody. Dlatego wzięła udział w konkursie Inkubator Innowacyjności 4.0. Z powodzeniem. została jednym z jego 4 laureatów. – Liczę na to, że dzięki Inkubatorowi Innowacyjności uda mi się przygotować program OptD, który będzie mógł być wykorzystywany jako oddzielna aplikacja lub wbudowany moduł istniejącego oprogramowania. Na razie bowiem jest on mało przyjazny dla kogoś, kto nie jest informatykiem. Działa w środowisku Java lub Python i aby się nim posługiwać, trzeba wiedzieć, jak się wydaje polecenia w tych językach. Dzięki dotacji z konkursu informatyk przygotuje do niego graficzny interfejs. Za jego pomocą każdy będzie mógł wprowadzić swoje kryteria wyszukiwania w jakimś zbiorze danych, stopień ich redukcji i w ten sposób osiągnąć swój cel – podsumowuje naukowczyni. Program OptD znajdzie zastosowanie tam, gdzie projektant, geodeta, budowlaniec boryka się z nadmiarem obserwacji.
Lech Kryszałowicz (UWM)
|