Nowym standardem w pozyskiwaniu danych fotogrametrycznych, zarówno z pułapu lotniczego, jak i z bezzałogowych systemów latających (BSL), jest ich synchroniczne lub asynchroniczne pozyskiwanie z różnych sensorów. Głównym celem projektu są badania nad algorytmem wzajemnej, ścisłej orientacji danych fotogrametrycznych, opartym o mechanizmy automatycznego dopasowania tzw. „chmura do chmury” (ang. Cloud-To-Cloud). W wyniku badań opracowana zostanie metodyka hybrydowej orientacji danych lidar oraz zdjęć pozyskanych asynchronicznie z pułapu BSL.
W ramach badań wykorzystano dane dla terenów podmiejskich i leśnych. Dane dla obszarów leśnych zostały pozyskane – udostępnionymi przez firmę Dragonfly Vision – multispektralną kamerą MicaSense Dual RedEdge-MX oraz skanerem laserowym GreenValley LiAir V70. Ponadto dla terenu z zabudową podmiejską zespół pozyskał dane kamerą DJI Zenmuse P1 oraz skanerem laserowym DJI Zenmuse L1.
Finalnie opracowana metodyka zostanie zaimplementowana w formie udostępnionych otwarcie algorytmów. W projekcie wykorzystano szereg nowych, otwartych rozwiązań programistycznych, takich jak język programowania C++, biblioteki Ceres Solver, PDAL, SuiteSparse oraz CUDA Toolkit.