21 paź 2014

Pełniejszy obraz świata

     Ciągle rozwijający się rynek technologii fotogrametrycznych i teledetekcyjnych jest już bardzo duży, a jego klienci szukają takich technologii, dzięki którym za mniejsze pieniądze będzie można zrobić więcej i przy okazji jak najmniej się przy tym naklikać.

   
Dość ciekawym projektem, którego jednym z głównych celów jest obniżenie kosztów jest integracja danych pochodzących ze skanowania laserowego (LIDAR) oraz zobrazowań hiperspektralnych. Pomysł pochodzi od Seana Anklama, szefa firmy Exogenesis zajmującej się integracją i analizą dużych zbiorów danych przestrzennych. Stworzył on algorytm odpowiedzialny za fuzję pomiędzy, wydawałoby się, różnymi metodami obrazowania Ziemi. Z jednej strony chmurę punktów określającą m.in. wysokość, objętość czy teksturę, a z drugiej strony obrazy hiperspektralne podają informację o składzie chemicznym materiałów.

     Algorytm konwertuje i scala oba zestawy danych w zakresie częstotliwości, a następnie wykonuje transformację odwrotną, dzięki czemu w efekcie mamy do dyspozycji chmurę punktów LIDAR, w której każdy z punktów w przestrzeni ma swoją chemiczną sygnaturę z nim związaną. 
     Autor projektu wymienia wiele obszarów zastosowań, dla których wykorzystanie tej techniki przyczyniłoby się do zwiększenia możliwości i przyspieszenia wielu analiz np. w modelowaniu zagrożenia pożarowego w lasach, w przemyśle naftowym i gazowym, gdzie oprócz mapowania infrastruktury przemysłowej może być przydana do wykrywania wycieków, a także detekcji oznak starzenia się tejże infrastruktury. 
     Jak podaje Exogenesis klasyfikacja LIDAR za pomocą obrazów RGB może stanowić nawet 70% całkowitych kosztów projektu, natomiast przy wykorzystaniu wspomnianego algorytmu, dzięki któremu mamy produkt oferujący pełny obraz środowiska oraz jego znacznej automatyzacji, można zmniejszyć koszt przetwarzania danych nawet o połowę.

     Jednak, aby móc przetworzyć dane należy je wcześniej pozyskać. Aby to zrobić musi być spełniony warunek odpowiedniego połączenia obu czujników na jednej platformie np. samolotu, UAV itp., a oba sensory muszą być ze sobą georeferencyjnie skorelowane w ten sposób, aby zbierać informacje tych samych obszarów. Do najtańszych i wystarczających rozwiązań zaliczono współdzielenie obu czujników tego samego systemu GNSS/IMU. 
     Autor zapewnia, że zastosowanie danych LIDAR do obrazowania hiperspektralnego znacznie zmniejsza błędy spowodowane przez cienie, a tym samym zmniejsza ilość linii nalotów (osi szeregów) w bardziej wymagającym topograficznie terenie. 

     Do tego typu zadań zaproponowano kamerę AisaFENIX 1K, która skanuje z szerokością 1024 pikseli. Jak zapewnia producent, tak szeroka ścieżka powoduje zmniejszenie ilości szeregów w projekcie, a także skrócenie czasu wykonywania nalotów. Ponadto, istnieje możliwość detekcji celów zajmujących niewielką część pixela. Kamera zbiera dane w zakresie pełnego spectrum fal, VNIR i SWIR od 380nm do 2500nm.




1 komentarz: