Journal of Korea Robotics Society
[ ARTICLE ]
The Journal of Korea Robotics Society - Vol. 16, No. 3, pp.189-198
ISSN: 1975-6291 (Print) 2287-3961 (Online)
Print publication date 01 Sep 2021
Received 27 Apr 2021 Revised 08 Jun 2021 Accepted 09 Jun 2021
DOI: https://doi.org/10.7746/jkros.2021.16.3.189

라이다 점군 밀도에 강인한 맵 오차 측정 기구 설계 및 알고리즘

정상우1 ; 정민우1 ; 김아영
Map Error Measuring Mechanism Design and Algorithm Robust to Lidar Sparsity
Sangwoo Jung1 ; Minwoo Jung1 ; Ayoung Kim
1Master Student, Dept. of Civil and Environmental Engineering, KAIST, Daejeon, Korea dan0130@kaist.ac.krjungminwo@kaist.ac.kr

Correspondence to: Assistant Professor, Corresponding author: Dept. of Civil and Environmental Engineering, KAIST, Daejeon, Korea ( ayoungk@kaist.ac.kr)

CopyrightⓒKROS

Abstract

In this paper, we introduce the software/hardware system that can reliably calculate the distance from sensor to the model regardless of point cloud density. As the 3d point cloud map is widely adopted for SLAM and computer vision, the accuracy of point cloud map is of great importance. However, the 3D point cloud map obtained from Lidar may reveal different point cloud density depending on the choice of sensor, measurement distance and the object shape. Currently, when measuring map accuracy, high reflective bands are used to generate specific points in point cloud map where distances are measured manually. This manual process is time and labor consuming being highly affected by Lidar sparsity level. To overcome these problems, this paper presents a hardware design that leverage high intensity point from three planar surface. Furthermore, by calculating distance from sensor to the device, we verified that the automated method is much faster than the manual procedure and robust to sparsity by testing with RGB-D camera and Lidar. As will be shown, the system performance is not limited to indoor environment by progressing the experiment using Lidar sensor at outdoor environment.

Keywords:

Point Cloud Map Accuracy Evaluation, Lidar Sparsity, Lidar Intensity, SLAM, Plane Fitting

1. 서 론

라이다(Lidar: Light Detection and Ranging) 센서는 장치가 레이저를 발사하고, 반사된 레이저 빛이 돌아오는 시간의 차이를 계산하여 주변의 지형지물을 파악하게 해주는 장치이다. 일반적인 RGB 카메라에 비하여 광 변화에 보다 덜 민감하고, 점군 데이터를 쉽게 만들 수 있다는 장점으로 인하여 SLAM (Simultaneous Localization and Mapping) 및 [1]와 같은 자율주행 연구에서 자주 쓰이는 센서이다. 그러나, 라이다 센서는 측정하고자 하는 거리가 멀어질수록 점군의 밀도가 낮아지는 희소성(Sparsity)이라는 특성을 갖는다. 일반적으로 점군 데이터의 정밀도를 측정하기 위하여 원하는 위치에 타겟 물건을 놓고, 그 위치에 해당하는 점을 손으로 표기하는 방법을 사용한다. 그러나, 라이다 센서의 희소성으로 인하여 그 정확도가 떨어질 수 밖에 없는 단점이 존재한다.

현재로써는 높은 반사율로 인하여 라이다 센서의 점군 데이터에서 반사 강도(Intensity) 값으로 쉽게 다른 점군과 구별할 수 있는 반사도가 높은 작은 물체를 측정하고자 하는 위치에 놓고, 취득한 점군에서 그 물체의 위치를 사람이 직접 찍는 방법을 사용한다. 해당 방법의 경우 간편하게 위치를 나타내는 점군을 추가할 수 있다는 장점이 있지만, 사용하는 물체의 크기에 따른 측정 오차가 발생할 수 있고, 측정하고자 하는 거리가 멀어질 경우 라이다 센서의 희소성에 따라 정확도가 감소하는 단점이 존재한다. 또한, 같은 점군을 대상으로 위치를 측정하더라도, 측정하는 개개인이 생각하는 그 물체의 위치를 가장 잘 표현하는 점의 위치가 달라질 수 있으므로 같은 점군 데이터에 대하여 측정자에 따라 다른 결과가 나올 수 있다. 이외에도 데이터를 분석하고, 원하는 지점을 찾아야하는 시간이 소모된다는 단점 또한 존재한다.

본 연구에서는 이러한 문제점을 극복하기 위한 점군의 위치 측정용 모델을 제시한다. 또한, 해당 모델을 목표로 취득한 점군 데이터에 RanSaC (Random Sample Consensus)[2] 방법 및 SVD (Singular Value Decomposition) 방법을 사용하여 제시한 모델의 위치를 희소성에 강인하게 구할 수 있는 [Fig. 1]과 같은 방법론을 제시한다. 해당 모델 및 방법론을 통하여 점군 맵의 정밀도를 기존의 수작업으로 확인하는 방법보다 빠르고, 라이다 희소성에 영향을 받지 않고 확인할 수 있다.

[Fig. 1]

System Diagram: point cloud data gathered from RGB-D camera or Lidar goes through high intensity extraction to delete the outliers. Median point filtering is used only in Lidar data. RanSaC, SVD are used to get the specific functions that represents the planes in model and the plate thickness error calibration is done to get rid of error occurred by the thickness of plates

희소성이라는 특징을 갖는 라이다 센서를 기반으로 제작된 3차원 점군 데이터의 정확도를 정량적으로 측정할 수 있는 자동화된 알고리즘 및 특징점 생성 모델을 제시하였으며, 실내 및 실외 실험을 통하여 해당 방법론의 타당성을 검증하였다.

  • • 라이다 센서의 희소성에 강인한 점군 내 거리 측정이 가능한 하드웨어를 설계하고 세 평면을 활용하여 자동으로 측정 목표 지점을 계산하는 알고리즘을 제안하였다.
  • • 점군 데이터에서 거리를 측정할 때, 수작업을 최소화하는 자동화된 방법으로 측정 시간을 단축하면서도 높은 정밀도를 확보하였다.
  • • 통제 변인을 편하게 설정할 수 있는 실내 실험을 통한 검증만으로 끝내지 않고, 야외 실험에서도 같은 검증을 진행하여 신뢰도를 높였다.

2. 선행 연구 조사

2.1 LidarTag

컴퓨터 비전 연구에서 QR코드와 유사한 태그를 입력 받은 데이터에서 찾아내고, 그 태그의 종류 및 위치 등을 인식하는 태깅 기술은 증강현실, 로보틱스, 카메라 눈금 교정 등의 여러 분야에서 필요로 하는 기술이다. 대표적으로는 AprilTag[3] 등의 기술이 있으며, 해당 기술을 라이다 센서로 확장한 LidarTag[4]와 같은 연구 결과도 존재한다.

LidarTag의 경우, 라이다 점군 데이터에서 Tag를 인식하여 현재 라이다 센서의 눈금 교정, 등에 응용하고자 하는 등, 점군 데이터 셋의 정확도를 평가하기 위한 목표가 아닌 라이다 센서의 위치와 회전 정도를 찾기 위하여 만들어졌다. 점군 데이터 셋의 정확도, 그리고 점군 상에서 정확히 원하는 위치에 특이점을 만들고자 하는 본 논문의 방향성과는 차이가 있다고 볼 수 있다.

2.2 기존 점군 Map 정확도 분석 방법

라이다 센서 자체의 오차율과는 별개로, 라이다 점군 맵의 정확도 분석은 해당 맵을 활용하는 SLAM, 건물 및 교량의 건축 및 관리, 자율 주행, 등 여러 분야에서 필요로 하는 기술이다. 이에 따라 대형 점군의 정밀도를 확인하고자 하는 연구 결과 또한 존재한다. 이러한 연구의 중요성 및 분석을 시도한 [5]도 존재한다.

이때, DEM/DSM (Digital Elevation Model or digital Surface Model), DLG (Digital Line Mapping), DOM (Digital Orthoimages Mapping)과 같은 방법을 통하여 라이다 점군 데이터를 처리하고 GPS (Global Positioning System) 센서 및 카메라 데이터와 비교하여 해당 점군을 측량 과제 및 매핑 시장에서의 사용 안정성 여부를 평가하였다. 점군 데이터의 오차를 고려하고 특정 목적으로의 사용 허가 여부에 대한 논의 또한 진행됐지만, 라이다 희소성으로 인한 DLG 생성 자체의 오차는 고려되지 않았다. 따라서, 본 논문에서 시도하고자 하는 점군 내의 지점까지의 정확한 거리 측정을 통한 점군 맵의 정확도 분석 방법 제시와는 차이가 있다고 볼 수 있다.

2.3 SLAM 작성 맵 품질의 상대적/정량적 비교

라이다 센서 등의 장비를 활용한 SLAM 기술을 사용하여 3차원 점군 맵을 만들 수 있다. 이때, 해당 점군 맵은 참값과 비교할 경우 필연적으로 오차가 존재할 수 밖에 없다.

[6]의 경우, 해당 오차를 크게 전역 오차와 국부 오차로 구분하여 사람의 관점과 자율주행의 관점을 모두 고려하여 SLAM으로 작성한 점군 맵의 오차를 정량적으로 평가하는 방법을 제안했다. 그러나, [6]에서 언급 되었듯, 해당 논문의 방법은 평가에 사용할 기준점의 선정 기준을 제시하지 못했다. 또한 해당 논문의 제시 방법은 점군 맵 오차의 정량 평가를 절대적으로 하는 것이 아닌, 같은 환경을 나타내는 두 개 이상의 점군 맵을 대상으로 상대적으로 비교하는 용도로만 사용할 수 있다. 본 논문에서 제시하는 방법론의 경우, 목표로 하는 점군 맵을 생성할 때 특징점 생성 하드웨어를 사용함으로써 평가에 사용할 기준점을 확실히 만들 수 있고, 서로 다른 장소에서 제작된 점군 맵들의 정확도 또한 절대적으로 비교할 수 있다는 점에서 차이를 두고 있다.


3. 점군 내 거리 측정용 기구 설계

3.1 실내/외 점군 평가를 위한 기구 설계

본 논문에서 제시하는 모델의 경우, 바닥과 수직한 축을 기준으로 어느 각도에서나 데이터를 측정할 수 있어야 하고, 깊이 카메라와 라이다 센서 등, 전자기파의 반사를 이용한 센서에서 높은 반사율을 보이는 특징을 가져야 한다. 이를 만족시키기 위하여 [Fig. 2]의 좌측과 같은 모델링을 진행했으며 3D 프린터와 반사 테이프를 사용하여 실내 실험에 사용할 [Fig. 2]의 우측과 같은 실험용 모델을 제작했다. 이때, 반사 테이프는 높은 반사율을 가지는 고휘도 제품을 사용했다. 실외 실험에서는 실내 실험에서 사용한 모델의 크기를 키워놓은 형태의 모델을 사용했다. 본 논문의 실외 실험에서 사용한 실험용 모델은 [Fig. 3]에서 확인할 수 있다.

[Fig. 2]

Model picture: Left picture - 3D modeling of the designed model for indoor experiment using solidworks. Right picture - model used for indoor experiment printed with 3D printer

[Fig. 3]

Model picture: Model used for outdoor experiment made with aluminum and high luminance sheet paper

본 논문에서 제안한 실내/실외 실험용 하드웨어의 공통점은 z축 기준 120°의 각거리를 둔 세 개의 평면을 포함하고 있다는 점이다. 이론상 바닥 면에 대하여 수직으로 존재하는 서로 다른 법선 벡터를 가지는 두 평면만 있으면 두 평면의 교선을 활용하여 모델의 위치를 계산할 수 있다. 따라서, 균일한 각거리를 가질 때, 각 평면의 법선 벡터가 다르기 위한 평면의 최소 개수는 3개이다. 또한, 평면의 개수가 4개 이상으로 많아질 경우 점군 데이터에서 각 평면을 분리하는 군집화 과정이 실패할 확률이 올라간다. 따라서, 본 논문에서는 평면의 교선을 사용한 거리 측정이 가능하고, 군집화를 사용한 점군의 분리가 가능한 3개의 평면을 사용하는 하드웨어 구조를 채택했다.

3.2 모델 치수 및 재질

3.2.1 실내 실험용 모델

모델에 부착되어 있는 3개의 판은 높이와 너비 모두 16 cm로 동일하며, 테이프가 붙어있는 부분의 경우 중심 기둥에 가리는 것을 고려하여 높이는 16 cm, 너비는 15 cm로 제작했다. 바닥을 기준으로 기둥 높이 16 cm 지점부터 plate가 달려있으며, 판의 두께는 7 mm, 기둥의 두께는 3 cm이다. Cubicon 3D printer를 사용하여 PBS 재질로 제작하였다.

3.2.2 실외 실험용 모델

모델에 3개 부착되어 있는 판은 높이와 너비 모두 40 cm로 동일하며, 반사율이 높은 시트지를 사용하여 제작했다. 시트지를 활용한 만큼, 실내 실험용 모델과 다르게 판의 두께는 1 mm 이하로 무시할 수 있는 수준이며, 뼈대를 이루고 있는 알루미늄 재질의 부품은 3T의 두께로 제작되었다.


4. 자동화 된 점군 내 거리 측정

본 논문에서 제시하는 방법론은 총 다섯 단계로 나뉜다. 첫 번째 단계는 주어진 점군 데이터에서 모델의 점군으로 추정되는 점군 만을 추출하는 모델 점군 데이터 추출 단계이다. 이후, 추출한 점군을 두 개의 판으로 나누는 데이터 분류 단계를 거친다. 세 번째 단계는 각 판을 나타내는 inlier 데이터 만을 뽑아내는 outlier 제거 단계이며, 네 번째 단계는 이전 단계에서 얻은 inlier 데이터로부터 평면의 방정식을 구하는 방정식 계산 단계를 거친다. 마지막 단계는 두 개의 평면의 방정식을 사용하여 모델의 위치를 1차적으로 구한 뒤, 사용한 판의 두께로 인하여 생긴 오차를 보정해주는 위치 계산 및 오차 보정 단계이다. [Fig. 4]에서 대략적인 제안하는 기법의 순서도를 확인할 수 있다.

[Fig. 4]

Automated Point Cloud Distance Calculation – flow chart: Flow chart of the working process of methodology

4.1 높은 반사 강도 점군 데이터 추출

모델 점군 데이터 추출 단계의 경우, 모델의 판에 반사율이 높은 반사 테이프가 붙어있다는 사실을 이용한다. Intel Realsense l515 RGB-D 카메라에서 점군 데이터를 생성할 때 같이 제공하는 적외선 강도 데이터를 사용했다. [Fig. 5]와 같이 해당 카메라를 사용하여 수집한 데이터에서 적외선 값이 높은(RGB 값 255,255,255에 가까운 = 흰 색에 가까운) 데이터만을 추출하여 점군 데이터로 사용하였다.

[Fig. 5]

Depth camera pictured model: the planes are easy to distinguish because of high reflectivity. (Infrared data covered on depth camera)

실내 실험의 경우, 사용한 모델보다 반사율이 높은 포인트가 없어서 위와 같은 간단한 방법으로 모델의 점군 데이터를 추출할 수 있었지만, 실외 실험의 경우 [Fig. 6]에서 찾아볼 수 있듯이 모델의 제작에 사용한 반사 테이프와 비슷하거나 더 높은 라이다 반사 강도를 보이는 지점이 많이 관측되었다. 따라서, 라이다 센서를 사용한 실험의 경우 RGB-D 카메라와 동일하게 반사 강도 값(적외선 값)을 사용하여 데이터를 한 번 추출한 뒤, 해당 데이터의 중앙값 지점을 기준으로 반경 1 m의 데이터만 뽑아내는 간단한 필터링 과정을 거침으로써 실외 환경에서 생기는 변수를 줄였다.

[Fig. 6]

Lidar point cloud high intensity points at outside: the left up image is the original cloud point data that has higher or same intensity with the model. The right down image is closed-up image for the model

4.2 평면 데이터 분류 과정

이전 단계에서 구한 높은 반사 강도의 점군 데이터는 두 평면의 데이터 만을 갖고 있는 상태이다. 본 단계에서는 군집화(clustering) 기술을 사용하여 두 평면을 표현하는 점군을 분리할 것이다. 군집화 기술이란, 데이터 셋을 비슷한 특성을 갖는 데이터들의 집단으로 나누는 데이터 마이닝 기술 중 하나이다. 대표적으로는 K-mean Clustering, Mean-Shift Clustering[7], DBSCAN[8] 등의 기술이 있다. 본 논문에서는 나누어야 할 대상이 단순한 점군 덩어리의 형태를 띠고 있으므로 O(n)의 시간 복잡도를 가진 K-mean Clustering 기술을 택했다. K-mean Clustering은 주어진 데이터 셋에서 무작위로 정한 중심점과 각 점들의 거리를 측정하여 보다 가까운 중심점으로 대표되는 군집에 포함되도록 분류한다. 이 때 각 군집의 평균점으로 중심점을 다시 정하는 과정을 중심점의 변화가 없을 때까지 반복하여 진행한다. [Fig. 7]의 왼쪽 위에서 오른쪽 위로 향하는 단계에 해당된다.

[Fig. 7]

Depth camera data detailed process: Left up picture is the original high reflection data. Right up picture is the K-mean Clustered data. (into two planes) Left down picture is the inlier data after the RanSaC method. Right down picture is the plane function after the SVD method with the inlier data

4.3 RanSaC을 활용한 outlier 제거 단계

높은 반사 강도의 점군 데이터를 두 개의 평면으로 나누었지만, 점군 데이터의 특성상 하나의 면을 정확히 평면으로 표현하지 못하고, 약간의 두께를 가진 점군으로 표현하게 된다. 이는 다르게 말하면, 노이즈가 심하게 낀 데이터로 표현이 된다고 해석할 수 있다. 이러한 상태의 데이터를 SVD 과정에서 사용할 경우, outlier로 인하여 만족스럽지 못한 결과가 나올 수 있다. 따라서 본 논문에서는 노이즈를 제거하고 깔끔한 평면을 표현하는 점군만을 남기기 위하여 RanSaC 방법을 채택했다. RanSaC은 노이즈가 심한 데이터에서 가장 많은 점들에게 지지를 받는(가장 많은 inlier를 포함하는) 모델을 추출할 수 있게 해준다. [Fig. 7]의 오른쪽 위에서 왼쪽 아래로 향하는 과정으로 볼 수 있다.

4.4 SVD를 사용한 평면 방정식 계산 단계

4.3 단계를 통하여, 두 평면을 표현하는 노이즈 없는 점군 데이터를 취득했다. 노이즈가 제거된 데이터이므로, outlier에 취약한 SVD 방법을 사용해도 최적 평면을 안정적으로 구할 수 있다. 따라서, 각 점군 데이터에 대하여 SVD 방법을 사용하여 주어진 점들이 나타내는 최적 평면의 수직 벡터를 구할 수 있다. 각 평면의 수직 벡터와, 각 평면의 inlier들의 중앙값을 사용하여 두 평면을 나타내는 방정식을 계산할 수 있다. 해당 과정은 [Fig. 7]의 왼쪽 아래에서 오른쪽 아래로 향하는 과정으로 볼 수 있다.

4.5 위치 계산 및 오차 보정

4.2에서 4.4까지의 과정을 통하여 단순한 높은 반사 강도의 점군 데이터에서 두 개의 평면을 표현하는 방정식까지 계산했다. 각 방정식의 교선을 계산하여 z축(바닥과 수직한 축)이 0이 되는 지점을 계산할 경우 위치 특정 모델의 위치를 쉽게 계산할 수 있지만, 판의 두께로 인하여 모델의 중심점을 정확히 계산할 수는 없다. 따라서 판의 두께를 보정해주는 단계가 필요하다.

마지막 단계에서는 두 판을 표현하는 방정식의 교선을 활용하여 모델의 위치를 계산하고, 사용한 모델의 판의 두께로 인하여 발생한 오차를 수학적으로 보정해주는 단계이다. 해당 과정은 보정하는 벡터의 크기와 방향을 따로 계산했다.

4.5.1 판 두께로 인한 오차의 크기 계산

먼저, [Fig. 8]에서 확인할 수 있듯이 단순히 측정된 면이 만나는 교선을 사용하여 구한 거리에는 판의 두께로 인한 오차가 발생할 수 밖에 없다. 이때 모델의 구조상, 데이터를 취득하는 방향에 따라 크게 [Fig. 8]의 좌측과 우측의 상황이 발생할 수 있다(각 사진에서 보다 진하게 칠해진 선이 측정한 데이터가 나타내는 값). [Fig. 8]의 두 평면의 교선과 중심점 사이의 거리(양쪽 화살표)는 두 경우 모두 판의 두께를 t라고 할 때, 피타고라스 법칙에 의하여 t/1.732가 된다.

[Fig. 8]

Explanation about the correction of plate’s thickness: As there’s difference between the plane cross point and center point, there should be t/1.732 error correction for both two cases

4.5.2 두께로 인한 오차의 방향 계산

오차의 방향은 각 평면의 inlier를 사용하여 구했다. 교선을 사용하여 구한 지점에 대하여 각 평면의 inlier의 중앙값까지의 벡터를 구하고, 각 벡터를 정규화 할 경우, [Fig. 8]의 주황색 벡터에 해당하는 두 벡터를 구할 수 있다. 해당 벡터를 합성할 경우 두 평면의 교선에서 중심점까지의 벡터에 평행한 벡터를 구할 수 있다.

[Fig. 9]에서 확인할 수 있듯이 모델에 대하여 측정하는 방향에 따라 오차 수정 벡터의 방향은 중심 벡터(위에서 계산한 벡터)의 방향과 같을 수도 있고 반대일 수도 있다. [Fig. 9]의 좌측 상황의 경우, 두 벡터의 방향은 반대이고, 우측 상황의 경우 두 벡터의 방향은 같다. 이를 구별하기 위하여 평면 1과 평면 2를 나타내는 전체 inlier의 중앙값을 찾고, 해당 중앙값의 위치와 평면의 교선을 z축에 대하여 정사영(해당 과정에서 나오는 모든 정사영은 z축에 대한 정사영으로 생각한다) 했을 때 원점에 대하여 중앙값의 정사영이 평면의 교선의 정사영보다 더 멀리에 있으면 [Fig. 8]의 우측 상황, 더 가까이에 있으면 [Fig. 8]의 좌측 상황으로 구별할 수 있다. 따라서, 중앙값의 정사영의 거리에서 평면의 교선의 정사영의 거리를 뺀 값의 부호를 중심 벡터에 곱하고, 해당 단위 벡터에 4.5.1에서 구한 오차의 크기인 t/1.732를 곱해주면 평면의 교선에서 중심점까지의 벡터를 구할 수 있다(본 과정의 경우, 판의 두께가 존재하는 실내 실험에서만 사용).

[Fig. 9]

Explanation about the direction decision about the plate thickness error: there can be two cases (center vector and correction direction’s difference) which should be decided by the planes’ median points’ place


5. 실험 결과

본 논문에서는 크게 실내 실험과 실외 실험, 두 가지의 실험을 진행했다. 실내 실험은 Intel realsense L515 RGB-D 카메라를 이용하여 논문에서 주장한 방법론의 희소성에 대한 강인함 및 시간적 효율성을 확인하는 실험을 진행했다. 실외 실험의 경우, Ouster OS1-128 라이다 센서와 3DM-GX5-45 IMU (Inertial Measurement Unit) 센서를 이용하여 라이다 센서에서의 적용 및 야외 환경에서의 적합성을 검증했다. 해당 데이터에 대하여 두 모델의 거리를 줄자를 사용한 수작업으로 찾는 직관적인 방법으로 비교군을 설정하여 그 정확도 및 시간적 효율을 검증했다.

5.1 실내 실험

5.1.1 실내 실험 설계

실내 실험의 경우, 본 논문에서 제시한 자동화된 거리 측정 방법의 성능을 테스트 하기 위하여 RGB-D 카메라에서 1 m, 1.5 m, 2 m 떨어진 지점에 특징점 생성 모델을 놓고 데이터를 취득한 [Fig. 10]와 같은 실험과 그 대조군인 반사율이 높은 작은 물체(본 실험에서는 각반을 사용)를 같은 지점에 놓고 데이터를 취득한 [Fig. 11]과 같은 두 종류의 실험을 진행했다. 이후, 각 데이터에 Random Sampling을 1% 단위로 나누어 진행하여 100%에서 1%의 점이 남은 100개의 점군 데이터를 생성했다.

[Fig. 10]

Indoor Experiment 1: 2 m distance between RGB-D camera and model. The vertical and horizontal lines at the ground are all equal as 0.5 m

[Fig. 11]

Indoor Experiment 2: 1 m distance between RGB-D camera and high intensity material (for hand collecting)

5.1.2 실내 실험 결과 – 거리

특징점 생성 모델을 대상으로 한 랜덤 샘플링 된 데이터의 경우, 본 논문에서 제시한 자동화된 점군 내 거리 측정 방법을 활용하여 거리를 계산했다. 반대로 반사도가 높은 작은 물체를 대상으로한 대조군 데이터의 경우, 점군에서 직접 해당 물체의 중심으로 추정되는 지점을 거리로 측정했다. [Fig. 12]는 특징점 생성 모델을 대상으로 계산한 거리를 모델의 실제 거리와 희소성에 따라 정렬한 그래프이고, [Fig. 13]은 작은 물체를 대상으로 가장 물체의 중심에 가깝다고 판단되는 지점에 대한 거리를 [Fig. 12]과 같은 기준으로 정렬한 그래프이다(본 문단에서 특징점 생성 모델과 자동화된 점군 내 거리 측정 방법으로 구한 [Fig. 12]의 데이터는 auto 데이터, 반사도가 높은 작은 물체와 수작업으로 구한 [Fig. 13]의 데이터는 hand 데이터로 정의한다).

[Fig. 12]

Result of indoor experiment data calculated by the presented methodology

[Fig. 13]

Result of indoor experiment data processed by hand

Auto 데이터의 경우, 평균값이 실제 모델의 거리와 비교하여 가장 큰 오차를 보이는 1 m 떨어진 데이터에서도 0.5% 이하의 오차가 생긴 것으로 보아, 충분히 정확한 거리측정 방법으로 간주할 수 있다. 또한, 각 데이터의 표준 편차(stdev)가 오차와 비슷한 수준으로 나타나고, [Fig. 12]의 그래프를 분석해 볼 때, 점군의 밀도가 100%에서 1%로 감소함에 따른 거리의 변화가 없다는 점에서 본 논문에서 목표한 희소성에 강인한 거리 측정 방법임을 확인할 수 있다.

Hand 데이터는 사용한 물체의 크기로 인하여 평균값의 오차가 추가적으로 생긴 것을 확인할 수 있다(각반의 재질 특성상 정확히 잴 수는 없지만, 약 2 cm 내외의 오차가 발생한다). 따라서, 평균보다는 표준편차와 희소성에 따른 오차의 변화에 보다 집중하여 auto 데이터와 비교하였다. 각 결과의 표준편차가 크게 차이 나지 않는다는 것을 확인할 수 있다. 또한, 점군 맵의 밀도 감소에 따른 오차의 증가 또한 hand 데이터와 auto 데이터의 차이가 없는 수준임을 알 수 있다.

중요한 점은, hand 데이터의 경우 3 가지 거리 데이터에 대하여 각각 1%에서 100%까지의 점군 밀도를 가지므로, 300개의 데이터에 대한 위치 측정을 수작업으로 진행했고, 하나의 점군에서 거리를 측정하는 데에 30초가 걸린다고 가정할 경우, 모든 데이터에서 거리를 구하려면 단순 계산으로 2시간 30분이 걸리게 된다. 그러나 본 논문에서 제시한 모델 및 방법론을 사용하여 구한 auto 데이터의 경우 모든 데이터의 거리를 계산하는 데에 Intel i7-6700, GTX 1080ti를 사용한 시스템에서 MATLAB 언어를 활용한 결과 약 40초 내외의 시간만이 소요되었다.

5.1.3 실내 실험 결과 – 각도

일반적인 3차원 점군 맵의 경우, 맵의 각도 참값이라는 데이터가 존재하지 않으므로 각도의 관점에서 정확도를 비교하기 어렵다. 그러나 실내 실험은 RGB-D 카메라의 정면 방향 수직축을 기준으로 0도에 맞춰 모델을 위치하고 실험을 진행했기에, 점군 데이터의 각도 정확도를 확인할 수 있다. 따라서, 해당 축을 기준으로 점군 맵의 밀도 변화에 따른 각도의 정확도 변화를 확인했다. [Fig. 14]는 본 논문의 방법론을 사용하여 측정한 모델의 위치에 대한 각도 데이터를 밀도에 따라 그래프로 표현한 그래프이며, [Fig. 15]는 손으로 측정한 모델의 위치에 대한 각도 데이터를 표현한 그래프이다(본 문단에서 특징점 생성 모델과 논문의 방법론으로 구한 [Fig. 14]의 데이터는 auto 데이터, 반사도가 높은 작은 물체와 수작업으로 구한 [Fig. 15]의 데이터는 hand 데이터로 정의한다).

[Fig. 14]

Indoor experiment data’s angular error graph calculated by proposed algorithm

[Fig. 15]

Indoor experiment data’s angular error graph proposed by hand

Auto 데이터의 경우, [Fig. 14]에서 확인할 수 있듯이, 밀도가 100%에서 1%까지 감소할 때, 각도의 표준편차는 0.01도 미만으로 나타난다([Fig. 14]의 stdev 값으로 확인할 수 있다). 따라서, 본 논문의 방법은 희소성에 대하여 강인하게 3차원 점군 맵의 각도를 측정한다고 할 수 있다.

Hand 데이터의 경우, 평균값은 auto 데이터에 비하여 참값인 0도에 보다 근접하지만, 표준편차가 30배 이상 크게 나타난다. 이는 랜덤 샘플링 과정에서 물체의 정확한 중심점이 사라질 수 있고, 점군 데이터에 포함되어있지 않은 점은 사용할 수 없는 기존 방법의 한계로 인한 현상으로 추정된다. 따라서, 본 논문의 방법론을 사용하여 3차원 점군 맵의 각도 정확도를 측정할 경우, 손으로 측정하는 방법에 비하여 라이다 희소성의 증가에 보다 강인한 결과를 출력한다고 할 수 있다.

각도에 대한 auto 데이터 처리 시간의 경우, 5.1.2의 거리 데이터 처리와 같은 시스템에서 35초 내외가 소요되었다. 이는 앞서 언급했듯, 단순 수작업으로 점의 위치를 찾아야하는 기존의 방법에 비하여 압도적으로 빠른 속도임을 확인할 수 있다.

5.2 실외 실험 결과

5.2.1 Husky System

본 실험의 점군 데이터 취득을 위하여 [Fig. 16]의 husky system을 사용했다. 해당 시스템은 Clearpath HUSKY UGV (Unmanned Ground Vehicle)를 기반으로 제작되었다. 드론 컨트롤러와 ROS system을 사용하여 장거리(최소 50 m 이상)에서 안정적으로 조종할 수 있고, 사용 방법에 따라 야외 환경에서 레이더 센서, 라이다 센서, IMU 센서, GPS 센서, 등의 여러 측정 데이터를 ROS (Robot Operating System) Bag file 형태로 기록하는 기능을 갖추고 있다.

[Fig. 16]

Husky system: Outdoor Lidar, GPS, IMU data collecting working system using ROS system

5.2.2 야외 실험 설계

실외 실험의 경우, 야외 환경에서 본 논문에서 제시한 모델 및 시스템의 정확도를 확인하기 위한 목적으로 진행했다. [Fig. 17]와 같이 두 개의 실외 실험용 모델을 세워두고, 해당 모델을 모두 포함하는 경로의 라이다 점군 데이터 및 IMU 센서 데이터를 취득하여 LIO-SAM[9] 방법을 활용한 3차원 점군 맵을 구축했다. 이때 구축한 점군 맵에서 두 모델을 K-mean Clustering 방법으로 분류하여 각 모델의 위치를 계산했다.

[Fig. 17]

Outdoor Experiment: husky system running around the presented high intensity point generating model

[Fig. 18]의 A, B, C, D의 위치 중 두 곳을 고르면 총 6가지의 경우의 수가 나온다. 6가지 경우 모두에 대한 야외 실험을 진행했으며, 비교군으로 사용할 참값 데이터의 경우 줄자를 활용하여 구했다. 절대적인 각도의 기준이 모호한 실외 실험의 경우, 실내 실험과는 다르게 각도의 정확도에 대한 계산 및 분석은 실시하지 않았다.

[Fig. 18]

Outdoor Experiment Cases: Progressed 6 experiments (orange lines) by placing two models at each alphabet points

5.2.3 야외 실험 결과

[Fig. 19]는 LIO-SAM을 활용하여 생성한 점군 맵에서 반사 강도 값과 K-mean Clustering을 활용하여 두 특징점 생성 모델을 분류한 뒤, 각 모델을 다시 3개의 평면에 대하여 K-mean Clustering을 진행한 결과이다. 라이다 희소성으로 인하여 뿌옇게 보이는 점을 확인할 수 있으며, [Fig. 20]에서 RanSaC으로 보정한 각 평면의 inlier와 모델의 위치를 확인할 수 있다.