Journal of Korea Robotics Society
[ ARTICLE ]
The Journal of Korea Robotics Society - Vol. 21, No. 1, pp.1-7
ISSN: 1975-6291 (Print) 2287-3961 (Online)
Print publication date 28 Feb 2026
Received 16 Apr 2025 Revised 12 May 2025 Accepted 13 Jun 2025
DOI: https://doi.org/10.7746/jkros.2026.21.1.001

실외 로봇 위치 추정을 위한 그리드 기반 3D 포인트 클라우드 맵 생성

양견모1 ; 김세헌2 ; 서갑호
Grid-Based 3D Point Cloud Mapping for Outdoor Robot Localization
Kyon-Mo Yang1 ; Seheon Kim2 ; Kap-Ho Seo
1Senior Researcher, Korea Institute of Robotics and Technology Convergence, Pohang, Korea kmyang@kiro.re.kr
2Researcher, Korea Institute of Robotics and Technology Convergence, Pohang, Korea seheon@kiro.re.kr

Correspondence to: Chief Researcher, Adjunct Professor, Korea Institute of Robotics and Technology Convergence and, Department of Robot and Smart System Engineering, Kyungpook National University, Daegu, Korea ( neoworld@kiro.re.kr)

CopyrightⓒKROS

Abstract

Recent advancements in point cloud-based mapping have significantly enhanced outdoor robot localization beyond GPS-only approaches. However, conventional methods often result in uneven point cloud distribution, leading to increased storage requirements and reduced localization accuracy. This paper presents a grid-based 3D mapping system that partitions the environment into uniform grids, enabling consistent point cloud density and optimized map storage. Furthermore, an adaptive down sampling technique is applied to further reduce map size while preserving localization performance. Experiments conducted using the WeGo-Hunter 2.0 platform demonstrate that the proposed method reduces map storage by up to 82.01%, while maintaining localization accuracy without significant degradation in RMSE. Future work will focus on mitigating alignment errors caused by GPS inaccuracies by selectively applying the Iterative Closest Point (ICP) algorithm to refine overlapping point cloud segments.

Keywords:

Point Cloud Map, Robot Localization, Grid-Based Mapping

1. 서 론

최근 실외 자율주행 로봇은 RTK-GPS를 활용하여 위치를 추정하고 있으나, 높은 건물, 시설물, 나무 등 주변 환경의 영향으로 신호 감도가 저하되어 일부 구간에서 위치 오차가 크게 발생하는 문제가 있다. 이러한 문제를 보완하기 위해, 주변 환경을 직접 인식할 수 있는 포인트 클라우드 기반의 위치 추정기법이 함께 활용되고 있다[1-3]. 특히, 실외 자율주행을 위해서는 GPS만으로 인식 불가능한 장애물을 포함한 주행 가능 한 경로를 정확히 인식할 수 있는 고해상도 포인트 클라우드 기반 지도 생성 기술이 필수적이다.

기존 포인트 클라우드 지도 생성 방식은 주기적으로 획득된 데이터를 로봇의 현재 위치를 기반으로 정합하여 연속적인 지도를 생성한다. 그러나 운용 환경이 넓어질수록 지도 용량 이 급격히 증가하여 시스템의 처리 속도에 영향을 주며, 포인트 클라우드의 밀도가 지역별로 불균형하게 분포하여 위치 추 정 정확도에 영향을 미치는 문제가 있다[4-6]. 본 논문에서는 이러한 문제를 해결하기 위해, 맵핑 공간을 그리드로 분할하고 각 그리드의 중심점을 기준으로 포인트 클라우드 데이터를 수집함으로써 데이터 밀도를 균일화하고, 지도 저장 용량을 최적화하는 방법을 제안한다. 특히 제안하는 시스템은 전체 공간을 균일한 그리드로 나눈 뒤, 각 그리드 단위로 동일한 밀도의 부분 지도를 생성하고, 이를 시간에 따라 갱신함으로써 효율적인 실외 지도 생성을 가능하게 한다.

LiDAR 기반 로봇 위치 추정 알고리즘은 일반적으로 (1) 실시간으로 지도를 생성하면서 위치를 추정하는 방식과 (2) 사 전에 생성된 지도를 기반으로 위치를 추정하는 방식으로 구분 된다. 실시간으로 지도를 생성하며 로봇의 위치를 추정하는 알고리즘중 하나인 Google Cartographer는 LiDAR와 IMU데 이터를 기반으로 Scan-matching과 Grapth-based SLAM을 활 용하여 최적화한 로봇의 위치를 추정한다[7]. Lidar Odometry and Mapping (LOAM)은 LiDAR 특징점 기반 SLAM으로 LiDAR 특징점 기반 SLAM으로, LiDAR 포인트 클라우드에서 Edge feature와 Planar surface feature를 추출하여 SLAM을 수행한다[8]. 그러나 이러한 방식들은 로봇의 주행 속도가 빠르거나, 넓은 공간에서의 누적 오차로 인해 위치 추정의 정확도가 저하되는 문제가 있다.

이를 보완하기 위해 정밀한 고해상도 지도를 사전에 구축 하고 이를 기반으로 위치를 추정하는 방식도 존재한다. High-Definition LiDAR SLAM & Localization은 고해상도 LiDAR를 기반으로 정밀 지도를 생성한 뒤, Normal Distributions Transform (NDT)을 이용해 매칭을 수행함으로 써 대규모 환경이나 외란에 강한 장점을 지닌다[9,10]. 그러나 지도 용량이 매우 크고, 환경 변화가 잦은 실외에서는 Iterative Closest Point (ICP)와 같은 정합 알고리즘을 사용하더 라도 영역 간 포인트 클라우드 밀도에 차이가 발생하는 문제 가 있다. [Fig. 1]은 이러한 불균형을 보여주는 예로, 정지 상태 에서 수집된 1번 영역은 주변 환경의 변화가 누적되어 데이터 가 밀집되었으며, 이동 상태의 2번 영역은 상대적으로 데이터 밀도가 낮은 것을 보여준다.

[Fig. 1]

Differences in point cloud data density by area: 1) Robot stationary, 2) Robot driving section

본 논문에서는 지도 파일의 용량 최적화와 포인트 클라우 드 밀도의 균등화라는 두 가지 문제를 동시에 해결하는 것을 목표로 한다. 제안하는 방법은 단순히 데이터를 축소하거나 샘플링하는 것이 아니라, 공간을 구조적으로 분할하고 각 구 간의 데이터를 독립적으로 수집 및 갱신하는 구조를 통해 실 시간성과 정확도 간 균형을 유지할 수 있다. 이 기술은 향후 대 규모 실외 환경에서의 자율주행, 순찰 로봇, 스마트팜 등의 다 양한 응용 분야에 적용될 수 있을 것으로 기대된다. 제안하는 시스템의 유효성을 검증하기 위해, WeGo-Hunter 2.0 플랫폼으로 생성한 지도를 기반으로 HDL-Localization을 수행하고, 기존 지도와의 위치 추정 성능을 비교 평가하였다.

본 논문의 구성은 다음과 같다. 제2장에서는 그리드 기반 포인트 클라우드 지도 생성 시스템을 설명하고, 제3장에서는 실외 공간 내에서 지도를 생성하고 이를 기반으로 수행한 로 봇 위치 추정 실험 결과를 다룬다. 마지막으로 제4장에서는 결 론 및 향후 연구 방향을 제시한다.


2. 그리드 기반 포인트 클라우드 지도 생성

본 장에서는 맵핑 공간을 정사각형 그리드로 균일하게 분 할하고, 각 그리드의 중심점을 기준으로 로봇의 위치와 시간 조건을 고려하여 포인트 클라우드 데이터를 갱신하는 SRT (Spacing-Radius-Time) 알고리즘 기반의 지도 최적화 및 갱신 시스템을 설명한다.

SRT 알고리즘은 다음의 세 가지 주요 파라미터를 기반으로 한다.

  • · S (Spacing): 전체 맵핑 공간을 균일하게 분할하기 위한 그리드 간격이다.
  • · R (Radius): 로봇이 특정 그리드의 중심 반경 R 이내에 진입할 경우, 해당 그리드의 지도 데이터를 갱신할지를 판단한다.
  • · T (Time): 각 그리드의 최근 갱신 시각을 기준으로, 일정 시간 T가 경과해야 새로운 데이터로 갱신이 가능하다.

이 알고리즘은 동일 위치에서의 포인트 클라우드 데이터가 불필요하게 중복 저장되는 문제를 방지하고, 지도 저장 공간 을 효율적으로 관리하며, 데이터 밀도의 공간적 불균형을 최 소화한다. 또한, 각 그리드에서 수집된 포인트 클라우드의 밀도와 시간 간격을 기반으로 갱신 주기를 동적으로 조정함으로 써, 지나치게 잦은 계산을 방지하고 시스템의 실시간 처리 성 능을 향상시킬 수 있다. 이는 SLAM 시스템이나 지도 기반 위 치 추정 시스템과 통합될 경우, 실시간성이 중요한 환경에서 도 효율적인 맵 관리가 가능하다는 장점을 갖는다.

2.1 시스템 구성

[Fig. 2]는 제안하는 그리드 기반 포인트 클라우드 지도 생성 및 위치 추정 시스템의 전체 구성도를 나타낸다. 본 시스템은 RTK-GPS 기반으로 로봇의 위치를 추정하며, LiDAR로부터 수집된 데이터를 이용해 부분 지도를 생성하고, 이를 전역 지 도(Global Map)에 통합하는 방식으로 동작한다. LiDAR와 GPS와의 위치와 방향관계를 기구학 정보를 정의하여 병합시 사용하였다.

[Fig. 2]

Map Generation System using SRT Algorithm

부분 지도 생성 모듈(Sub-Map Generation Module)은 맵핑 공간을 S 값에 따라 정사각형 그리드로 균일하게 분할한다. 로 봇의 위치가 특정 그리드의 중심점으로부터 반경 R 이내에 진 입하면, 해당 위치에서 포인트 클라우드 데이터를 수집하여 부분 지도를 생성한다. 단, 최근 갱신 시점으로부터 최소 시간 T가 경과한 경우에만 갱신이 수행되어 불필요한 데이터 중복을 방지한다. 생성된 부분 지도는 지도 통합 모듈(Sub-Map Integration Module)을 통해 전역 지도 내 해당 그리드 영역에 통합되며, 지속적인 갱신을 통해 환경 변화를 반영한다. [Fig. 3] 은 그리드 기반 부분 지도 생성을 위해 사용되는 주요 파라미 터(S, R, T)의 개념을 도식화한 것이다.

[Fig. 3]

Parameter for Generating Sub-Map

통합된 전역 지도는 위치 추정 시스템에 전달되어 실시간 로봇 위치 추정에 활용되며, RTK-GPS만으로 파악하기 어려 운 환경 변화나 장애물 정보도 반영될 수 있다.

2.2 그리드 기반 지도 생성 및 갱신 알고리즘

[Fig. 4]는 SRT 알고리즘을 기반으로 한 지도 생성 및 갱신 절차를 나타낸 순서도이다. 알고리즘은 다음과 같은 절차로 구성된다. 먼저, 전체 맵핑 공간을 정사각형 그리드로 분할하고, 각 그리드에는 고유 ID를 선언한다. 그리드별로 중심 GPS 좌 표(위도, 경도), 방향 정보(Roll, Pitch, Yaw), 최근 갱신 시각 및 포인트 클라우드 데이터가 저장된다. 로봇의 현재 위치가 특정 그리드의 중심점 반경 R 이내에 들어오면, 해당 그리드의 마지막 갱신 시각을 확인한다. 만약 이전 갱신 이후 최소 시간T 이상이 경과한 경우, 새로운 포인트 클라우드 데이터를 수집하여 해당 그리드의 부분 지도를 갱신한다. 이로써 중복 저장 을 방지하고 효율적인 지도 갱신이 가능하다. 수집된 부분 지도는 로봇의 LiDAR 좌표계 기준으로 생성되며, 이를 GPS 좌표계로 변환하여 전역 지도에 정합한다. 이 과정은 먼저 로봇 기준으로 정렬한 후, GPS 기준으로 변환하여 통합하는 절차 로 구성된다. 지도 갱신이 완료되면 해당 그리드의 포인트 클라우드, 중심 위치, 방향 정보, 최근 갱신 시각이 모두 업데이트 되며, 이 과정은 주행 중 지속적으로 반복된다.

[Fig. 4]

Flowchart of Map Integration and Update based on SRT Algorithm

[Fig. 5]는 각 그리드의 ID, 중심 위치, 방향(Roll, Pitch, Yaw), 최근 갱신 시간 등의 정보를 포함한 그리드 메타데이터 예시 를 보여준다. 각 ID는 UTM 좌표계를 기반으로 생성되어 지도 관리 및 로봇 위치 추정에 효과적으로 활용된다.

[Fig. 5]

Example of GPS Coordinates and Direction Data Corresponding Grid

2.3 다운샘플링 기반 지도 최적화

포인트 클라우드 기반의 전역 지도는 데이터의 고밀 도로 인해 저장 용량과 연산 비용이 높아지는 문제가 존재한다. 이를 해결하기 위해 본 논문에서는 Adaptive Down Sampling 및 Voxel Grid Filter를 적용하여 전역 지도를 최적화하였다[10,11]. Adaptive Down Sampling은 포인트 클라우드의 밀도에 따라 다운샘플링 비율을 동적으로 조절하며, 형상 정보를 최대한 유지하면서도 불필요한 데이터를 제거할 수 있다. Voxel Grid Filter는 공간 을 격자 형태로 나누고, 각 격자 내에서 대표 점 하나만 남기고 나머지는 제거하는 방식으로 작동한다. 이를 통 해 데이터의 전체 양은 감소시키면서도 로봇 위치 추정 을 위한 중요한 지형 정보는 유지할 수 있다.

[Fig. 6]은 Open3D에서 제공하는 Adaptive Down Sampling 기법을 적용하여 전역 지도를 최적화한 예시를 보여준다. 해당 기법을 통해 실외 환경에서도 위치 추 정 성능을 유지하면서 지도 용량을 크게 절감할 수 있음 을 확인하였다.

[Fig. 6]

Example of Down Sampling


3. 실험 및 결과

3.1 실험 환경 구성

제안하는 그리드 기반 포인트 클라우드 지도 생성 시스템의 성능을 검증하기 위해, [Fig. 7]과 같이 WeGo-Hunter 2.0 플랫폼에 LiDAR (VLP-16) 및 GPS (OTOA) 센서를 장착하였다. 실험은 주행 경로를 설정한 후 로봇을 실제 주행시키며 GPS 및 LiDAR 데이터를 수집하는 방식으로 수행되었으며, 실험이 진행된 영역은 총 2,284.6 m² 규모의 공원이다. S는 그리드의 간격 이며 R은 그리드 영역 전체를 포함하도록 S의 반으로 설 정하였다. T는 로봇의 주행 속도와 그리드의 간격을 고려하여 5분으로 설정하여 지도를 생성하였다.

[Fig. 7]

Experimental Configuration

3.2 그리드 생성 파라미터별 로봇 위치 추정 결과

[Fig. 8]은 기존 HDL-Graph SLAM으로 생성한 지도와, 제안하는 SRT 기반 지도 생성 방식으로 파라미터(S, R, T)를 조정하여 생성한 지도 결과를 비교한 것이다[12]. 기존 방법으로 생성된 지도 파일 크기는 8,4 MB였으며, 제안 기법에서 그리드 간격 S를 10 m로 설정한 경우 3.4 MB로 감소하여, 지도 용량이 82.0% 줄어든 것을 확인 할 수 있었다

[Fig. 8]

Map Generation Results by SRT Parameters: (S) Spacing, (R) Radius, (T) Time

[Table 1]은 [Fig. 8]에서 생성된 각 지도에 대해 로봇 위 치 추정 성능을 정량적으로 비교한 RMSE(Root Mean Square Error) 결과를 나타낸다. 오차는 주행 중 수집된 GPS 데이터와의 유클리디안 거리 차이를 기반으로 계산하였다. 그리드 간격 S를 2 m로 설정한 기준 지도에 비해, 10 m 간격으로 생성된 지도의 RMSE는 6.24% 증가한 것으로 나타났으며, 이는 용량 감소 대비 수용 가능 한 수준의 정확도 손실로 판단된다.

RMSE and File Size for Each Map Configuration

3.3 다운 샘플링에 따른 로봇 위치 추정 결과

[Fig. 9]은 그리드 간격 S를 2 m로 설정한 전역 지도에 대해 Adaptive Down Sampling을 적용한 최적화 결과이 다. 적용 전 지도 크기는 17 MB였으며, 다운 샘플링 비율 을 10%, 30%, 50%, 70%까지 증가시키며 실험을 수행하 였다. 이 결과, 지도 용량은 최대 69.8%까지 감소하였다.

[Fig. 9]

Map Generation Results by Sampling Parameter

[Table 2]는 S=2 m, R=1 m, T=5 min로 설정된 원본 지도 에 대해, 다운 샘플링 비율에 따른 지도 용량, RMSE, 최적화 처리 시간을 정리한 결과이다. 다운 샘플링 비율이 70%인 경우 RMSE는 0.0562 m로 원본 지도 대비 2.8% 감소하여, 오히려 위치 인식 정확도가 향상되는 결과를 보였다.

RMSE and File Size for Down Sampling Map

[Fig. 10]은 Voxel Grid Filter를 적용하여 지도 최적화를 수행한 예시를 보여준다. 실험은 Voxel 크기를 0.05 m, 0.1 m, 0.15 m로 설정하여 각각 수행하였으며, 0.15 m 로 설정한 경우 지도 용량은 77.3% 감소하였다.

[Fig. 10]

Map Generation Results by Voxel Parameter

[Table 3]은 Voxel Grid 크기 변화에 따른 지도 파일 크기, RMSE 및 처리 시간을 정리한 결과이다. Voxel 크기 가 0.15 m인 경우, RMSE는 0.0607 m로 원본 대비 5.2% 증가한 것을 확인하였다. 이는 지도 용량 절감 효과는 높 지만, 위치 추정 정확도에 일정 수준의 손실이 있음을 의미한다.

RMSE and File Size for Voxel Grid Filter Map


4. 결론 및 향후 연구

본 논문에서는 실외 환경에서 포인트 클라우드 데이터를 활용하여 지도를 생성할 때, 데이터 수집 주기의 차이로 특정 영역에 포인트 클라우드가 과도하게 집중되어 지도 용량이 증가하는 문제를 해결하기 위해, 그리드 기반의 지도 생성 방법을 제안하였다. 제안된 방법은 전 체 맵핑 공간을 일정 간격으로 정사각형 그리드로 분할 한 뒤, 각 그리드 중심을 기준으로 균일한 밀도의 포인트 클라우드 데이터를 수집하여 부분 지도를 생성하고, 이 를 정합하여 전역 지도를 구성하는 방식이다. 이를 통해 공간적 데이터 불균형 문제를 완화하고, 효율적인 지도 관리가 가능함을 실험을 통해 검증하였다. 또한, 생성된 전역 지도의 최적화를 위해 Adaptive Down Sampling 및 Voxel Grid Filter를 적용한 결과, 기존 방법 대비 지도 용 량을 효과적으로 줄이면서도 로봇의 위치 추정 정확도 를 일정 수준 이상 유지할 수 있음을 확인하였다. 특히, 일부 실험에서는 다운 샘플링 적용 이후 오히려 RMSE 가 감소하는 결과도 나타나, 제안 기법의 실효성을 입증 하였다.

향후 연구에서는 GPS 기반 위치 오차로 인해 부분 지도를 정합할 때 발생할 수 있는 중복 포인트 클라우드 간의 정합 오류 문제를 해결하기 위한 방안을 모색할 계획 이다. 이를 위해, Iterative Closest Point (ICP)와 같은 정 합 알고리즘을 제한적으로 활용하여, 중복 영역 및 동적으로 움직이는 물체에 대하여 자동으로 조정 및 보정하는 방안을 고안하고자 한다. 이를 통해 생성된 지도에 대 한 정합 정확도를 향상시키고, 보다 정밀하고 안정적인 전역 지도 구축이 가능할 것으로 기대된다. 또한 지도를 생성하기 위하여 실험적으로 설정된 SRT파라미터를 학 습하여 최적화하는 방안을 연구하여 반복적인 환경에 대하여 적용 가능하도록 연구할 계획이다.

Acknowledgments

This work was supported by Korea Institute of Planning and Evaluation for Technology in Food, Agriculture and Forestry (IPET) through High Value-added Food Technology Development Program, funded by Ministry of Agriculture, Food and Rural Affairs (MAFRA) (RS-2022-IP322054).

References

  • Z. Jian, Q. Li, S. Zheng, X. Wang, and X. Chen, “Lvcp: Lidar-vision tightly coupled collaborative real-time relative positioning,” arXiv:2407.10782, 2024. [https://doi.org/10.48550/arXiv.2407.10782]
  • L. Wang, Y. Zhang, and J. Wang, “Map-based localization method for autonomous vehicles using 3D-LIDAR,” IFAC-Papers OnLine, vol. 50, no. 1, pp. 276-281, Jul., 2017. [https://doi.org/10.1016/j.ifacol.2017.08.046]
  • H. Gil, D. Lee, G. Song, S. Ahn, and A. Kim, “Tightly-coupled GNSS-LiDAR-Inertial state estimator for mapping and autonomous driving,” The Journal of Korea Robotics Society, vol. 18, no. 1, pp. 72-81, 2023. [https://doi.org/10.7746/jkros.2023.18.1.072]
  • S. Z. Ahmed, V. B. Saputra, S. Verma, K. Zhang, and A. H. Adiwahono, “Sparse-3D LiDAR outdoor map-based autonomous vehicle localization,” International Conference on Intelligent Robots and Systems (IROS), Macau, China, pp. 1614-1619, 2019. [https://doi.org/10.1109/IROS40897.2019.8967596]
  • B. Zhou, Y. He, K. Qian, X. Ma, and X. Li, “S4-SLAM: A real-time 3D LIDAR SLAM system for ground/watersurface multi-scene outdoor applications,” Autonomous Robots, vol. 45, pp. 77-98, 2021. [https://doi.org/10.1007/s10514-020-09948-3]
  • X. Chen, T. Läbe, L. Nardi, J. Behley, and C. Stachniss, “Learning an overlap-based observation model for 3D LiDAR localization,” International Conference on Intelligent Robots and Systems (IROS), Las vegas, NV, USA, pp. 4602-4608, 2020. [https://doi.org/10.1109/IROS45743.2020.9340769]
  • A. Dwijotomo, M. A. Rahman, M. H. M. Ariff, H. Zamzuri, and W. M. H. Azree, “Cartographer slam method for optimization with an adaptive multi-distance scan scheduler,” Applied Sciences, vol. 10, no. 1, pp. 347-364, Dec., 2020. [https://doi.org/10.3390/app10010347]
  • J. Zhang and S. Singh, “LOAM: Lidar odometry and mapping in real-time,” Robotics:Science and systems, vol. 2, no. 7, pp. 1-9, Jul., 2014. [https://doi.org/10.15607/RSS.2014.X.007]
  • K. Koide, J. Miura, and E. Menegatti, “A portable three-dimensional LIDAR-based system for long-term and wide-area people behavior measurement,” International Journal of Advanced Robotic Systems, vol. 16, no. 2, Mar., 2019. [https://doi.org/10.1177/1729881419841532]
  • hdl_graph_slam, 3D LIDAR-based Grah SLAM, [Online], https://github.com/koide3/hdl_graph_slam, , Accessed: Nov. 27, 2025.
  • W. Lyu, W. Ke, H. Sheng, X. Ma, and H. Zhang, “Dynamic downsampling algorithm for 3D point cloud map based on voxel filtering,” Applied Sciences, vol. 14, no. 8, pp. 1-16, Mar., 2024. [https://doi.org/10.3390/app14083160]
  • hdl_global_localization, Real-time 3D localization using a (velodyne) 3D LIDAR, [Online], https://github.com/koide3/hdl_localization, , Accessed: Nov. 27, 2025.
양 견 모

2011 세종대학교 디지털콘텐츠학과(공학사)

2014 연세대학교 컴퓨터과학(공학석사)

2018~현재 한국로봇융합연구원 지역연구본부 선임연구원

관심분야: 인공지능, 지식추론, 상황인식

김 세 헌

2024 광운대학교 로봇학부(공학사)

2024~현재 한국로봇융합연구원 지역연구본부 연구원

관심분야: 정보제어, 모바일로봇

서 갑 호

1999 고려대학교 전기공학과(공학사)

2001 KAIST 전기및전자공학(공학석사)

2009 동대학(공학박사)

2009~현재 한국로봇융합연구원 지역연구본부 수석연구원

2021~현재 경북대학교 로봇 및 스마트 시스템 공학과 겸임교수

2024~현재 대동로보틱스 선행연구본부 본부장/상무

관심분야: 시스템 제어, 농업로봇, 웨어러블로봇, 모바일로봇

[Fig. 1]

[Fig. 1]
Differences in point cloud data density by area: 1) Robot stationary, 2) Robot driving section

[Fig. 2]

[Fig. 2]
Map Generation System using SRT Algorithm

[Fig. 3]

[Fig. 3]
Parameter for Generating Sub-Map

[Fig. 4]

[Fig. 4]
Flowchart of Map Integration and Update based on SRT Algorithm

[Fig. 5]

[Fig. 5]
Example of GPS Coordinates and Direction Data Corresponding Grid

[Fig. 6]

[Fig. 6]
Example of Down Sampling

[Fig. 7]

[Fig. 7]
Experimental Configuration

[Fig. 8]

[Fig. 8]
Map Generation Results by SRT Parameters: (S) Spacing, (R) Radius, (T) Time

[Fig. 9]

[Fig. 9]
Map Generation Results by Sampling Parameter

[Fig. 10]

[Fig. 10]
Map Generation Results by Voxel Parameter

[Table 1]

RMSE and File Size for Each Map Configuration

HDL SLAM map Proposed Method
S = 2 m,
R = 1 m,
T = 5 min
S = 5 m,
R = 2.5 m,
T = 5 min
S = 10 m,
R = 5 m,
T = 5 min
PCD file size
(Mbyte, Change %)
8.4
(-55.1%)
18.7
(Base line)
7.6
(-59.4%)
3.2
(-82.9%)
RMSE (m) 2.50 0.1562 0.1757 0.1597

[Table 2]

RMSE and File Size for Down Sampling Map

S = 2 m,
R = 1 m,
T = 5 min
Down Smapling
10% 30% 50% 70%
PCD file size
(Mbyte, Change %)
18.7
(Base line)
16.8
(-10.2)
13.1
(-29.9)
9.3
(-50.3)
5.6
(-70.1)
RMSE (m)
Change (%)
0.1562
0.1548
(-0.9)
0.1546
(-1.0)
0.1512
(-3.2)
0.1519
(-2.8%
Processing Time (sec) 0 35.004 31.007 25.500 28.617

[Table 3]

RMSE and File Size for Voxel Grid Filter Map

S = 2 m,
R = 1 m,
T = 5 min
Voxeling (m)
0.05 0.1 0.15
PCD file size
(Mbyte, Change %)
18.7
(Base line)
11.6
(-38.0)
7.5
(-59.9)
5.4
(-71.1)
RMSE (m)
Change (%)
0.1562
0.1571
(+0.6)
0.1593
(+2.0)
0.1634
(+4.6)
Processing Time (sec) 0 1.3066 0.4899 0.4182