Journal of Korea Robotics Society
[ ARTICLE ]
The Journal of Korea Robotics Society - Vol. 21, No. 1, pp.8-13
ISSN: 1975-6291 (Print) 2287-3961 (Online)
Print publication date 28 Feb 2026
Received 22 May 2025 Revised 10 Jun 2025 Accepted 21 Aug 2025
DOI: https://doi.org/10.7746/jkros.2026.21.1.008

그리드 기반 3D 포인트 클라우드의 실시간 병합을 통한 실외 로봇 위치추정에 관한 연구

김세헌1 ; 양견모2 ; 서갑호
Real-Time Grid-Based 3D Point Cloud Merging for Outdoor Robot Localization
Seheon Kim1 ; Kyon-Mo Yang2 ; Kap-Ho Seo
1Researcher, Korea Institute of Robotics and Technology Convergence (KIRO), Seoul, Korea seheon@kiro.re.kr
2Senior Researcher, KIRO, Seoul, Korea kmyang@kiro.re.kr

Correspondence to: Chief Researcher, KIRO, Pohang, Korea ( neoworld@kiro.re.kr)

CopyrightⓒKROS

Abstract

Recent advances in outdoor autonomous robotics have highlighted the importance of precise localization using 3D point cloud-based mapping. Conventional full-map-based approaches suffer from scalability and latency issues in large-scale environments, making them less suitable for real-time applications. This paper proposes SRT-PM (Spacing-Radius-Time Partial Map), a method that partitions the environment into grids and selectively merges only the local regions around the robot in real time. By dynamically merging relevant point cloud segments based on the robot’s position and movement, SRT-PM reduces computational overhead while maintaining localization accuracy. Experimental results demonstrate that the proposed method achieves up to 34% reduction in localization time and up to 98% reduction in point count compared to the full map approach (Large Area), with RMSE maintained or improved. This study contributes to enhancing real-time localization efficiency in large outdoor environments.

Keywords:

Point Cloud Map, Outdoor Robot Localization, Grid-Based Mapping, SLAM Optimization

1. 서 론

실외 자율주행 로봇의 핵심 기술 중 하나는 정밀한 위치 추정이며, 이를 위해 RTK-GPS (Real-Time Kinematic), IMU, LiDAR 등의 센서를 융합한 기술이 널리 활용되고 있다[1-3]. 그러나 RTK-GPS는 수목, 건물, 전선 등의 환경 요소로 인해 신호 감쇠 및 반사 문제를 겪기 쉬우며, IMU는 시간이 지남에 따라 누적 오차가 증가하여 장거리 주행 시 정밀도가 급격히 저하되는 한계를 갖는다[4,5]. 이러한 한계를 보완하기 위해, 최근에는 주변 환경을 반영하는 포인트 클라우드 기반 정합 기법이 주목받고 있다[6,7].

특히, LiDAR 기반 고정밀 지도와의 정합을 통해 GPS 의존도를 줄이고 복잡한 실외 환경에서도 안정적인 위치추정을 가능하게 하는 방식인 HDL (High-Definition LiDAR)-Graph SLAM, NDT (Normal Distributions Transformation) Matching 등 다양한 고정밀 지도 기반 정합 알고리즘이 제안되었다[8,9]. 이들은 정밀도 면에서는 우수하지만, 전역 지도를 기반으로 하여 지도 크기가 커질수록 메모리 사용량과 연산 부하가 크게 증가하는 단점이 있다. 즉, 실시간성이 요구되는 로봇 플랫폼에서는 이러한 방식이 적용되기 어려운 경우가 많다.

이러한 문제를 해결하기 위해, 최근에는 로봇 주변의 국소적인 영역만 활용하거나 실시간으로 필요한 지역만 병합하여 지도를 구성하는 방식이 제안되고 있다[10,11]. 예를 들어 부분지도 기반 SLAM은 이전에 수집된 소규모 맵을 바탕으로 위치를 추정하며, 로컬 영역만 선택적으로 업데이트하는 구조를 갖는다. 그러나 대부분의 기존 기법은 SLAM 이전에 수집된 대규모의 데이터를 이용하여 작성된 맵을 기반으로 위치를 추정한다. 따라서, 시시각각 변화하는 주행 상황이나 시간 기반 병합 조건을 효율적으로 처리하기에는 어려움이 있다.

본 논문에서는 이러한 한계를 극복하기 위해, 포인트 클라우드 데이터의 균일화를 고려한 전역 지도 생성 방식인 SRT (Spacing–Radius–Time) 알고리즘을 제안하였다[12]. 본 논문에서는 SRT 알고리즘을 기반으로 부분 지도를 생성하여 효율적인 지도 구성 방식을 확장한 SRT-PM (Partial Map) 알고리즘을 제안한다. SRT-PM은 전체 공간을 균일한 간격으로 나눈 그리드 기반 구조 위에, 로봇 위치를 중심으로 반경 R 이내의 그리드 맵(Sub-Grid Map)만을 병합하여 부분 지도(Partial Map)를 생성하고, 일정 시간 T가 경과한 경우에만 갱신을 수행함으로써 불필요한 연산을 줄이도록 설계되었다. 제안한 SRT-PM 알고리즘의 유효성을 실외 자율주행 환경에서 실험적으로 검증하고, 기존 전체 지도 기반 위치 추정 방식과 비교하여 연산 효율성과 위치 정합 정확도 측면의 성능을 정량적으로 평가하였다. 이를 통해 대규모 환경에서도 실시간 처리가 가능한 경량 위치 추정 구조로서의 활용 가능성을 제시한다. 실험은 소규모(2,284.6 ㎡) 및 대규모(12,866.8 ㎡) 환경에서 수행되었으며, 실험 결과를 통해 제안 기법의 실시간 처리 가능성과 경량화된 지도 구조로서의 활용 가능성을 확인하였다.

본 논문의 구성은 다음과 같다. 2장에서는 SRT-PM 알고리즘을 설명하고, 3장에서는 실외 공간 내에서 지도를 생성하고 이를 기반으로 수행한 로봇 위치 추정 실험 결과를 다룬다. 마지막으로 4장에서는 결론 및 향후 연구 방향을 제시한다.


2. SRT-PM 기반 부분 지도 구성 및 위치추정

본 장에서는 전역 지도(Global Map) 기반의 위치 추정 시 연산량 증가와 실시간성 저하 문제를 해결하기 위한 로봇의 중심을 기준으로 부분 지도만 병합하여 위치추정하는 SRT-PM 알고리즘에 대하여 설명한다.

2.1 알고리즘 개요

SRT (Spacing–Radius–Time) 알고리즘은 전체 공간을 일정 간격의 그리드로 분할한 뒤, 각 그리드의 중심을 기준으로 그리드 맵 생성 반경 R 이내에 들어온 경우에만 데이터를 수집하며, 일정 시간 T가 경과한 후에만 갱신을 허용함으로써 지도 데이터의 균일한 밀도와 시간 효율성을 동시에 확보하는 방법이다. 이 알고리즘은 기존 SLAM 시스템의 지도 밀도 편차, 메모리 과부하 문제를 완화할 수 있으며, 대규모 환경에서의 장시간 운용에 적합하다.

본 연구에서 제안하는 SRT-PM 알고리즘은 이러한 SRT 구조를 기반으로, 실시간 위치 추정을 위해 필요한 범위 내의 부분 지도만을 동적으로 병합하여 사용하는 구조로 확장되었다. SRT 파라미터에 의해 생성된 전역 지도에서, 로봇이 이동함에 따라 부분지도 병합 반경 R’ 이내의 최신 부분 지도를 선택적으로 병합하여 레퍼런스 지도를 구성하고, 이를 기반으로 위치 정합을 수행함으로써 연산량과 메모리 사용량을 크게 줄일 수 있다. 또한 일정 시간 T가 경과한 경우에만 해당 영역의 데이터를 갱신함으로써 불필요한 연산을 억제하고, 실시간 위치 추정의 효율성을 높였다. 즉, 부분지도 생성 시 병합이 반복됨에 따라 전체 메모리 및 저장 공간에 부담이 증가하지 않도록 필요한 영역에 대하여 갱신 작업을 수행한다.

SRT-PM의 핵심은 정적인 전역 지도를 생성하지 않고, 로봇의 위치 기반으로 공간적, 시간적으로 제한된 범위의 그리드 맵을 병합하여 필요할 때만 부분 지도를 구성하는 방식에 있다. 이러한 구조는 정합 정확도는 유지하면서도, 계산 비용을 획기적으로 절감할 수 있는 장점을 제공한다. [Fig. 1]은 SRT-PM의 작동 개념을 시각적으로 설명한 도식이다. 왼쪽은 로봇 중심(C)을 기준으로 반경(R’) 내 병합 대상 그리드 맵을 나타내며, 파란 점은 그리드 맵이 존재하는 위치, 붉은 점은 존재하지 않는 위치를 의미한다. 이 정보를 바탕으로 오른쪽과 같은 부분 지도가 생성되며, 로봇은 이를 활용해 실시간 위치 추정을 수행한다.

[Fig. 1]

Visualization of SRT-PM algorithm

이러한 구조는 특히 임베디드 플랫폼, 스마트팜, 경량 이동 로봇 등과 같은 실시간성이 요구되는 환경에서 유리하며, 복잡하고 넓은 공간에서도 연산 비용을 억제하며 안정적인 위치 추정을 가능하게 한다.

2.2 SRT-PM 시스템 구조

[Fig. 2]는 제안하는 SRT-PM 알고리즘 기반 로봇 위치 추정 시스템의 전체 구성도를 나타낸다. SRT-PM 기반의 위치 추정 시스템은 LiDAR와 RTK-GPS 센서로부터 수집된 데이터를 활용하여, 로봇 주변의 제한된 영역만을 부분 지도로 병합하고, 이를 기반으로 실시간 위치 추정을 수행하는 구조로 설계하였다. 그리드 맵 생성 모듈(Sub-Grid Map Generation)은 RTK-GPS로부터 획득되는 로봇 위치 및 방향 정보와 LiDAR의 포인트 클라우드 데이터를 이용하여 SRT 파라미터로 부분 지도를 생성하여 갱신한다. 부분지도 생성 모듈(Partial Map Generation)에서는 로봇의 위치를 중심으로 지도 융합을 위해 정의된 반지름(R’, Radius for map merge)만큼의 그리드에 해당되는 지도를 결합하여 로봇의 위치추정에 사용되는 지도를 생성한다. 로봇 위치 추정 모듈(Robot localization)에서는 생성된 부분 지도를 이용하여 로봇의 현재 위치를 추정한다.

[Fig. 2]

Robot Localization System based on SRT-PM

2.3 부분 지도 생성 절차

부분 지도는 각 그리드에서 수집된 LiDAR 데이터를 기반으로 생성되며, SRT 알고리즘의 파라미터(S, R, T)에 따라 수집 시점과 병합 여부가 결정된다. 본 시스템에서는 수집된 원시 포인트 클라우드 데이터를 변환 및 저장하기 전, 일정 반경(예: 30 m) 내에서 로봇 영역을 제외한 포인트를 필터링한다. 이후, 일정 비율(예: 50%)로 다운샘플링하여 저장함으로써 데이터 용량을 줄이고 병합 및 정합 과정의 연산 부담을 완화한다.

생성 절차는 다음과 같이 구성된다:

  • (1) 반경 필터링: 현재 로봇의 위치를 중심으로 반경 R 이내에 포함되는 그리드 맵만을 선택적으로 검색한다. 반경 내에 그리드 맵이 존재하지 않을 경우, 부분 지도는 생성되지 않고 빈 포인트 클라우드가 Localization 모듈로 전달된다.
  • (2) 좌표계 정렬 및 변환: 각 그리드 맵은 수집 당시 두 번의 변환 과정을 거친 후 저장된다. 우선 URDF에 정의된 로봇의 치수 정보를 활용하여 로봇 기준 좌표계(Footprint 기준)로 변환된다. 이후 현재 위치 기준의 좌표계로 변환된다. 이 변환은 RTK-GPS 및 IMU 기반 자세 정보를 활용하여 전역 맵 좌표계로 정렬된다. 정렬된 그리드 맵은 각각 PCD 파일로 저장된다.
  • (3) 병합: PCD 파일로 저장된 그리드 맵들 간 병합이 수행되어 최종 부분 지도가 구성된다. 병합 시점의 데이터는 이미 경량화된 상태이므로, 병합 후 별도의 다운샘플링 단계는 존재하지 않는다.

이러한 절차를 통해 부분 지도의 품질과 연산 효율성을 동시에 확보할 수 있으며, 실시간성 확보와 메모리 사용 최적화라는 두 가지 요구사항을 충족할 수 있다. [Fig. 3]은 이러한 그리드 맵 저장 및 병합 흐름을 시각화한 것으로, 다운샘플링 된 그리드 맵을 기반으로 부분 지도가 구성되는 과정을 보여준다.

[Fig. 3]

Process of partial map construction


3. 실험 및 결과

본 장에서는 제안하는 SRT-PM 알고리즘의 성능을 정량적으로 평가하기 위해, 실제 로봇 플랫폼을 활용한 실외 주행 실험을 수행하였다. 기존 Full Map 기반 위치 추정 방식과의 비교를 통해 연산 효율성, 메모리 사용량, 위치 추정 정확도(RMSE)를 중심으로 성능을 분석하였다.

3.1 실험 환경 구성

[Fig. 4]는 실험에서 사용한 WeGo-Hunter 2.0 로봇 플랫폼과 주요 센서 장착 위치이다. 해당 플랫폼에는 3D LiDAR (Velodyne VLP-16) 및 RTK-GPS (CRABLE Otoa) 모듈이 장착되어 있으며, ROS 기반 시스템에서 LiDAR 포인트 클라우드와 GPS 데이터를 실시간으로 수집 및 처리하였다. LiDAR의 최대 측정 거리는 100 m이고, 정밀도는 ±3 cm이다. 로봇의 길이와 너비는 각각 0.98 m, 0.745 m이고, 안전을 위해 로봇의 최대 속도는 1 m/s로 제한했다.

[Fig. 4]

WeGo-Hunter 2.0 platform

지도 생성 시 파라미터 설정은 S=2 m, R=1 m, T=5 min으로 설정하였으며, R’= 10 m로 설정하였다. 각 파라미터는 로봇이 실험 영역을 고르게 주행하면서 일정 거리 이동 시마다 지도 정보가 갱신되도록 S=2 m로 설정하였다. SRT-PM의 경우 중심에서 멀더라도 로봇이 주행한 영역에는 그리드 맵이 있어야 유리하기에, R=1 m로 넉넉하게 설정하였다. T=5 min은 로봇이 기존 지점에서 생성된 지도를 기준으로 한 바퀴 주행하여 돌아왔을 때, 주변 피처(Feature)에 충분한 변화가 발생할 것으로 판단하여 실험적으로 지도 갱신 주기로 설정하였다. 또한 R’은 로봇의 주행 최대 속도와 전방 장애물의 변화를 파악하기 위하여 실험적으로, 10 m로 설정하였다.

실험은 다음과 같이 두 가지 목적의 주행을 각각 수행하였다:

  • ① 레퍼런스 지도 작성을 위한 데이터 수집 주행: 각 구역(Small Area, Large Area)에서 1회씩 주행하여, 그리드 맵 기반 레퍼런스 지도를 생성하였다.
  • ② 위치 추정 성능 평가 주행: 동일한 환경 및 경로 조건에서 각 방식(SRT-PM 활용, 전체 지도 활용)에 대해 각각 5회씩 주행을 반복 수행하였다. 이때의 결과는 평균값으로 정리되어 평가에 사용되었다.

실험 공간은 두 개의 구역으로 나누어 구성되었다:

  • • Small Area: 약 2,284.6 ㎡ 면적의 제한된 공간 ([Fig. 5])
  • • Large Area: 약 12,866.8 ㎡ 면적의 개방된 공간 ([Fig. 6])
[Fig. 5]

Data collection in a small area (red line: RTK-GPS trajectory)

[Fig. 6]

Data collection in a large area (red line: RTK-GPS trajectory)

3.2 실험 절차 및 평가 지표

위치 추정 실험은 ROS 기반 HDL Localization을 사용하여 수행되었으며, SRT-PM 방식과 기존 SRT 알고리즘으로 생성된 전체 지도(Full Map) 방식을 동일한 환경 조건에서 비교하였다. SRT-PM 방식은 로봇이 새로운 그리드에 진입할 때마다 반경 R 이내의 그리드 맵을 병합하여 부분 지도를 구성하고, 이를 레퍼런스 지도(reference map)로 사용하여 위치를 추정하였다. 전체 지도 방식은 데이터 수집과정에서 생성된 모든 그리드 맵을 병합하여 지도를 생성하였다.

위치 추정 성능 평가는 다음과 같은 지표를 중심으로 이루어졌다:

  • • Localization Time [ms]: 위치 추정 1회당 평균 연산 소요 시간
  • • Number of Point Clounds [count]: 위치 추정 시 사용된 포인트 클라우드 수. SRT-PM은 그리드마다 활용되는 포인트 클라우드 수가 변동하므로, 변경될 때 활용된 포인트 클라우드의 평균값
  • • RMSE [m]: 정합된 위치와 RTK-GPS (Ground Truth) 간의 평균 오차

3.3 실험 결과 및 분석

[Table 1]은 Small Area와 Large Area 환경에서 각각 SRT-PM 방식과 전체 지도 방식을 적용한 위치 추정 결과를 비교한 것이다. 각 방식은 동일한 레퍼런스 지도를 기반으로 5회씩 주행하며 측정되었으며, Localization 시간, 포인트 수, RMSE를 기준으로 성능을 분석하였다.

Experimental Results

  • • Localization Time: SRT-PM 방식은 전체 지도 방식 대비 연산 시간이 Small Area에서 약 26.8%, Large Area에서 약 33.5% 감소하였다. 이는 부분지도 병합 범위를 제한함으로써 연산 복잡도가 효과적으로 줄어든 결과로 해석된다. 또한 SRT-PM의 경우 Area의 크기와 상관없이 R’에 의해 한정된 영역의 지도로 위치를 인식하기 때문에 시간의 차이가 크지 않다는 것을 확인했다.
  • • Number of Point Clounds: 레퍼런스 지도로 활용된 포인트 수는 SRT-PM 방식이 전체 지도 방식 대비 Small Area에서 약 82.7%, Large Area에서 약 98.8% 감소하였다. 이러한 감소는 메모리 절약뿐 아니라 실시간성 확보에도 중요한 기여를 한다.
  • • RMSE (정합 오차): 정합 정확도(RMSE) 측면에서도 SRT-PM이 전체 지도 방식보다 Small Area에서는 약 7.5%, Large Area에서는 약 24.7% 낮은 오차를 보였다. 이는 그리드 맵 중심의 지역 기반 병합 방식이 오히려 불필요한 전역 데이터의 간섭을 줄이고, 지역 밀도 편차를 완화하여 정합 정확도를 높였음을 의미한다.

이러한 결과는 제안한 SRT-PM 방식이 지도 크기와 연산량을 효과적으로 줄이면서도 정밀한 위치 추정 성능을 유지함을 입증하며, 특히 대규모 환경에서 더욱 우수한 성능을 보인다는 점에서 실외 자율주행 로봇에 적합한 경량형 위치 추정 방법임을 확인시켜 준다.


4. 결론 및 향후 연구

본 연구는 실시간성이 요구되는 로봇 환경을 위해, 기존 SRT 기반 지도 구조를 확장한 SRT-PM 알고리즘의 실효성을 검증하였다. 제안된 알고리즘은 전역 지도의 전체 정합이 아닌, 로봇 주변의 제한된 반경 내 그리드 맵만을 병합하여 부분 지도를 구성함으로써, 연산량 감소, 메모리 최적화, 실시간성 확보를 동시에 달성할 수 있도록 설계되었다. 특히 그리드 맵은 수집 단계에서 이미 다운샘플링 되어 저장되며, 이후 병합 시 별도의 후처리 없이 경량화된 데이터를 직접 활용함으로써 전체 시스템의 효율성을 높였다.

실외 환경에서 수행된 실험 결과, SRT-PM 방식은 전체 지도 방식 대비 평균 30% 이상의 연산 시간 절감과 최대 98.8%의 데이터 처리량 감소, 정합 오차(RMSE) 감소를 동시에 달성하였다. 이러한 결과는 본 알고리즘이 정밀도 손실 없이 실시간 처리가 가능한 경량형 로봇 시스템에 적합함을 입증하며, 대규모 환경에서도 안정적으로 적용 가능함을 시사한다.

향후에는 다양한 환경에서 본 알고리즘의 추가 검증, 위치 정합 기법과의 통합 실험을 통해 알고리즘의 일반성을 검증하고, 로봇의 주행 속도나 환경 복잡도에 따라 S, R, T 파라미터 및 반경 R’을 동적으로 조정할 수 있는 적응형 구조를 도입할 예정이다. 또한, 부분 지도를 단순 위치 추정뿐만 아니라 장애물 회피 및 경로 계획 등 자율주행의 다양한 기능과 연계하여 및 GPS 음영 지역 내에서 활용가능한 통합 내비게이션 시스템으로 확장할 계획이다.

Acknowledgments

This work was supported by Korea Institute of Planning and Evaluation for Technology in Food, Agriculture and Forestry (IPET) through High Value-added Food Technology Development Program, funded by Ministry of Agriculture, Food and Rural Affairs (MAFRA) (RS-2022-IP322054).

References

  • H. Gil, D. Lee, G. Song, S. Ahn, and A. Kim, “Tightly-coupled GNSS-LiDAR-inertial state estimator for mapping and autonomous driving,” The Journal of Korea Robotics Society, vol. 18, no. 1, pp. 72-81, Feb., 2023. [https://doi.org/10.7746/jkros.2023.18.1.072]
  • G. Kang, D. Lee, and H. Shim, “3D multi‑floor precision mapping and localization for indoor autonomous robots,” The Journal of Korea Robotics Society, vol. 17, no. 1, pp. 25-31, Feb., 2022. [https://doi.org/10.7746/jkros.2022.17.1.025]
  • J. Koo, K.-M. Yang, J. Kwak, and K.-H. Seo, “Development of automated driving system of manual driving based cleaning robot,” The Journal of Korea Robotics Society, vol. 19, no. 3, pp. 311-317, Aug., 2024. [https://doi.org/10.7746/jkros.2024.19.3.311]
  • W. Wen and L.-T. Hsu, “3D LiDAR aided GNSS NLOS mitigation in urban canyons,” IEEE Transactions on Intelligent Transportation Systems, vol. 23, no. 10, pp. 18224-18236, Oct., 2022. [https://doi.org/10.1109/TITS.2022.3167710]
  • C. Chen and X. Pan, “Deep learning for inertial positioning: a survey,” IEEE Transactions on Intelligent Transportation Systems, vol. 25, no. 9, pp. 10506-10523, Sept., 2024. [https://doi.org/10.1109/TITS.2024.3381161]
  • R. Kaneko, Y. Nakamura, R. Morita, and S. Ito, “Point cloud data map creation from factory design drawing for LiDAR localization of an autonomous mobile robot,” Artificial Life and Robotics, vol. 28, pp. 314-322, Dec., 2022. [https://doi.org/10.1007/s10015-022-00834-y]
  • L. Wang, X. Zhong, Z. Xu, K. Chai, A. Zhao, T. Zhao, C. Jiang, Q. Wang, and F. Gao, “LEMON-mapping: loop-enhanced large-scale multi-session point cloud merging and optimization for globally consistent mapping,” arXiv:2505.10018, 2025. [https://doi.org/10.48550/arXiv.2505.10018]
  • K. Koide, J. Miura, and E. Menegatti, “A portable three-dimensional LIDAR-based system for long-term and wide-area people behavior measurement,” International Journal of Advanced Robotic Systems, vol. 16, no. 2, pp. 1-16, Apr., 2019. [https://doi.org/10.1177/1729881419841532]
  • T. Kim, H. Jeon, and D. Lee, “A multi-layered 3D NDT scan-matching method for robust localization in logistics warehouse environments,” Sensors, vol. 23, no. 5, Feb., 2023. [https://doi.org/10.3390/s23052671]
  • H. Yan, “A survey of SLAM based on submap strategies,” 2024 International Conference on Artificial Intelligence and Communication (ICAIC 2024), Davos, Switzerland, 2024. [https://doi.org/10.2991/978-94-6463-512-6_15]
  • S. Li and T. Li, “Real-time submap trimming-based map updating for long-term localization of mobile robot in dynamic environments,” IEEE Transactions on Industrial Informatics, vol. 20, no. 10, pp. 12114-12124, Oct., 2024. [https://doi.org/10.1109/TII.2024.3413958]
  • K.-M. Yang, S. Kim, and K.-H. Seo, “Grid-Based 3D Point Cloud Mapping for Outdoor Robot Localization,” The Journal of Korea Robotics Society, vol. 21, no. 1, pp. 1-7, Mar., 2026. [https://doi.org/10.7746/jkros.2026.21.1.001]
김 세 헌

2024 광운대학교 로봇학부(공학사)

2024~현재 한국로봇융합연구원 지역연구본부 연구원

관심분야: 정보제어, 모바일로봇

양 견 모

2011 세종대학교 디지털콘텐츠학과(공학사)

2014 연세대학교 컴퓨터과학(공학석사)

2018~현재 한국로봇융합연구원 지역연구본부 선임연구원

관심분야: 인공지능, 지식추론, 상황인식

서 갑 호

1999 고려대학교 전기공학과(공학사)

2001 KAIST 전기및전자공학(공학석사)

2009 동대학(공학박사)

2009~현재 한국로봇융합연구원 지역연구본부 수석연구원

2021~현재 경북대학교 겸임교수

2024~현재 대동로보틱스 상무

관심분야: 시스템 제어, 농업로봇, 웨어러블로봇, 모바일로봇

[Fig. 1]

[Fig. 1]
Visualization of SRT-PM algorithm

[Fig. 2]

[Fig. 2]
Robot Localization System based on SRT-PM

[Fig. 3]

[Fig. 3]
Process of partial map construction

[Fig. 4]

[Fig. 4]
WeGo-Hunter 2.0 platform

[Fig. 5]

[Fig. 5]
Data collection in a small area (red line: RTK-GPS trajectory)

[Fig. 6]

[Fig. 6]
Data collection in a large area (red line: RTK-GPS trajectory)

[Table 1]

Experimental Results

Ref Map Area Size Localization Time [ms] Number of Point Clounds [count] RMSE [m]
SRT-PM Small 40.9264 61,191
(average)
0.0478
Large 44.3464 75,108
(average)
0.0540
Full Map Small 55.9373 353,277 0.0517
Large 66.6586 6,020,218 0.0717