Journal of Korea Robotics Society
[ ARTICLE ]
The Journal of Korea Robotics Society - Vol. 21, No. 1, pp.33-39
ISSN: 1975-6291 (Print) 2287-3961 (Online)
Print publication date 28 Feb 2026
Received 22 Sep 2025 Revised 03 Nov 2025 Accepted 13 Jan 2026
DOI: https://doi.org/10.7746/jkros.2026.21.1.033

과수원 변량방제를 위한 라이다 맵 기반 수목 객체 인식 및 작업계획 방법

김지호1 ; 김세헌2 ; 오장석3 ; 감병우4 ; 이준우5 ; 서갑호
LiDAR Map-Based Tree Object Recognition and Mission Planning for Variable-Rate Spraying in Orchards
Jiho Kim1 ; Seheon Kim2 ; Jangseok Oh3 ; Byoung-Woo Gam4 ; Joonwoo Lee5 ; Kap-Ho Seo
1Assistant Manager, Daedong Robotics (DDR), Seoul, Korea kimjiho@daedong.co.kr
2Researcher, Korea Institute of Robotics and Technology Convertgence (KIRO), Seoul, Korea seheon@kiro.re.kr
3Senior Researcher, KIRO, Seoul, Korea dueleldi@kiro.re.kr
4Executive Director, Daedong, Seoul, Korea bwgam@daedong.co.kr
5Associate Professor, Dept. of Electrical Engineering, Kyungpook National University, Daegu, Korea jwl@knu.ac.kr

Correspondence to: Chief Researcher, KIRO, Pohang, Korea ( neoworld@kiro.re.kr)

CopyrightⓒKROS

Abstract

This study proposes a LiDAR map-based method for variable-rate spraying in orchards. The approach combines SRT-based geofencing, 3D ground modeling, and object-level tree recognition to construct an updatable tree map. Ground points are effectively removed through percentile filtering and interpolation, leaving above-ground points for robust tree detection. Tree centers are extracted using multi-stage suppression, and spraying routes are generated by projecting canopy areas onto RDDF paths. Experiments with a mobile robot showed 98% precision in tree detection and reduced spraying path length compared to full-coverage methods, demonstrating improved efficiency and practicality for orchard spraying systems. These results highlight the potential of the proposed system to enhance operational efficiency and support intelligent orchard management.

Keywords:

Orchard Information Modeling, Ground Modeling, Tree Object Recognition, Tree Object Map, Variable-Rate Spraying

1. 서 론

과수원 방제작업은 병해충을 억제하고 수확량과 품질을 유지하기 위한 필수 과정이다. 전통적으로는 전면 살포 방식이 널리 사용되어 왔으나, 이는 불필요한 약제 사용으로 인한 환경 부담과 비용 증가, 작업 효율 저하라는 문제를 발생시킨다. 이러한 한계를 극복하기 위해 최근에는 수목의 위치와 수관 범위에 맞추어 약제 살포를 조절하는 변량방제(Variable-Rate Spraying) 기술이 주목받고 있다[1]. 변량방제는 수목의 분포와 크기에 따라 살포량과 분사 범위를 달리함으로써 약제 사용량을 절감하고 살포 효율을 높이는 데 효과적이다.

변량방제를 구현하기 위해서는 과수원의 수목 분포를 정확히 파악하고, 각 수목의 수관 범위를 추정할 수 있는 공간 정보가 필수적으로 요구된다. 기존 연구들은 이를 위해 주행 로봇에 장착된 센서를 활용하여 주행할 때마다 수목을 탐지하는 방식을 채택하였다[2,3]. 카메라 영상을 이용한 비전 기반 접근에서는 딥러닝 객체 탐지 네트워크를 통해 줄기나 수관을 인식하였으나 이러한 방식은 조명 변화, 그림자, 잎의 피복, 계절적 수관 밀도 차이 등에 의해 인식 정확도가 급격히 저하될 수 있다[4,5]. 라이다(LiDAR) 데이터를 이용한 방법에서는 원통 피팅이나 점밀도 분석, DBSCAN과 같은 클러스터링 기법을 통해 수목 줄기를 추출하거나 수관을 근사하였으나 이러한 방식은 조밀한 수관이나 울타리·지주대와 같은 인공 구조물이 혼재된 경우, 점군 데이터 간의 경계가 불분명해져 클러스터링 정확도가 떨어지는 한계가 존재한다[6]. 또한, 기존 연구는 대부분 수목을 줄기 단위로 인식하는 데 집중하여 줄기가 잎이나 가지에 가려지는 경우 인식 정확도가 급격히 떨어지며, 궤적 주변에서만 수집되는 불균일하게 분포된 포인트 클라우드에서는 원통형 특징을 충분히 확보하기 어려워 검출이 불안정해진다[5,6]. 무엇보다 줄기 위치만으로는 방제 작업에 직접 필요한 수관 범위 정보를 제공하지 못한다는 한계가 있다.

특히 기존 로봇이 주행하며 실시간으로 수목을 인식하는 방식은 단일 주행 시점의 데이터에 의존하여 매번 동일한 인식 과정을 반복해야 하므로 불필요하게 많은 연산이 요구된다[3,6]. 하지만 실제 과수원의 구조는 계절 단위로 점진적인 변화를 보일 뿐 단기간에 급격히 변하지 않기 때문에, 매 주행마다 전면 인식을 수행하는 것은 비효율적이다. 지면 표현 방식에서도 대부분이 Digital Elevation Model (DEM)이나 단순 평면 근사에 머물러 실제 과수원의 국지적인 오복, 볼록한 지형 및 경사 환경을 충분히 반영하지 못하며, 데이터가 조밀하고 균일하게 분포한다는 가정이 필요하여 실제 과수원 환경과의 차이로 수목을 정확히 구분하지 못하는 문제가 있다[7].

본 연구는 이러한 기존 방법의 구조적 한계를 근본적으로 극복하기 위해, 축적된 라이다 맵을 기반으로 수목 객체를 안정적으로 분류하고 주기적으로 갱신할 수 있는 지도 생성 및 업데이트 기법을 제안한다. 제안된 접근법은 주행 중 일시적인 센서 관측에 의존하지 않고, 과수원의 비정형 지형과 불균일한 데이터 분포를 반영함으로써 일관된 수목 인식과 효율적인 공간 정보 갱신을 가능하게 한다. 실제 과수원 환경에서 수집된 3차원 라이다 데이터를 이용하여 수목을 인식하고 수목 객체 지도를 생성함으로써 제안된 방법의 적용 가능성을 확인하였다. 또한, 추출된 수목 중심과 수관 반경 정보를 Route Define Data Format (RDDF) 기반 자율주행 경로에 통합하여, 변량 방제 계획의 효율성을 계산적으로 분석함여 정밀 방제 수행 가능성을 검증하였다. 본 논문의 기여도는 아래와 같다.

  • ⋅실제 과수원 환경에서 축적된 라이다 맵을 활용하여 비정형 지형과 불균일한 데이터 분포에서도 높은 정밀도의 수목 객체 인식과 안정적인 수목 객체 지도 생성
  • ⋅추출된 수목 중심과 수관 반경 정보를 자율주행 경로에 통합하여, 변량방제 최적화 시뮬레이션 수행

본 논문은 다음과 같이 구성된다. 제2장에서는 제안하는 전체 프레임워크의 주요 구성 요소와 처리 과정을 설명하고, 제3장에서는 실험 결과와 성능 평가를 정리한다. 마지막 제4장에서는 연구의 의의와 향후 연구 방향을 논의한다.


2. 수목 객체 인식 및 변량방제 계획 기법

제안하는 수목 객체 인식 및 변량 방제 계획 기법은 3차원 지도 생성 및 지오펜스 기반 관심영역 분리, 지도내 지면 모델링 및 수목 객체를 인식하여 생성하는 수목 객체 지도(Tree Object Map)생성 부분과 생성된 수목 객체 지도를 이용하여 RDDF기반 자율 주행 경로 상의 변량 방제 계획 부분으로 구성된다.

2.1 지오펜스를 통한 관심영역 분리

과수원 환경에서 수목 객체를 안정적으로 인식하기 위해서는 먼저 분석 대상이 되는 관심영역을 명확히 정의하는 것이 필요하다. 본 연구에서는 기존 개발한 공간 좌표 정렬 및 시간 보정으로 라이다 포인트를 정규화하여 고정밀 3D 맵을 생성하는 Spacing Radius Time (SRT) 알고리즘을 활용하여 3차원 라이다 맵을 확보하였다[8]. 이후, 생성된 맵에서 수목과 직접적으로 관련이 없는 외곽 지역에 대하여 [Fig. 1]과 같이 폴리곤 형태의 지오펜스(Geofence)를 설정하였다. 지오펜스는 과수원 내 실제 방제가 필요한 영역만을 남겨두고 외부 포인트를 제거함으로써, 데이터 처리 효율 및 후속 단계인 지면 모델링 및 수목 객체 분류의 정확도를 향상시킨다. 또한 지오펜스로 정의된 관심영역, Area of Interest (AoI)은 과수원 구조나 작업 경로 변경 시에도 유연하게 수정 가능하도록 시스템을 개발하였다.

[Fig. 1]

SRT-based LiDAR map and geofence for AoI definition

2.2 3차원 지면모델링

본 연구에서는 지면모델링을 위해 LiDAR 포인트클라우드를 기반으로 3차원 메쉬 형태의 지면 모델을 구축하여 지상 객체를 효과적으로 제거하여 지면과 지상 객체를 분리하였다.

먼저, 불균일하게 분포된 데이터를 효율적으로 처리하기 위해 격자 기반 공간 분할을 수행하였다. 격자 단위에서 지면 높이를 추정할 때는 최소값이나 평균값 기반 추정은 잡음과 수목 영향에 민감하기 때문에, 퍼센타일(percentile) 기반 추정을 도입하였다. 이후 일부 셀에서 발생하는 데이터 누락 문제는 k-최근접이웃(k-nearest neighbors, k-NN) 알고리즘 기반의 역거리 가중 보간을 통해 보완하였다. 다음으로, 국소 노이즈와 급격한 높이 변화를 제거하고 매끄러운 표면을 생성하기 위해 가우시안(Gaussian) 필터와 미디안(Median) 필터를 결합한 다단계 평활화 과정을 적용하였다. 이 과정을 통해 희소하고 불균일한 데이터에서도 안정적이고 연속적인 지면 모델을 생성하였다. 마지막으로 지면 위 일정 높이 이상의 포인트만을 분리하여 수목 객체 인식 단계로 전달하였다.

[Fig. 2]은 제안한 지면 모델링 결과이다. 원본 포인트클라우드 지도 ([Fig. 2(a)])와 지면 모델링 지도([Fig. 2(b)])의 결과를 보면 효과적으로 지면 표면을 추출하였음을 확인할 수 있다. [Fig. 2(c)]와 [Fig. 2(d)]는 지면 모델링을 x=20과 y=40 위치에서 자른 단면으로, 지면 피복물 및 지형 기복에 의한 포인트 클라우드 노이즈를 제거하기 위해 하위 10%의 평균값으로 지면을 추정한 결과를 파란색 선으로 표시하였다. [Fig. 3(a)]는 원본 포인트 클라우드 중 지면 모델링 지도에서 30 cm 위의 데이터만 남겨 수목을 추출한 결과이며, [Fig. 3(b)]와 [Fig. 3(c)]의 x, y단면과 같이 수목 형태를 남기고 정제되어 수목 객체 인식 단계의 전처리를 수행한다.

[Fig. 2]

Result of proposed 3D ground modeling method

[Fig. 3]

Above-ground PCD map after ground model removal

2.3 수목 객체 인식

본 연구에서는 수목 객체를 인식하기 위하여 통계적 이상치 제거 및 반경 기반 이상치 제거를 수행하고 밀도 기반 군집화를 통해 수목 객체 인식 정확도를 높였다.

잎과 미세 가지로 인해 복잡하게 분포된 포인트 클라우드 데이터를 전처리하기 위해 통계적 이상치 제거(Statistical Outlier Removal, SOR) 기법을 적용하여 주변 이웃점과 평균 거리에서 크게 벗어나는 점을 제거하였다. 이어서 반경 기반 이상치 제거(Radius Outlier Removal, ROR)를 수행하여, 특정 반경 내 이웃점 수가 일정수 미만인 포인트를 고립된 점으로 판단하고 삭제하였다. 마지막으로 밀도 기반 군집화를 이용하여 소규모 군집을 노이즈로 간주하고 제거하였다. 이러한 다단계 전처리를 통해 주변 잎이나 가지에 의한 저밀도 영역은 배제되고, 줄기와 같이 높은 밀도를 갖는 영역만 보존할 수 있었다([Fig. 4]).

[Fig. 4]

Preprocessing results of point cloud data: (a) original point cloud, (b) extracted trunk points, and (c) extracted trunks overlaid on the original data

전처리가 끝난 후 수목 객체를 인식하기 위해 2차원 연결성과 수직성(2D Connectivity & Verticality) 검사, 비최대 억제(Non-Maximum Suppression, NMS), 과수원의 행 및 열 구조를 반영한 억제(Row/Column-aware Suppression) 과정의 3개 단계를 수행한다. 먼저 2차원 연결성과 수직성 검증 과정에서는 지면으로부터 일정 높이 범위 내의 포인트만 선택하여 시드(seed) 후보로 지정한 뒤, XY 평면에 사영하여 고정 크기의 격자(voxel) 기반으로 양자화하고, BFS 기반 2D 연결 성분 분석을 수행하여 클러스터를 형성한다. 각 클러스터에 대해서는 수직성(verticality) 검사를 통해 z축과 충분히 정렬되지 않거나, z축 내의 표준편차가 과도하게 큰 경우를 제거함으로써, 곧게 선 줄기 형태만을 유지한다.

이후, 동일 줄기에서 중복 검출된 시드를 제거하기 위해 비최대 억제(Non-Maximum Suppression, NMS) 를 적용였으며, 각 시드 후보 𝑠에 대해 다음의 점수 (score) 함수를 사용하여 대표성을 평가하였다.

scores=Npoints s-0.5×tights(1) 

여기서, Npoints(𝑠)는 해당 시드에 포함된 포인트 수를, tight(𝑠)는 포인트들이 중심으로부터 얼마나 퍼져 있는지를 나타낸다. 점수순으로 시드를 정렬한 뒤, 서로 인접한 후보 중 점수가 낮은 시드를 제거함으로써, 더 대표성 있고 밀집된 시드만 남도록 하였다. 일반적으로 포인트 수가 많고 중심에서 밀집도가 높은 시드일수록 score 값이 크게 되므로, 수목을 구분하는 것에 더욱 효과적이다.

마지막으로, 과수원의 행 및 열 구조를 반영한 억제 과정(Row/Column-aware Suppression)을 수행하였다. 전체 포인트 분포의 주축을 PCA로 분석하여 행 방향 단위벡터 e1을 정의하고, 이에 직교하는 열 방향 단위벡터 e2를 계산하였다. 각 시드 간의 상대적 위치를 이 두 축을 기준으로 비교하여, 동일한 행 또는 열 내에서 일정 거리 이하로 가까운 후보는 중복으로 간주하고 제거하였다. 이를 통해, 하나의 수목에 대해 하나의 중심 좌표만 선택된다.

[Fig. 5]은 전처리부터 중심 좌표 도출까지의 전체 필터링 과정을 시각적으로 보여주며, [Table 1]은 각 단계에서 줄기 시드 후보 개수가 어떻게 정제되어 가는지를 단계별로 나타낸 것이다. 그 결과 511그루의 사과 수목이 심겨 있는 실제 과수원 환경에서 505그루를 검출하여 제안한 방법의 정확도와 강건성을 실험적으로 입증하였다.

[Fig. 5]

Tree Center Extraction Process: (a) preprocessed point cloud, (b) extracted tree centers, and (c-e) results of each filtering stage (previous stage shown in gray)

Stage-wise reduction in tree trunk seeds

2.4 변량방제 작업계획

본 연구에서는 개발된 수목 객체 지도를 기반으로, RDDF (Route Define Data Format)를 활용하여 자율주행 방제 로봇의 변량방제 경로를 생성하고 작업 계획을 수립하였다[9,10]. 계산적으로 검증하기 위해, 수목의 중심 좌표 𝐶와 수관 반경 𝑟을 기준으로 방제 대상 영역을 원형으로 설정한 뒤, 해당 원의 중심으로부터 RDDF 상의 경로에 수선의 발을 내려 방제 지점을 도출한다. 이 과정은 [Fig. 6]에 나타나 있으며, 수목의 위치와 수관 반경의 정확한 측정은 변량방제의 정밀도에 직접적인 영향을 미친다. 앞서 제안한 인식 및 지도화 알고리즘을 통해 전역적으로 목표 수목의 위치를 인식하고, 정밀 방제를 가능하게 하여 방제 효율을 향상시킬 수 있다.

[Fig. 6]

Method for determining the Spraying Route


3. 실험 및 결과 분석

3.1 실험 환경 구성

실험에서 사용한 플랫폼은 WeGo-Hunter 2.0 로봇 플랫폼으로 [Fig. 7(a)]과 같으며, 수집한 과수원 환경은 [Fig. 7(b)]와 같다. 해당 플랫폼에는 3D LiDAR (Velodyne VLP-16) 및 RTK-GPS (CRABLE Otoa) 모듈이 장착되어 있다. 소프트웨어 시스템은 ROS 기반으로, LiDAR 포인트 클라우드와 GPS 데이터를 실시간으로 수집 및 처리한다. LiDAR의 최대 측정 거리는 100 m이고, 정밀도는 ±3 cm이다. 로봇의 길이와 너비는 각각 0.98 m, 0.745 m이고, 안전을 위해 로봇의 최대 속도는 1 m/s로 제한했다.

[Fig. 7]

WeGo-Hunter 2.0 autonomous moblie robot Platform and orchard experimental environment

3.2 수목 객체 지도 생성 실험 결과 분석

본 연구에서 제안한 방법을 활용하여 과수원의 각 행별 수목 추출 결과를 [Table 2]에 제시하였다. 수간이 매우 얇고 높이가 낮은 어린 수목(Juvenile Trees)는 탐지 대상으로 설정하지 않았으며, 성목(Mature Trees)을 기준으로 탐지 성능을 평가하였다. 그 결과 총 511그루 중 수목 505그루를 검출하였으며, 성목 495그루를 올바르게 검출하여 실제 과수원 환경에서 수목의 중심을 안정적으로 검출할 수 있음을 확인하였다. 반면, 오탐지는 총 10건이 발생하였으며, 이는 수목 지지대나 배수관 파이프와 같은 수직 구조물이 잘못 인식된 경우였다. 본 실험에서는 TP (True Positive) = 495, FP (False Positive) = 10으로, 약 98%의 정밀도(Precision, 식 (2))를 달성하여 수목 중심 좌표 추출의 신뢰도가 높음을 확인하였다. 평가 결과는 [Fig. 8]에 시각화하였다.

Precision=TPTP+FP(2) 

Tree detection performance

[Fig. 8]

Visualization of Tree Detection Performance Evaluation

3.3 수목 객체 지도기반 변량 방제 계획 분석

본 연구에서는 회전 구간을 제외한 직선 경로에서 제안한 변량방제 계획이 방제 구간을 단축하는 효과를 분석하였다. 방제 구간 단축은 농약 사용량을 절감하거나, 동일 사용량을 기준으로 방제 효율을 높이는 것을 의미한다. 정량적 비교를 위해 실험에서는 수관 반경을 일정한 크기로 설정하였으나, 실제 운용 환경에서는 LiDAR 데이터를 활용하여 각 나무의 수관 반경을 개별적으로 측정하는 것이 가능하다. 또한 변량방제는 좌우 2분할 노즐 제어가 가능한 팬(fan) 타입 스피드 스프레이어(Speed Sprayer)를 활용한다고 가정하였다.

경로 최적화 효과를 명확히 비교하기 위해, 전체 과수원 중 대표 구간을 선정하여 분석을 수행하였다([Fig. 9]). 전구간 방제(Entire Route Spraying)는 나무가 존재하지 않는 영역까지 약제를 살포하는 반면, 직선구간 방제(Straight Route Spraying)는 회전 구간을 제외한 직선 통로에서만 방제를 수행한다. 그러나 직선구간에서도 수목이 존재하지 않는 구간에서는 일시적으로 방제를 중단할 필요가 있다. 본 논문에서는 [Fig. 10] 및 [Fig. 11]와 같이 수관 반경을 각각 1.0 m와 0.5 m로 설정하여 실제 방제가 필요한 구간만을 추출하였으며, Pest Control Route를 통해 기존 대비 최적화된 방제 경로를 제시한다.

[Fig. 9]

Selected orchard section for comparison

[Fig. 10]

Pest Control Route with the Variable-Rate Method (Tree Radius = 1.0 m)

[Fig. 11]

Pest Control Route with the Variable-Rate Method (Tree Radius = 0.5 m)

[Table 3]은 방제 구간의 거리에 대한 실험 결과를 정리한 것이다. 직선구간 방제 방식의 경우, 방제 구간의 길이는 전체 경로의 90.7% 수준이며, 수관 반경을 1.0 m로 설정한 변량방제 계획에서는 86.8%로, 직선구간 방제보다 3.9% 더 짧았다. 수관 반경을 0.5 m로 설정한 경우에는 전체 경로의 47.1%까지 단축되어, 직선구간 방제보다 43.6% 더 짧은 구간을 보였다.

Calculation of Route Distance under Different Conditions


4. 결론 및 향후 연구

본 연구에서는 과수원 환경에서 변량방제를 실현하기 위한 목적으로, 라이다 기반의 수목 객체 지도 인식을 통한 지도 생성 및 방제 작업계획 기법을 제안하였다. 제안된 방법은 SRT 3차원 지도 기반의 지오펜스를 통해 관심 영역을 명확히 정의하고, 퍼센타일 기반 필터링과 보간을 이용한 3차원 지면 모델링을 수행하여 지면과 지상 객체를 안정적으로 분리하였다. 이후 다단계 필터링 기법을 통해 줄기 중심 좌표를 검출하고, 이를 기반으로 수관 반경을 반영한 객체 단위의 수목 지도를 구성하였다.

방제 작업은 RDDF 경로 기반의 자율주행 로봇을 이용하여 계획되었으며, 실험 결과 전체 511그루 중 성목 495그루를 정확히 검출하고, 약 98%의 정밀도를 달성하였다. 또한 수관 반경 설정값에 따라 방제 구간이 실질적으로 단축됨을 확인하였으며, 특히 반경 0.5 m 설정 시 전체 경로 대비 약 47.1% 수준까지 줄어들어, 경로 최적화와 약제 사용량 절감에 실질적으로 기여할 수 있음을 보여준다.

본 연구는 기존의 줄기 중심 단발성 인식 방식의 한계를 극복하고, 객체 단위 수목 인식과 지도 갱신, 지형 대응력, 시스템 효율성 측면에서 실용적 우수성을 보였으며, 향후 다양한 작목과 환경에 적용 가능한 범용 변량방제 기술의 기반을 제공할 수 있을 것으로 기대된다. 향후에는 실제 자율 방제 차량에 적용하여, 실시간 수목 인식 알고리즘과 제안하는 알고리즘의 방제 효율성을 비교해 볼 예정이다.

Acknowledgments

This work was supported by Korea Institute of Planning and Evaluation for Technology in Food, Agriculture and Forestry (IPET) through Smart Farm Innovation Technology Development Program, funded by Ministry of Agriculture, Food and Rural Affairs (MAFRA) (02219411).

References

  • Z. Wei, X. Xue, R. Salcedo, Z. Zhang, E. Gil, Y. Sun, Q. Li, J. Shen, Q. He, Q. Dou, and Y. Zhang, “Key Technologies for an Orchard Variable-Rate Sprayer: Current Status and Future Prospects,” Agronomy, vol. 13, no. 1, p. 59, Dec., 2022. [https://doi.org/10.3390/agronomy13010059]
  • H. G. Hong, S. Y. Woo, S. H. Song, J. S. Oh, H. Yun, K. H. Seo, S. W. Kwon, K. Y. Lee, J. C. Lee, and H. K. Cho, “Intelligent Sprayer System Using Tree Recognition,” The Journal of Korea Robotics Society, vol. 15, no. 2, pp. 115-123, May, 2020. [https://doi.org/10.7746/jkros.2020.15.2.115]
  • B. Gu, Q. Liu, Y. Gao, G. Tian, B. Zhang, H. Wang, and H. Li, “Research on the Relative Position Detection Method between Orchard Robots and Fruit Tree Rows,” Sensors, vol. 23, no. 21, p. 8807, Oct., 2023. [https://doi.org/10.3390/s23218807]
  • X. Xue, Q. Luo, M. Bu, Z. Li, S. Lyu, and S. Song, “Citrus Tree Canopy Segmentation of Orchard Spraying Robot Based on RGB-D Image and the Improved DeepLabv3+,” Agronomy, vol. 13, no. 8, p. 2059, Aug., 2023. [https://doi.org/10.3390/agronomy13082059]
  • A. Jiang, R. Noguchi, and T. Ahamed, “Tree Trunk Recognition in Orchard Autonomous Operations under Different Light Conditions Using a Thermal Camera and Faster R-CNN,” Sensors, vol. 22, no. 5, p. 2065, Mar., 2022. [https://doi.org/10.3390/s22052065]
  • A. Jiang and T. Ahamed, “Navigation of an Autonomous Spraying Robot for Orchard Operations Using LiDAR for Tree Trunk Detection,” Sensors, vol. 23, no. 10, p. 4808, May, 2023. [https://doi.org/10.3390/s23104808]
  • T. Wang, Y. Fu, Z. Zhang, X. Cheng, L. Li, Z. He, H. Wang, and K. Gong, “Research on Ground Point Cloud Segmentation Algorithm Based on Local Density Plane Fitting in Road Scene,” Sensors, vol. 25, no. 15, p. 4781, Aug., 2025. [https://doi.org/10.3390/s25154781]
  • S. Kim, K.-M. Yang, and K.-H. Seo, “Real-Time Grid-Based 3D Point Cloud Merging for Outdoor Robot Localization,” The Journal of Korea Robotics Society, vol. 21, no. 1, pp. 8-13, Mar., 2026. [https://doi.org/10.7746/jkros.2026.21.1.008]
  • H. Yoon, J. Kwak, K.-M. Yang, B.-W. Gam, T.-G. Yeo, J. Park, and K.-H. Seo, “GPS Error Filtering using Continuity of Path for Autonomous Mobile Robot in Orchard Environment,” The Journal of Korea Robotics Society, vol. 19, no. 1, pp. 23-30, Feb., 2024. [https://doi.org/10.7746/jkros.2024.19.1.023]
  • H. Shin, J. Kwak, H. Yoon, J. Koo, K. Lee, and K.-H. Seo, “Lateral Control Method of RDDF-based Cleaning Robot,” Journal of Institute of Control, Robotics and Systems, vol. 30, no. 3, pp. 191-196, Mar., 2024. [https://doi.org/10.5302/J.ICROS.2024.23.0197]
김 지 호

2021 경북대학교 심리학과(문학사) 심리정보융합(공학사)

2021~2023 POSTECH 인공지능연구원 연구부 연구원

2023~2025 (주)AIMMO 자율주행그룹 AI팀 연구원

2025~현재 (주)대동로보틱스 대리

관심분야: 인공지능, 컴퓨터비전, 로봇지능

김 세 헌

2024 광운대학교 로봇학부(공학사)

2024~현재 한국로봇융합연구원 지역연구본부 연구원

관심분야: 정보제어, 모바일로봇

오 장 석

2004 고려대학교 전자및정보공학과(공학사)

2006 동대학(공학석사)

2016 동대학(공학박사)

2018~현재 한국로봇융합연구원 지역연구본부 선임연구원

관심분야: 3차원복원, 영상처리, 모바일로봇

감 병 우

1996 울산대학교 전기공학과(공학사)

2019 울산 대학교 전기전자정보시스템공학과(공학석사)

1996~2001 대우자동차

2001~2024 (주)대동 전무

2024~2025 (주)대동로보틱스 전무

2026~현재 (주)대동 전무

관심분야: 시스템 제어, 임베디드 시스템

이 준 우

2007 부산대학교 전자전기공학과(공학사)

2009 KAIST 로봇공학(공학석사)

2014 동 대학 전기공학(공학박사)

2015~현재 경북대학교 전기공학과 부교수

관심분야: 군집 로보틱스, 진화연산, 메타휴리스틱스

서 갑 호

1999 고려대학교 전기공학과(공학사)

2001 KAIST 전기및전자공학(공학석사)

2009 동대학(공학박사)

2009~현재 한국로봇융합연구원 지역연구본부 수석연구원

2021~현재 경북대학교 로봇 및 스마트시스템 공학과 겸임교수

2024~현재 (주)대동로보틱스 상무

관심분야: 시스템 제어, 농업로봇, 웨어러블로봇, 모바일로봇

[Fig. 1]

[Fig. 1]
SRT-based LiDAR map and geofence for AoI definition

[Fig. 2]

[Fig. 2]
Result of proposed 3D ground modeling method

[Fig. 3]

[Fig. 3]
Above-ground PCD map after ground model removal

[Fig. 4]

[Fig. 4]
Preprocessing results of point cloud data: (a) original point cloud, (b) extracted trunk points, and (c) extracted trunks overlaid on the original data

[Fig. 5]

[Fig. 5]
Tree Center Extraction Process: (a) preprocessed point cloud, (b) extracted tree centers, and (c-e) results of each filtering stage (previous stage shown in gray)

[Fig. 6]

[Fig. 6]
Method for determining the Spraying Route

[Fig. 7]

[Fig. 7]
WeGo-Hunter 2.0 autonomous moblie robot Platform and orchard experimental environment

[Fig. 8]

[Fig. 8]
Visualization of Tree Detection Performance Evaluation

[Fig. 9]

[Fig. 9]
Selected orchard section for comparison

[Fig. 10]

[Fig. 10]
Pest Control Route with the Variable-Rate Method (Tree Radius = 1.0 m)

[Fig. 11]

[Fig. 11]
Pest Control Route with the Variable-Rate Method (Tree Radius = 0.5 m)

[Table 1]

Stage-wise reduction in tree trunk seeds

No Stage #Seeds (before) #Seeds (after)
1 2D Connectivity & Verticality - 697
2 NMS 697 531
3 Row/Column-aware Suppression 531 505

[Table 2]

Tree detection performance

Total Trees Juvenile Trees Mature Trees
(TP)
Total Detected False Positives
(FP)
Total 511 16 495 505 10

[Table 3]

Calculation of Route Distance under Different Conditions

Spraying Condition Tree Radius Spraying Side Average (m)
Right (m) Left (m)
Entire Route - 379.3 379.3 379.3 (100.0)
Straight Route - 344.0 344.0 344.0 (90.7)
Variable-Rate 1.0 m 322.2 336.3 329.3 (86.8)
0.5 m 173.8 183.4 178.6 (47.1)