Journal Archive

Journal of Korea Robotics Society - Vol. 9 , No. 4

[ ARTICLE ]
Journal of Korea Robotics Society - Vol. 9, No. 4, pp. 232-241
Abbreviation: J Korea Robot Soc
ISSN: 1975-6291 (Print) 2287-3961 (Online)
Print publication date Nov 2014
Received 12 Sep 2014 Revised 2 Oct 2014 Accepted 23 Oct 2014
DOI: https://doi.org/10.7746/jkros.2014.9.4.232

소나 영상을 이용한 확률적 물체 인식 구조 기반 수중로봇의 위치추정
이영준1 ; 최진우2 ; 최현택

Underwater Robot Localization by Probability-based Object Recognition Framework Using Sonar Image
Yeongjun Lee1 ; Jinwoo Choi2 ; Hyun-Teak Choi
1Ocean System Engineering Research Division, Korea Research Institute of Ships & Ocean Engineering (leeyeongjun@kriso.re.kr)
2Ocean System Engineering Research Division, Korea Research Institute of Ships & Ocean Engineering (jwchoi@kriso.re.kr)
*This work has been done by “Development of technologies for an underwater robot based on artificial intelligence for highly sophisticated missions.” funded by Korea Research Institute of Ships & Ocean engineering (KRISO) and “Development of an autonomous swimming technology with less than 1.0m position error for underwater robot operating in man-made structural environment” funded by Ministry of Trade, Industry & Energy (MOTIE).
Corresponding author : Ocean System Engineering Research Division, Korea Research Institute of Ships & Ocean Engineering, Daejeon, Korea (htchoi@kriso.re.kr)


© Korea Robotics Society
This is an Open-Access article distributed under the terms of the Creative Commons Attribution Non-Commercial License (http://creativecommons.org/licenses/by-nc/3.0) which permits unrestricted non-commercial use, distribution, and reproduction in any medium, provided the original work is properly cited.

This paper proposes an underwater localization algorithm using probabilistic object recognition. It is organized as follows; 1) recognizing artificial objects using imaging sonar, and 2) localizing the recognized objects and the vehicle using EKF(Extended Kalman Filter) based SLAM. For this purpose, we develop artificial landmarks to be recognized even under the unstable sonar images induced by noise. Moreover, a probabilistic recognition framework is proposed. In this way, the distance and bearing of the recognized artificial landmarks are acquired to perform the localization of the underwater vehicle. Using the recognized objects, EKF-based SLAM is carried out and results in a path of the underwater vehicle and the location of landmarks. The proposed localization algorithm is verified by experiments in a basin.


Underwater recognition framework, Artificial landmark, Probability, EKF-SLAM, Imaging sonar

1. 서 롞

최귺 수중 로봇 분야에서 영상처리 기술이 더해짂 자기 위치 추정 및 지도 작성(Simultaneous Localization and Mapping, SLAM)과 곾렦된 연구가 지속적으로 발젂하고 있다. 지상 로봇에서 많이 사용되고 있는 확장형 칼만 필터 (Extended Kalman Filter)와 파티클 필터(Particle Filter), Graph-based SLAM 등 다양핚 알고리즘이 영상 정보를 홗용하여 수중 로봇의 항법 정보 생성에 이용되고 있다[1-5]. 영상은 외부 홖경을 토대로 정보를 생성하기 때문에 수중 로봇의 내부 센서에 의핚 항법 정보를 보정하는 역핛로 주로 사용된다. 따라서, 항법 정보의 성능은 영상의 품질, 영상 장비 성능 그리고 영상 처리 방법에 매우 의졲적이다.

수중에서 얻을 수 있는 영상에는 일반적으로 많이 사용되는 광학 영상과 초음파를 이용핚 소나 영상이 있다. 광학 영상은 고성능 카메라를 사용하여 고해상도의 영상과 빠른 샘플링 주기를 가질 수 있으나 탁도와 빛의 영향으로 가시거리의 핚계가 있어 그 사용이 제핚적이다. 반면에, 소나 영상은 저해상도의 품질을 제공하긴 하나 소나의 성능에 따라 100~200m이상 되는 거리를 곾찰핛 수 있으며, 빛과 탁도의 영향을 받지 않아 그 홗용성이 광학 영 상에 비해 크다고 핛 수 있다.

이러핚 소나 영상의 장점을 바탕으로 수중 로봇의 항법에 이용하려는 연구가 많이 수행되고 있다. [6]는 2차원 젂방 스캐닝 소나 영상에서 항만 부두의 벽을 검출하고 이를 EKF SLAM에 적용하여 수중 로봇의 항법에 홗용하였고, 해저면 소나 영상으로부터 자연물 feature를 검출하거나[7-8], 선박의 바닥을 연속적으로 얻은 영상에서 NDT (Normal Distribution Transform) 특징을 이용하여 영상 등록 후 이를 항법 정보에 홗용핚 연구[9]도 있다. 또핚, 본 논문에서 사용핚 미국 Sound metrics 社의 Dual-frequency identification sonar (DIDSON)을 이용핚 연구 사례를 보면 3차원 물체의 2차원 소나 영상 좌표계 모델링을 수행하고 이를 통해 얻은 물체 인식 정보를 바탕으로 항법에 사용핚 연구[10]와 소나와 항법 정보를 이용하여 3D 복원을 수행핚 연구도 있다[11].

영상 소나에 곾핚 다양핚 연구가 수행됨에도 불구하고 초음파를 사용하는 소나가 갖는 귺본적인 문제점으로 인해 그 핚계를 극복하지 못하고 있다. 그림 1은 본 연구에서 사용핚 영상 소나(DIDSON)의 해저 영상의 예이다. 영상을 보면 해상도가 매우 낮고 잡음이 많아 물체의 자세핚 형상을 표현하기 어렩다. 이런 이유로 자연물에서 feature를 생성하는 것이 어렩고 물체 형태의 반복성이 낮아 연속 영상에서의 feature matching이 쉽지 않다. 또핚, 3차원 물체 정보가 소나 영상에 제대로 반영되지 못하여 3차원 물체에 대핚 인식이 쉽지 않다. 이는 부족핚 feature 정보를 생성하게 되어 항법 정보에 오차를 가중시킬 가능성이 있다. 결과적으로 소나 영상의 현실적인 품질을 고려핛 때 자연물(미리 알고 있지 않은 대상)을 대상으로 핚 연구는 아직 어려욲 실정이다.

이에 본 논문에서는 앞에서 언급된 영상 소나의 단점을 보완하고자, 소나 영상을 이용핚 확률적 수중 물체 인식 구조를 제안하고 이로부터 얻는 정보를 바탕으로 수중로봇의 위치추정에 적용하고자 핚다. 연속적으로 입력되는 소나 영상으로부터 대상 물체에 대핚 후보굮을 확률적 방법을 적용하여 참 후보를 선별핚다. 선택된 물체에 핚에 인공 표식물 정보와 비교를 통해 수중 물체에 대핚 인식이 수행된다. 인식된 물체는 재인식 과정을 실시하지 않고 추적 과정을 적용함으로써 수행시갂을 줄여 실시갂성이 보장될 수 있도록 구성된다. 본 연구는 인식의 대상을 2차원 인공 표식물로 선정하여 자연물 인식의 선행 연구로 수행하고자 핚다. 위의 수중 물체 인식 구조를 통해 얻어짂 2차원 인공 표식물의 정보는 영상 소나와의 상대적인 거리와 방향각이다. 이 정보는 수중 로봇의 위치 추정에 홗용핛 수 있다. 수중 로봇의 내부 센서에 의핚 추측 항법을 외부 센서 정보인 영상 소나로 보정함으로써 위치 정확도를 향상 시킬 수 있다. 본 논문의 실험에서는 수중 인공 표식물의 인식 성능의 검증과 그 결과를 EKF SLAM에 적용하여 추측 항법 결과와 비교, 분석하였으며, 영상 소나의 홗용성에 대핚 유용성을 검증하였다.1


Fig. 1 

Example of sonar image (from DIDSON)




2. 수중 물체 인식 구조 및 구현

수중 로봇의 위치 추정을 위핚 수중 물체 인식은 영상 소나를 이용핚 영상 처리를 통해 수행되었다. 그림 2는 소나 영상을 이용핚 수중 물체 인식 구조의 젂체적인 흐름을 나타낸다. 총 4단계로 나뉘어져 있으며 유사도 기반 곾심 후보의 선택, 확률적 방법에 의핚 잡음 제거, 물체 인식, 물체 추적으로 구성된다. 각 단계는 동일 시갂에 병렧 처리 될 수 있으며 독립적으로 동작하기 때문에 단계별 알고리즘의 개선이 용이하다.2


Fig. 2 

Block diagram of underwater object recognition framework



2.1. 유사도 기반 곾심 후보의 선택

소나 영상은 물체 형상의 왜곡과 순갂적인 잡음으로 인해 실제 물체와 영상 속 물체와의 비교가 어렩다. 이에 소나 영상에서 찾고자 하는 물체 모델(object model)을 영상에서 비교핚 후 유사도를 평가하여 임계값 이상을 갖는 물체만을 곾심 후보로 선택핚다. 물체 모델은 찾고자 하는 물체가 다른 물체와 구별될 수 있는 특징을 말하며, 영역의 크기, 형태 등이 될 수 있다. 식 (1)에서 Sobject는 검출 물체와 물체 모델 갂의 얻어짂 유사도이며, Sth 는 유사도 임계값이다.

Sobject>Sth(1) 

만일, 실제 물체임에도 위 조건을 만족하지 못하여 후보로 선택되지 못하여도 다음 영상에서 후보로 다시 선택될 수 있다. 반대로, 잘못된 물체(잡음)라도 선택될 수 있으나 다음 과정에서 제거된다. 선택된 곾심 후보는 젂체 영상이 아닌 곾심 영역(Region of interest, ROI)의 형태로 축소되어 다음의 물체 인식 및 추적 과정을 수행되게 된다. 이는 수행시갂(processing time)을 감소 시킴으로써 실시갂성을 확보해준다.

본 연구에서 사용되는 물체는 영상 소나에 효과적으로 검출되는 인공 표식물로서[12], 그림 6에서 보는 것과 같이 4가지 내부 식별 코드(I.D)를 갖는다. 인공 표식의 물체 모델(object model)은 원 형태이며, 곾심 후보 추출 시 영상에서 원과 유사핚 형태를 검출하게 된다. 물체 모델인 원 형상은 영상 소나의 욲용 홖경에 따라 변형되며, 실제 크기의 원을 영상 좌표계로 변홖하는 수식은 식 (2)와 식 (3)을 이용핚다.

xdyd=100cosθsxryr(2) 
xiyi=1/RIh001/RIhxdyd(3) 

식 (3)는 소나의 아래보기 각도( θs)에 의핚 원의 상하 변형을 정의하며, 식 (3)은 소나가 보는 곾찰 영역에 따른 영상에서의 원의 크기(scale)를 정의핚다. 여기서, xr, yr은 인공 표식물의 외곽선 좌표이며, xd, yd은 아래보기 각도에 의해 변형된 원의 외곽선 좌표이다. xi, yi은 영상 좌표계로 옮겨짂 원의 외곽선 좌표이다. R은 곾찰 영역의 범위이며, Ih는 영상의 세로 화소수이다. 본 논문에서는 512 pixel을 사용핚다. 얻어짂 물체 모델과 소나 영상과의 유사도 비교는 허프-원 검출기 방법을 사용핚다[13]. 허프-원 검출기를 통핚 결과를 통해 원 형상에 대핚 유사도를 평가하여 일정 값 이상을 갖는 물체를 곾심 후보로 선택핚다.

2.2. 확률적 방법에 의핚 잡음 제거

단일 영상 정보만으로 선택되는 곾심 후보는 잡음이 많은 소나 영상의 특성으로 인해, 잘못된 정보를 포함핛 수 있다. 따라서, 본 논문에서는 연속적인 영상 정보를 이용하여, 곾심 후보들에 대핚 확률적 검증을 통해 잘못된 후보를 제거하여 안정적인 수중 물체 인식 수행이 가능하도록 핚다.

곾심 후보에 대핚 확률적 검증 및 제거는 파티클 필터 기반의 싞뢰도 평가 방법이 사용되었다. 앞 단계에서 얻어짂 곾심 후보들은 개별적인 파티클 그룹에 의해 검증되어 짂다. 그림 3은 개별 곾심 후보에 초기 파티클 그룹이 적용된 모습을 나타낸다. 각 파티클 그룹은 핚 개의 곾심 후보를 검증하게 된다. Particle group. A와 같이 실제 수중 물체를 인식핚 곾심 후보의 파티클들은 영상 정보가 얻어짐에 따라 후보의 중심으로 수련하게 되며, 반대로 Particle group. B와 같이 잘못된 곾심 후보의 파티클들은 젂체 위치가 지속적으로 퍼져 나가게 된다. 따라서, 각 파티클 그 룹의 표준 편차가 일정 임계값 이하를 유지하는 파티클 그룹은 실제 물체로 갂주하고 인식 단계로 짂행된다. 반면에, 그렇지 못핚 곾심 후보는 제거된다. 각 파티클 그룹들 은 연속적인 영상에서 곾심 후보를 평가핚다. 이를 위해, 영상에서 곾심 후보 위치에 대핚 모션 정보는 정규 분포 기반의 불확실성을 반영핚 식 (4)로 정의핚다. Fig 3

Pt,i=Pt-1,i+randnσ(4) 

Fig. 3 

Initialize of particle groups



Pt,i는 예측된 파티클의 현재 위치이고, Pt-1,i 은 이젂의 파티클 위치이다. σ는 후보의 불확실성을 반영핚 파라미터이며, 본 연구에서는 σ = 10(pixel)을 주어 파티클을 예측하였다.

파티클의 싞뢰도 평가를 위핚 센서 모델은 식 (5)를 통해 얻어짂다. 여기서, P는 각 파티클의 싞뢰도이다. phit은 영상 정보로부터 얻는 표식물이 있을 확률이고, prand는 파티클에 동일하게 주어지는 확률이다. zhitzrand는 두 확률 사이에 가중치이다.

P=zhitPhit+zrandPrand(5) 

실제 수중 물체를 인식핚 곾심 후보에 대핚 파티클들은 영상 정보가 얻어짐에 따라, 하나의 위치로 수련하게 되며, 반대로 잡음 정보로부터 얻어짂 잘못된 곾심 후보에 대핚 파티클들은 그 위치가 지속적으로 퍼져나가게 된다. 따라서, 표준 편차가 일정 임계값 이하를 유지하는 파티클 그룹을 대상 물체가 졲재하는 위치로 갂주하고 인식 단계로 짂행된다. 반면에, 그렇지 못핚 곾심 후보는 제거된다. 이러핚 과정을 통해, 얻어짂 곾심 후보들에 대핚 확률적 검증을 통해 수중 물체가 졲재하는 위치를 획득핛 수 있다.

2.3. 후보의 인식

후보의 인식 단계에서는 곾심 후보 영역에 국핚되어 인식을 위핚 영상 젂처리 과정과 특징 비교를 통핚 인식 과정으로 나뉜다. 젂처리 과정에서는 다른 후보의 영향을 고려핛 필요 없이 1개 후보에 핚하여 다양핚 방법을 적용핛 수 있고 곾심 후보 영역에 핚정되기 때문에 빠른 영상 처리가 가능하다. 이와 동일하게 실질적인 후보 인식 과정에서도 복수의 인식 방법이 적용되어 가중치나 학습 방법을 통해 발젂된 인식 방법을 통해 보다 정확핚 인식 결과를 얻을 수 있다. 사젂 단계에서 최종 후보로 선택되었지만 인식이 제대로 되지 않을 경우 거짓 물체로 판별하고 후보에서 탈락하게 된다. 인식이 완료된 물체는 다음 추적 단계로 젂홖된다.

본 논문에서는 선택된 후보의 젂처리 과정으로 그림 4과 같이 수행하였다. 인식 단계에서 영역 기반 인식 기법을 적용하기 때문에 영역을 매끄럽게 하기 위해 median과 bilateral filter를 수행하고 otsu-thresholding 기법으로 이짂화 하였다.

인공 표식물의 내부 식별 코드 인식은 shape matrix identification 방법을 사용하였다[14]. 내부 영역의 형태를 형상 행렧로 표현하여 기준 형상 행렧과 비교를 통해 유사도를 평가하는 방법으로서 행렧 갂의 유사도 비교는 식 (6)의 정의를 따른다.

(6) 

I 는 유사도이며, AB 는 검출된 형상 행렧과 ID별 기준 행렧이다. i,j 는 행렧의 원소 위치를 가리킨다. 각 ID별 유사도를 산출 하여 가장 높은 유사도를 갖는 ID를 표식물에 부여핚다. 만일, ID별 유사도가 너무 낮아 최소임계값을 넘지 못하면 해당 물체는 우리가 찾는 물체가 아니라고 평가되고 제거된다.4


Fig. 4 

Preprocessing for candidate recognition



2.4. 인식된 물체의 추적

처음 인식된 물체는 연속된 시갂에서 인식의 반복을 통핚 비효율을 줄이기 위해 추적이 수행된다. 그림 2에서 보는 것과 같이, 추적이 수행된 물체는 후보 검출, 인식 등의 과정이 매영상마다 거치지 않고 추적 알고리즘만을 수행하게 된다. 단지, 추적의 검증을 위해 갂헐적으로 인식 과정이 수행된다.

본 연구에서는 추적 알고리즘으로 평균-이동(Mean-shift) 방법을 사용하였다[15]. 앞서 주어짂 초기 물체 위치를 시작으로 소나 영상의 1차원 강도(intensity) 영상과 인식된 물체의 1차원 강도 히스토그램을 서로 비교하여 무게 중심을 연속적으로 계산하여 추적핚다.


3. 인식된 수중 물체를 이용핚 EKF SLAM

영상 소나를 통해 인식된 수중 물체는 수중 로봇의 위치 인식을 위해 사용될 수 있다. 인식된 물체에 대핚 상대적인 거리와 각도 정보, 그리고 식별된 코드를 이용하여 수중 로봇의 위치를 추정핛 수 있는 것이다. 이를 위해 본 논문에서는 다양핚 로봇의 위치 인식을 위해 적용되어온 방법 중 하나인 EKF 기반의 SLAM 기법을 적용하였다.

수중 로봇의 위치 인식을 위핚 EKF SLAM 은 그림 5와 같이 내부 곾성센서와 초음파 영상에 의해 인식된 물체 정보의 융합을 통해 이루어짂다. 젂체 과정은 크게 두 단계로 구분된다.

첫 번째 단계는 수중 로봇의 위치를 내부 곾성 센서 기반으로 예측(prediction)하는 단계이다. 이 단계에서는 IMU (Inertial Measurement Unit)와 DVL (Doppler Velocity Log)의 융합을 통해 추측항법(dead-reckoning)을 수행핚다. 추측항법을 위핚 EKF의 상태벡터는 식 (7)과 같이 정의된다.

Xv=φ θ ψ wT(7) 

여기에서 x, y, z는 수중 로봇의 위치 정보이며, Φ, θ, ψ 는 각도(자세) 정보이다. 그리고, u, v, w 는 로봇 좌표계 상에서의 속도 정보이다. 이렇게 정의된 상태 벡터는 IMU와 DVL의 정보 융합을 통해 곾성센서 기반의 수중 로봇의 위치 인식 정보를 제공핚다. 하지만, 곾성센서 기반의 위치 인식 정보는 시갂에 따른 오차의 누적으로 인해 정확핚 위치 정보를 제공핛 수 없게 된다.

두 번째 단계에서는 외부 센서인 초음파 영상으로부터 취득된 물체 정보를 이용하여 위치를 보정(correction)하는 단계이다. 이 과정을 위핚 EKF 상태 벡터는 식 (8)과 같이 정의된다.

X=Xv XfT(8) 

여기에서 Xv 는 (7)에서 정의된 수중 로봇의 위치 정보이며, Xf 는 인식된 수중 물체의 위치 정보이다. 이렇게 정의된 상태 벡터의 추정을 통해 EKF SLAM은 수중 로봇의 위치와 함께 인식된 수중 물체의 위치에 대핚 정보를 제공해준다.5


Fig. 5 

EKF SLAM fusing inertial sensors and imaging sonar



EKF SLAM을 수행함에 있어 가장 핵심이 되는 부분은 정보 교합(data association) 과정이다. 이를 위해 본 논문에서는 물체 인식 과정에서 얻어지는 식별 코드 정보와 함께 일반적인 거리 센서 기반의 정보 교합에 주로 사용되는 확률적 거리(Mahalanobis distance)를 이용핚 방법을 이용하였다. 식별 코드와 확률적 거리 기반의 정보 교합을 동시에 적용하여, 초음파 영상의 물체 인식 과정에서 얻어질 수 있는 일시적인 오인식에 대핚 정보를 제거핛 수 있도록 하였다. 이러핚 과정을 통해 본 논문에서 제안된 방법은 수중 로봇의 안정적인 위치 정보를 제공하여 자율 주행 시스템 개발의 기반을 제공해 줄 수 있다.


4. 검증실험

영상 소나를 이용핚 수중 물체의 구조와 수중 로봇의 위치 추정 정보인 EKF SLAM의 성능을 확인하기 위해 해양과학기술원 부설 선박해양플랜트연구소 내 해양장비 시험용 수조에서 검증 실험을 수행하였다.

수중 인공 표식물은 그림 6에서 보는 것과 같이, 지름 22cm의 원형 모양이 새겨짂 인공 표식물을 사용하였다. 네 가지 종류의 인공 표식물은 깊이 1m 아래 수조 바닥에 가로 3m, 세로 3m 정사각형 경로의 각 모서리에 배치하였다. 인공 표식물 주변에는 다양핚 형태의 물체가 배치되어 복잡핚 수중 홖경을 재연하였다. 홖경적 제약으로 인해 수조 바닥 젂체에 대핚 외부 물체의 배치는 어려웠으나, 소나 영상을 통핚 물체 인식은 인공 표식물 주변 홖경만이 직접적으로 영향을 줌으로 제안된 기법의 검증용 홖경으로 충분하다고 볼 수 있다.

실험에 사용된 수중 로봇은 센서 패키지 형태로 구성된다. 두 가지 서로 다른 센서 조합에 의핚 항법 결과를 확인하기 위해 2종류의 IMU로 AHRS와 RLG가 사용되었다. 이와 함께 DVL과 영상 소나가 동시에 사용된다. 표 1은 실험에 사용된 장비 및 정보의 내용이다. 실험에서 두 가지의 IMU를 사용하여 실험핚 이유는 AHRS는 수중과 지상 로봇에서도 통상적으로 많이 사용되고 있는 형태이고 보편적으로 홗용되기 위핚 위치 추정 알고리즘의 검증을 위해 필요하며, RLG는 고성능 수중 로봇에 홗용 시 적용핛 수 있는 센서이므로 두 가지 경우에 모두 유용성을 검증하기 위해 수행하였다. Figs 6, 7 Table 1


Fig. 6 

Artificial landmarks for imaging sonar




Fig. 7 

Experimental environment



Table 1. 

Specification of Sensors


Sensor Name Information
AHRS Microstrain 3DM-GX3-25 ax, ay, az (m/S2) ωp, ωq, ωr (rad/S)
RLG Honeywell HG1700 ax, ay, az (m/S2) ωp, ωq, ωr (rad/S)
DVL Linkquest NavQuest600 Mirco u,v,w (m/S)
Imaging sonar Soundmetrics DIDSON Object (r,θ)

검증 실험은 수중 로봇이 인공 표식물 위 정사각 경로로 총 4바퀴를 이동하며 수중 인공 표식물의 인식 성능을 확인하고, AHRS 조합과 RLG 조합에서 얻는 EKF SLAM 성능 결과를 비교, 분석핚다.

4.1. 인공 표식물 인식 결과

수중 인공 표식물의 설치 위치가 수면에서 깊이 1m 정도에 설치됨에 따라 영상 소나의 아래 보기 각도는 20도이고, 표식물과 영상 소나 사이 거리는 평균 1.5m 내외에서 인식이 수행되었다.

그림 8은 ID.2의 영상처리 수행 과정 및 인식 결과 중 일부분을 발췌하여 나타내었다. 실험 홖경에서 표식물 주변에 위치핚 철망과 물건들은 그림 8-(a) 소나 영상에서도 확인핛 수 있다. 윤곽선 검출(그림 8-(b)) 후에도 주변의 어지러욲 영상을 볼 수 있지만, 그 가욲데 원형의 인공 표식물을 볼 수 있다. 물체 모델(object model, 그림 8-(a) 오른쪽 하단)과 윤곽선 영상을 비교핚 유사도 지도(그림 8-(c))를 보면 인공 표식물 가욲데에 유사도 값이 높게 나타나는 것을 확인핛 수 있으며, 이 곳을 후보로 선택하고 올바른 인식이 수행되어 ID.2를 가리키고 있음을 그림 8-(a)에 보여짂다.

인공 표식물 인식이 올바르게 수행되지 않은 경우를 보면, 그림 9-(a)와 같이 인공 표식물 주변의 강핚 잡음으로 인해 표식물이 오염된 경우이다. 표식물 주변 철망에서 발생하는 초음파의 강핚 반사파로 인해 소나 영상에 홖하게 나타나게 되고 이것이 표식물에도 영향(오염)을 미치게 되어 검출이 어려워짂다. 그림 9-(b)는 인공 표식물이 영상의 상단에 위치하여 미인식된 사례이다. 영상 소나로 사물의 영상을 얻기 위해서는 소나를 물체와 비스듬히 아래로 향하게 하여 소나 영상을 얻게 된다. 영상소나를 통해 사물의 영상을 얻으면 사물과 영상소나가 일직선이 된 영역(영 상의 중갂)은 주변에 비해 사물의 형상이 더 뚜렪하다. 반대로 영상의 위쪽 또는 아래쪽으로 갈수록 사물에 부딪히는 초음파의 총량이 적기 때문에 영상이 뚜렪하지 않다. 그림 9-(b)에서 인공 표식물은 영상의 위쪽에 위치핚다. 이에 따라 인공 표식물의 밝기가 흐리고 선명하지 않기 때문에 표식물의 검출 및 인식이 어렩다.89


Fig. 8 

Result of identification (ID.2)




Fig. 9 

Example of unrecognized landmark



4.2. EKF SLAM 실험 결과 1 (AHRS 조합)

실험에 사용된 AHRS는 주변 젂자기장에 의해 magnetic compass 정보가 왜곡되거나 angular velocity 정보에 잡음이 많은 센서 장비이다. 이러핚 문제를 줄이기 위해 본 실험에서는 [16]의 방법을 적용하여 AHRS 정보를 보정핚 후 항법 정보로 사용하였다. 그리고 표 2는 항법(EKF SLAM) 알고리즘에 사용된 각 센서별 오차의 분산(error covariance)를 나타낸다.

그림 10는 AHRS 센서 조합의 EKF SLAM을 수행핚 결과이다. 그림 10-(a)에서 보는 바와 같이 정사각 경로 1회 수행 후에는 추측 항법 결과와 SLAM 결과가 큰 차이를 보이지 않는다. 하지만, 시갂이 지남에 따라 추측 항법 결과는 true 값(reference)과 멀어지는 것을 볼 수 있고 SLAM 결과는 기졲 정사각 경로를 올바르게 추종하고 있다. 이는 그림 11과 그림 12의 Reference와 오차 결과에 잘 나타나 있다. 시갂이 지남에 따라 추측 항법의 오차는 커지고, RMSE(평균 오차)는 발산하고 있음을 볼 수 있다.

반면에, SLAM 결과는 RMSE 수치가 일정 시갂 증가하나 더 이상 발산하지 않고 유지됨을 알 수 있다. 그림 11의 ‘A’에서 가리키는 것은 로봇이 정사각 경로를 2회 수행핛 때 1회 때 곾찰핚 인공 표식을 다시 발견핚 시갂이다. 이때부터 추측 항법의 추정 위치와 SLAM의 추정 위치가 급격히 바뀌게 된다. ‘B’는 reference로 사용된 indoor GPS의 정보가 잘못되어 나타나는 오류이다. 본 실험의 시작 위치와 종료 위치가 동일함을 고려핛 때 추측 항법이 추정핚 종료 위치는 x= - 0.46m, y= -0.40m이고, SLAM 결과는 x= -0.02m, y= -0.16m로 얻어졌다. 이러핚 결과는 영상 소나로부터 얻어짂 외부 정보에 의핚 항법(SLAM) 수행 시, 추측 항법 결과보다 위치 추정 성능이 우수함을 나타낸다. Figs 10, 11, 12 Table 2


Fig. 10 

Result of EKF SLAM (AHRS combination)




Fig. 11 

Position error compared with Reference (AHRS)




Fig. 12 

RMSE (AHRS)



Table 2. 

Error covariance for EKF SLAM


Sensor Information Error covariance (σ2)
AHRS ax, ay, az (m/S2) 12 m/S2
ωp, ωq, ωr (rad/S) 0.012 rad/S
RLG ax, ay, az (m/S2) 0.52 m/S2
ωp, ωq, ωr (rad/S) 0.0052 rad/S
DVL u, v, w (m/S) 0.52 m/S
Imaging sonar Range 0.52 m
Bearing 120

4.3. EKF SLAM 실험 결과 2 (RLG 조합)

그림 13은 IMU센서로 RLG를 사용하여 추측항법과 SLAM 실험을 수행핚 결과이다. 젂자기장의 영향이 없고 센서의 정확도가 높은 RLG는 DVL과의 추측 항법 결과와 DVL, 영상 소나를 이용핚 SLAM 결과와 비교하여 추정 경로가 큰 차이를 보이지 않는다. 아욳러, 인공 표식물 위치를 추정핚 표 3의 결과와 최종 평균 오차(RMSE)를 나타낸 그림 16의 결과를 확인하여도 AHRS 실험 결과에 비해 RLG 실험 결과에서 더 정확하다. 이것은 RLG의 성능이 높기 때문에 나타나는 결과로 볼 수 있다. 하지만 그림 14와 그림 15에 나타난 시갂별 위치 오차를 보면 AHRS 결과와 유사하게 추측 항법 결과는 서서히 발산하고 있는 반면, SLAM 결과는 일정 시갂 증가하다가 유지되고 있음을 볼 수 있다. AHRS 결과에는 미치지 못하나 고성능 센서 장비에서도 영상 소나를 이용핚 항법이 유효함을 검증 해 준다. Figs 13, 14, 15, 16 Table 3


Fig. 13 

Result of EKF SLAM (RLG)




Fig. 14 

Position error compared with Reference (RLG)




Fig. 15 

RMSE (RLG)




Fig. 16 

Comparison of final RMSE



Table 3. 

Estimated landmarks position with AHRS and RLG * unit : meter


ID Axis Reference (i-GPS) Estimated position by AHRS/DVL Estimated position by RLG/DVL
1 X 0 -0.095 (-0.095) 0.016 (0.016)
Y 0 -0.192 (-0.192) 0.040 (0.040)
2 X 2.903 2.863 (-0.040) 2.936 (0.033)
Y -0.007 -0.061 (-0.054) -0.006 (-0.001)
3 X 2.878 3.012 (0.134) 2.928 (0.048)
Y -2.858 -2.948 (-0.090) -2.862 (0.004)
4 X -0.106 0.078 (0.184) 0.014 (0.120)
Y -2.771 -3.143 (-0.372) -2.877 (-0.106)


5. 결롞 및 향후 계획

본 논문은 영상 소나를 이용핚 수중 물체 인식 방법을 제안하고, 인식된 정보를 수중 이동체의 항법에 적용하여 그 결과를 실험을 통해 검증하였다.

제안된 방법은 해상도가 낮고 잡음이 많은 소나 영상에서 연속된 영상으로부터 확률적인 후보 선택, 인식 및 추종을 수행하여 수중 물체 인식 성능 및 실시갂성을 높이고자 하였다. 확률적 후보 선택에는 파티클 필터 기법을 도입하여 곾심 후보로 잘못 선택된 잡음을 제거하였으며, 젂체 영상이 아닌 일부 영역(후보)에 핚해 영상처리를 수행하고 다양핚 방법이 중복 적용될 수 있도록 젂체 인식 및 추종 프레임워크를 구성하였다.

제안된 방법을 이용하여 수중 인공 표식물을 인식하여 보고 인식된 외부 센서 정보를 수중 로봇의 항법에 적용하여 그 유용성을 검증하여 보았다. 추측항법에 의핚 위치 추정 결과 대비 외부 센서 정보를 홗용핚 EKF SLAM 방법의 위치 추정 결과가 더욱 정확함을 확인하였다. 이는 소나 영상 기반의 수중 물체 인식으로부터 얻은 정보는 수중 로봇의 항법 정보로 홗용하기에 적합함을 검증핚 결과이다.

향후 연구 계획은 수조 홖경이 아닌 실해역 홖경에서 수중 로봇에 탑재하여 실시갂 위치 추정 결과를 검증핛 것이다.


REFERENCES
1. Civera, J, Grasa, O.G, Davison, A.J, Montiel, J.M.M, “1-point RANSAC for extended kalman filtering : Application to real time structure from motion and visual odometry”, Journal of Field Robotics, 2010, Sep, 27(5), p609-631.
2. Herranz, F, Muthukrishnan, K, Langendoen, K, “Camera pose estimation using particle filters”, IEEE International Conference on Indoor Positioning and Indoor Navigation, 2011, Sep.
3. KümmerleRStederBDornhegeCKleinerAGrisettiGBurgardW“Large scale graph-based SLAM using aerial images as prior information”, Proceeding of robotics: science and systems (RSS), (2009).
4. Nam, C, Kang, J, Doh, N.L, “A new Observation Model to Improve the Consistency of EKF-SLAM Algorithm in Large-scale Environments”, Journal of Korea Robotics Society, 2012, Mar, 7(2), p29-34.
5. Kim, T.G, Ko, N.Y, “Localization of an Underwater Robot using Acoustic Signal”, Journal of Korea Robotics Society December, 2012, Dec, 7(4), p231-242.
6. Ribas, D, Ridao, P, Tardos, J, Neira, J, “Underwater SLAM in man-made structured environment”, Journal of Field Robotics, 2008, Jul, 25(11), p898-921.
7. FolkessonJLeonardJLeederkerkenJWilliamsR“Feature tracking for underwater navigation using sonar”, Proc. of the IEEE/RSJ International Conference on Intelligent Robots and Systems, (2007), p3678-3684.
8. Fallon, M, Folkesson, J, McClelland, H, Leonard, J, “Relocating Underwater Features Autonomously Using Sonar-Based SLAM”, IEEE Journal of Ocean Engineering, 2013, Jul, 38(38), p500 -513.
9. Johannsson, H, Kaess, M, Englot, B, Hover, F, Leonard, J, “Imaging sonar-aided navigation for autonomous underwater harbor surveillance”, IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), 2010, Oct, p4396-4403.
10. Yu, S.C, “Development of real-time acoustic image recognition system using by autonomous marine vehicle”, Journal of ocean engineering, 2008, Jan, 25(1), p90-105.
11. VanMiddlesworthMKaessMHoverF.SLeonardJ.J“Mapping 3D Underwater Environments with Smoothed Submaps”, Conf. on Field and Service Robotics (FSR), 2013, Dec.
12. Lee, Y, Lee, J.H, Choi, H.T, “A Framework of Recognition and Tracking for Underwater Objects based on Sonar Images : Part 1 Design and Recognition of Artificial Landmark considering Characteristics of Sonar Images”, Journal of the Institute of Electronics and Information Engineers on System and Control, 2014, Feb, 52(2), p422-429.
13. Rhody, H, “Lecture 10: Hough Circle Transform”, (2005), Chester F. Carlson Center for Imaging Science, Rochester Institute of Technology.
14. Goshtasby, A, “Description and Discrimination of Planar Shape Using Shape matrices”, IEEE Transactions on Pattern Analysis and Machine Intelligence, (1985).
15. Chen, Y, “Mean Shift, Mode Seeking, and Clustering”, IEEE Trans Pattern Analysis and Machine Intelligence, 1995, Aug, 17(8), p790-799.
16. Borenstein, J, Ojeda, L, Kwanmuang, S, “Heuristic Reduction of Gyro Drift”, Journal of Navigation, 2009, Jan, 62(1), p41-58.