Journal Search Engine
Search Advanced Search Adode Reader(link)
Download PDF Export Citaion korean bibliography PMC previewer
ISSN : 1975-6291(Print)
ISSN : 2287-3961(Online)
Journal of Korea Robotics Society Vol.7 No.2 pp.142-149
DOI :

수중 로봇을 위한 다중 템플릿 및 가중치 상관 계수 기반의 물체 인식 및 추종

김 동 훈1, 이 동 화2, 명 현, 최 현 택3
교신저자:KAIST 건설 및 환경공학과 교수, 1 KAIST 로봇공학학제전공 박사과정, 2 KAIST 건설 및 환경공학과 박사과정, 3 한국 해양연구원 책임연구원

Multiple Templates and Weighted Correlation Coefficient-based Object Detection and Tracking for Underwater Robots

Hyun Myung, Donghoon Kim1, Donghwa Lee2, Hyun-Taek Choi3

Received :Mar. 27. 2012; Reviewed : Apr. 18. 2012; Accepted :May. 7. 2012

Abstract

The camera has limitations of poor visibility in underwater environment due to the limitedlight source and medium noise of the environment. However, its usefulness in close range has beenproved in many studies, especially for navigation. Thus, in this paper, vision-based object detectionand tracking techniques using artificial objects for underwater robots have been studied. Weemployed template matching and mean shift algorithms for the object detection and tracking methods.Also, we propose the weighted correlation coefficient of adaptive threshold -based andcolor-region-aided approaches to enhance the object detection performance in various illuminationconditions. The color information is incorporated into the template matched area and the features ofthe template are used to robustly calculate correlation coefficients. And the objects are recognizedusing multi-template matching approach. Finally, the water basin experiments have been conducted todemonstrate the performance of the proposed techniques using an underwater robot platform ySharkmade by KORDI.

10 KRS-12-011-R1-(20120508-210227)-Final-114.pdf1.49MB

1. 서 론

수중 네비게이션은 자율 수중 로봇(AUV, Autonomous Underwater Vehicle)의 개발에 있어서 중요한 연구 분야이지만, 수중 환경이 지상과는 달리 아주 동적이고 사용 가능한 센서가 제한되어 있을 뿐 아니라, 매질에 의한 센서의 특성이 달라 쉽지 않은 문제이다. 그러나 수중로봇이 통신에 제약이 있는 수중 환경에서 심해의 기반시설 조사나 수중 환경 감시, 해저 지형 탐사, 정박지까지의 경로 추종 등의 수중 임무를 성공적으로 수행하기 위해서는 위치인식, 경로 생성 및 추종 등의 네비게이션이 필수적이다. 이를 위해 전자기장[1] 또는 어쿠스틱 센서[2], 관성센서[3]를 이용한 연구가 진행되고 있다. 

최근에는 카메라를 이용한 AUV의 위치인식 연구가 많이 진행되고 있다. 카메라를 통한 수중 영상 정보는 자율 수중 네비게이션에 유용한 정보 중 하나로, 주변 환경에 대한 많은 정보를 제공하므로 인간을 비롯해 대부분의 자율 이동로봇의 네비게이션에 사용된다. 그러나 카메라는 제한된 광원 및 매질의 특성에 따른 제한된 탐지 영역과 특징점 추출이 어려운 수중환경이라는 약점을 가지고 있다. 반면에, 어쿠스틱 센서와 같은 다른 수중 센서에 비해 저렴하면서 상세한 주변 정보를 제공하므로, 영상 정보는 수중 네비게이션에서 중요하며, 특히 근거리 탐지에서는 아주 유용하다. 이에 컴퓨터 비전 분야의 많은 기법들이 수중 로봇에 적용되어 연구되고 있다. 먼저 컬러를 기반으로 한 접근법이 연구되고 있는데, 수중 인공 표식의 컬러 추출[4,5] 또는 컬러 교정 필터를 이용한 산호초와 같은 자연물 인식[6]을 통해 AUV의 위치 인식에 사용하였다. 그러나 컬러 정보에 크게 의존하는 경우, 주변의 조명 변화나 환경 변화에 민감하다는 단점이 있다. 다른 연구에서는 인공 표식물의 기하학적 정보를 이용하였는데, 접안지의 유기발광다이오드(LED)를 이용한 능동 인공 표식[7] 또는 자기 유사 표식(self-similar landmark)[8], Haar-like 사각 피처(rectangular feature)[9] 인식을 통하여 AUV의 위치 인식을 하였다. 이 연구들은 기하학적 특징을 이용하므로 AUV의 비교적 정확한 위치 추정은 가능하지만, 표식을 볼 수 있는 범위가 제한적이거나, 수중의 탁도나 조명 조건에 민감하다. [10]에서는 AUV의 위치인식을 위해, 수중 인공 목표물에 대한 가우시안 컬러모델 기반 영상 분할과 형태 기반 정합(shape context matching) 기반 물체 인식 방법을 제안하였는데, 본 연구와 유사한 맥락이지만 그 접근법이 다르다. 

본 논문에서는 AUV의 지도 기반 위치 인식을 위한 전 단계로서, 영상 기반의 기법들과 성능 향상을 위한 방법을 제안한다. 2장에서는 컴퓨터 영상처리 분야의 기법들을 수중로봇에 적용하기 위해, 수중에서 발생하는 빛의 감쇠 및 산란, 카메라 특성 등의 잡음 제거를 위한 전처리 과정을 소개하였다. 그리고 단순한 형태의 인공 목표물을 인식하기 위해 템플릿 정합(template matching)[11]기반의 물체 인식 기법과, 커널 기반의 물체 추종기법인 평균 이동 추종(mean shift tracking)[12] 알고리즘을 도입하였다. 그러나 템플릿 정합 방법이 조명 변화나 노이즈 등의 환경 변화에 민감하여, 인식률을 높일 수 있도록 그림 1의 (a)와 같은 가중치 상관계수 계산 방법을 제안한다. 기존 템플릿 정합과 적응형 이진화 기반 템플릿 정합, 인공 목표물의 색 정보를 이용한 색 영역 상관계수의 가중합을 통해 템플릿 정합의 인식률을 향상시켰다. 그리고 그림 1의 (b)와 같은 다수의 템플릿에 의한 상관계수의 비교를 통한 인식 성능 향상 방법을 제안한다. 3장에서는 제안한 알고리즘을 한국 해양연구원에서 개발 중인 자율 수중 로봇, yShark[13]를 이용한 수중 실험으로 그 성능을 검증하였다. 

그림 1. 제안한 방법의 블록선도

2. 목표물 인식 및 추종

2.1 수중 인공 목표물

영상 정보를 바탕으로 구조화된 환경에서 수중로봇의 위치를 인식하기 위해 특정 형태의 목표물을 제작하였다. 목표물은 그림 2와 같이 주변의 여러 각도에서 보아도 그 형태가 유지되는 3차원의 형태로 제작되었으며, 매질의 탁도가 증가하거나 조명이 어두워도 외형을 인식할 수 있는, 단순한 형태로 제작되었다. 

그림 2. 인공 목표물

2.2 전처리과정

수중 영상은 매질의 탁도, 부유물, 빛의 감쇠와 산란 등의 영향으로 잡음이 심하고, 어두운 심해에서는 수중로봇의 조명에 의존해 영상을 획득하게 되므로 조명에 따른 물체의 명암 분포에 큰 차이를 보인다. 효과적인 영상처리를 위해서 전처리 과정을 적용하였으며, 이는 목표물의 인식률을 높이는 것이 목적이다. 

수중 영상의 전처리 과정에는 카메라 및 수중 환경 특성에 따른 영상의 왜곡 보정[14]과, 고주파 노이즈 제거를 위해 가우시안 스무딩(Gaussian smoothing), 조명 조건의 변화에 둔감하도록 하는 히스토그램 기반 평활화 기법(histogram equalization)이 포함된다. 그림 3은 전처리 과정을 나타낸 것으로 왼쪽 상단부터 시계방향으로, 원본 영상, 카메라 왜곡 보정으로 가장자리의 의 왜곡이 줄어든 영상, 가우시안 스무딩을 거쳐 흐리지만 노이즈가 제거된 영상, 히스토그램 평활화로 명암 분포가 고르게 분포된 영상이다. 

그림 3. 원본 영상, 캘리브레이션, 가우시안 스무딩 및 히스토그램 평활화의 전처리 과정을 거친 영상(왼쪽 위부터 시계방향)

2.3 템플릿 정합 기반 목표물 인식

2.1과 같은 목표물의 특성 때문에, 컴퓨터 비전 분야에서 이미지 정합의 기법으로 널리 사용되는 특징점 기반 SIFT[15]나 SURF[16]는 특징점의 수가 적어 좋은 성능을 발휘하지 못하였다. 그래서 목표물 인식 기법으로 템플릿 정합의 기법을 도입하였다. 템플릿 정합 기법은 인식하고자 하는 사전에 준비된 물체의 템플릿 영상을, 물체가 존재할 수 있는 입력 영상의 모든 위치에서 비교하여 -1에서 1사이의 식 (1)과 같은 상관계수를 구하고, 문턱값 이상의 상관계수가 나타나는 위치를 목표물의 위치로 인식한다. 

식 (1)에서 f(x, y)와 t(x, y)는 입력 영상과 템플릿 영상의 픽셀 값을 나타내고,  f′과 t′은 템플릿 영상과 입력 영상의 평균 픽셀 값을 나타낸다. 

2.4 가중치 템플릿 정합

템플릿 정합 기법은 템플릿과 입력된 영상을 그대로 비교하기 때문에 수중에서의 환경 변화에 민감하다는 약점이 있다. 이러한 약점을 보완하여 인식률을 향상시키기 위해 다음의 세가지 기법을 도입하여, 그림 1의 (a)와 같이, 가중치 상관계수 계산 방법을 제안하였다. 

(i) 적응형 이진화(adaptive thresholding)를 적용한 영상과 템플릿을 이용하여 템플릿 정합을 한다. (ii) 영상에서 목표물의 주된 색인 붉은색 영역을 추출하여 색 영역 상관계수를 계산한다. (iii) 최종 상관계수를 기존 템플릿 정합과 적응형 이진화 기반 템플릿 정합, 붉은색 영역 정보의 가중합으로 계산한다. 

(i)의 방법은 그림 4의 왼쪽 가운데 행과 같이, 이진 영상과 이진 템플릿 영상의 템플릿 정합과정이다. 이 방법은 가운데 열의 상관 계수를 비교해 볼 때, 찾고자 하는 물체 부분의 상관계수가 다른 물체에 비해 두드러지는 결과를 얻을 수 있다. 

그림 4. 가중치 상관계수 기반 템플릿 정합

(ii)의 방법은 먼저, 입력된 영상을 YCrCb 평면으로 변환하여 붉은색(Cr) 평면의 이미지를 추출한다. 그리고 Cr 이미지의 히스토그램에서 높은 분포를 보이는 값을 이용해 이진화 과정을 거친다. 이진 영상에의 모든 위치에서 템플릿 크기만큼의 평균값으로 색 영역 상관계수를 계산하였다. 이 상관계수는 물체와 색이 다른 배경에 비해 두드러진 결과를 보여준다. 

(iii) 기존의 템플릿 정합을 포함한 세 가지 방법으로 계산한 상관 계수를 각각 ω1,  ω2, ω3의 가중치로 합하여, 최종 상관계수를 그림 4의 오른쪽 상단의 이미지와 같이 계산하였다. 기존의 템플릿 정합의 상관계수에 비해서 찾고자 하는 물체에 집중된 결과를 볼 수 있다. 

2.5 다중 템플릿을 이용한 정합

가중치 템플릿 정합은 인식률을 향상시킬 수 있지만, 템플릿마다 문턱값을 달리 설정해야 하며(3.2 참조), 그에 따라 인식률에 큰 차이를 보인다. 이 문제를 해결하기 위해 그림 1의 (b)와 같이, 다수의 템플릿에 대한 상관계수의 비교를 통해 상관계수가 가장 높은 템플릿을 선택하도록 하였다. 

그림 5의 왼쪽 열은 위에서부터 차례로 구, 원뿔, 사각 기둥의 템플릿에 대한 상관계수이다. 목표물이 동일한 색에 형태와 크기가 비슷해, 하나의 템플릿에 대한 상관계수가 세 가지 목표물 부근에서 높게 나타났다. 이 때문에 템플릿마다 문턱값을 다르게 설정해야 물체를 오류 없이 인식할 수 있다. 그래서 하나의 문턱값으로 인식 가능하도록 다수의 템플릿을 이용한 선택 방법을 제안하였다. 먼저 모든 템플릿에 대한 상관계수를 계산한 후, 그림 5의 오른쪽 상단과 같이 배경과 물체를 구분할 수 있는 적당한 문턱값을 적용하여 목표물의 후보 영역을 구한다. 그리고 각 후보 영역에서 가장 큰 상관계수를 갖는 템플릿을 찾음으로써 물체 인식을 하였다. 

그림 5. 다중 템플릿의 비교를 통한 물체 인식

2.6 목표물 추종

목표물의 추종 방법도 2.3과 같은 이유로 특징점을 기반한 옵티컬 플로우 추종(optical flow tracking)이 적은 수의 특징점으로 추종하기 때문에 움직임이 클 때에 추종을 실패하는 경우가 많았다. 그래서 [17]에서 제안한 mean shift 추종 기법을 도입하였다. Mean shift 추종 기법은 사전에 정의된 추종 모델의 컬러 히스토그램을 먼저 구한다. 이후에 입력되는 영상에서 추종중인 윈도우 주변의 히스토그램과의 비교를 통하여, 식 (2)와 같은 바타차리야 계수(Bhattacharyya coefficient) 값이 큰 윈도우를 선택한다. 그리고 선택된 윈도우에서의 유사도의 밀도가 높은 방향으로 추종 윈도우의 크기와 위치를 이동한다. 이 방법은 목표물 인식을 위한 연산보다 적은 양의 연산으로도 목표물의 위치를 파악할 수 있다. 

식 (2)에서 P와 Q는 각각 후보 영역과 추종 모델의 컬러 히스토그램이고, pi와 qi는 각 히스토그램의 i번째 값을 말한다. 

3. 실험 및 결과 분석

3.1 실험 환경

제안한 영상처리 기법에 대한 실험은 KORDI에서 개발 중인 그림 6의 수중로봇 yShark를 이용해 진행하였다. 카메라는 yShark에 전방을 향하도록 장착된 수중 카메라인, Bowtech사의 Divecam-550C를 사용하였고, 조명은 별도의 외부 조명 없이 yShark에 장착된 두 채널 LED 조명만을 이용하였다. 영상은 640×480 크기에 15fps로 촬영하였고, 빠른 처리 속도를 위해 가로와 세로를 각각 1/4로 줄인 영상을 사용하여, 2절에서 제안한 목표물 인식과 추종에 대한 실험을 진행하였다. 

그림 6. 수중로봇 플랫폼 yShark

3.2 목표물 인식

실험은 기존 템플릿 정합과 제안한 방법에 따라 표1과 같이 4가지로 나누어 진행하였다. 실험 1은 기존 방법을 그대로 사용하였고, 실험 2는 가중치 상관계수 방법을 적용하였다. 실험 3은 기존 템플릿 정합에 다중 템플릿에 의한 인식 방법을 적용하였고, 실험 4에서는 가중치 상관계수에 다중 템플릿에 의한 인식 방법을 모두 적용하였다. 이 4가지 실험을 통해 제안한 방법에 의한 성능 향상을 단계별로 알아보고자 하였다. 

표 1. 실험 조건

상관계수의 문턱값은 표 2와 같이 설정하였다. 상관계수 계산 방법을 달리한 실험 1과 2의 경우는 찾고자 하는 템플릿과 다른 물체를 매칭해 버리는 경우가 없도록, 여러 번의 실험을 통해 템플릿마다 오인식률이 0이 되는 최소의 문턱값으로 설정하였다. 그리고 실험 3과 4에서는 다중 템플릿에 의한 비교를 통해 하나의 문턱값으로도 인식이 가능함을 보이기 위해, 오인식률이 0이 되는 최소의 문턱값을 실험적으로 설정하였다. 그리고 상관계수의 가중치는 ω1 = 0.4 , ω2 = 0.5 , ω3 = 0.1 (그림 4 참조)로, 그림 9의 결과와 같은 가중치에 따른 성능 검사 결과에 따라, 참 인식률 (TPR, True Positive Rate)이 최고가 되고, 거짓 인식률 (FPR, False Positive Rate)이 최소가 될 때의 가중치 값으로 각각 설정하였다.

표 2. 템플릿 정합의 문턱값

성능 평가 기준으로는 TPR과 FPR을 사용하였다. TPR 또는 Sensitivity, 재현율이라 불리는 평가는 목표물 인식이 잘 된 결과로 TPR = TP/(TP+FN)로 계산하였으며, FPR 또는 1-Specificity라 불리는 평가는 인식이 잘못된 비율로 FPR = FP/(FP+TN)로 계산하였다. 여기서 TP (True Positive)과 FN (False Negative)은 각각 영상에 존재하는 목표물을 올바르게 인식하거나 인식하지 못한 경우를 말하는데, 그림 7에서 사각형이 그려진 부분이 TP에 해당하고, 중앙 하단 80초의 이미지에서 오른쪽 원통 물체와 같이 충분히 인식할 수 있을 만큼 보이지만 인식하지 못한 경우는 FN에 해당한다. FP (False Positive)과 TN (True Negative)은 각각 영상에 존재하지 않는 물체를 존재한다고 잘못 인식하거나 인식하지 않은 경우로, 예를 들어, 영상에 원통 물체가 존재하지 않는데 구를 원통으로 인식하는 경우는 FP, 원통을 인식하지 않을 경우는 TN에 해당한다. 이때 TPR은 높을수록, FPR은 낮을수록 인식률이 좋은 것이다. 실험에 사용된 영상은 총 1,629 프레임의 네 가지 목표물에 대한 연속적인 영상으로, 해당 영상에서 추출한 템플릿을 이용해 그림 7과 같이 인식 실험을 진행하였다. 

그림 7. 목표물 인식 결과

기존 템플릿 정합과 본 논문에서 제안한 가중치 상관계수를 적용한 템플릿 정합의 결과가 표 3에 나타나 있다. 기존 템플릿 정합에서 TPR = 0.7783과 FPR = 0의 결과가 나왔고, 제안한 방법에서는 TPR = 0.8798과 FPR = 0으로 10% 가량 개선된 결과가 나타났다. 뿐만 아니라 표 2에서와 같이 제안한 방법에서는 기존 템플릿 정합에서 보다 낮은 문턱값으로도 높은 인식률을 보였다. 

표 3. 실험 1과 2의 목표물 인식 결과

두 실험에서 가장 큰 차이는 그림 8과 같이 물체가 영상의 가장자리에 위치해 있을 때 발생하였다. 실험에서는 심해의 환경 재현을 위해 외부 조명 없이 로봇에 장착된 전방을 향한 집중 조명을 사용하였고, 둥근 형태의 입체 목표물을 사용하였기 때문에, 물체가 영상의 가장자리에 있을 때는 명암 분포가 크게 변하였다. 그리고 카메라 렌즈 및 매질의 특성 때문에 영상의 가장자리에서 왜곡이 발생하였다. 그래서 영상의 가장자리에서는 화면 중앙에 있는 물체에 비해 상관계수가 낮아지면서 목표물을 인식하지 못하거나 다른 물체로 인식하는 현상이 나타났다. 그러나 가중치 상관계수를 템플릿 정합에 적용한 경우에는 그러한 현상이 감소하여, 기존 템플릿 정합에 비해 인식 성능이 개선되었다. 

그림 8. 실험 1과 2의 인식 결과 비교

표 4는 다중 템플릿에 의한 인식 방법을 기존 상관계수와 가중치 상관 계수 방식에 각각 적용한 결과를 나타내고 있다. 기존 방법에서 TPR = 0.8300과 FPR = 0.0293의 결과가 나왔고, 제안한 방법에서는 TPR = 0.9867과 FPR = 0으로 나왔다. 기존 템플릿 정합은 다중 템플릿에 대한 상관계수를 비교하였지만, 잘못 인식하는 경우가 발생하여 FPR이 증가하였다. 반면, 제안한 방법에서는 더 낮은 문턱값을 사용하였는데도 기존 템플릿 정합에 비해 TPR이 15% 가량 향상되었고, 잘못 인식하는 경우가 현저히 감소하였다.  

표 4. 실험 3과 4의 목표물 인식 결과

그림 9는 제안한 방법에 대해서 가중치의 변화에 따른 인식 결과를 나타낸 것이다. 그래프에서 모든 가중치의 총 합은 1이므로, 두 가중치를 수평, 수직축으로 나타내고, 참/거짓 인식률은 밝기로 수치를 나타내었다. (밝을수록 높은 값임) 그 결과 ω1 = 0.5 , ω2 = 0.4 , ω3 = 0.1 (그림 9의 그래프 상에 역삼각형으로 표시한 부분) 부근에서 좋은 성능을 보였다.

그림 9. 가중치에 따른 TPR, FPR 그래프

실험 결과는 제안한 방법이 심해 환경과 같이 조명 조건의 변화나 잡음이 심한 경우에도 템플릿 정합의 인식률을 개선한다는 것을 보여준다. 가중치 상관계수를 이용한 템플릿 정합은 기존 템플릿 정합에 비해, 보다 낮은 문턱값으로도 영상의 가장자리에서의 인식률을 높일 수 있었다. 다중 템플릿 정합은 템플릿마다 문턱값을 설정할 필요 없이, 하나의 문턱값으로도 인식이 가능하였다. 결과 영상은 [18]에서 볼 수 있다. 

3.3 목표물 추종

Mean shift 알고리즘은 템플릿 정합을 통해 찾은 목표물 위치의 윈도우에서 컬러 히스토그램을 생성한 후에 수행된다. 그리고 두 개 이상의 목표물 인식이 되면 동시에 추종을 하게 된다. 그러나 물체의 크기나 위치, 색 정보가 급변하여 추종이 실패할 경우, 다시 물체 인식 알고리즘이 실행된다. 그 결과, 한번 목표물인식이 된 이후에는 적은 연산으로도 목표물을 인식할 수 있었다. 그림 10은 4개의 인공 목표물이 가로로 배치되어 있는 수조에서 로봇을 천천히 제자리에서 회전하면서, 제안한 방법을 이용하여 물체를 인식하고 추종하는 동안의 과정을 나타내었다. 점선으로 그려진 사각형은 물체를 인식한 결과이고, 실선으로 그려진 사각형은 인식 후 추종 과정을 나타내었다. 결과 영상은 [18]에서 볼 수 있다. 

그림 10. 제안한 방법을 이용한 물체 인식 및 추종 결과

4. 결 론

본 연구에서는 수중로봇의 자율 네비게이션을 위한 영상기반의 기법들을 다루었다. 카메라는 수중 센서로서 제한된 탐지영역과 조명이나 탁도 등에 대한 잡음의 단점이 있지만, 주변 환경에 대한 많은 정보를 획득할 수 있다. 이러한 영상 처리 기법을 수중 로봇에 적용하기 위해, 수조에서 인공 목표물을 설치하고 수중로봇을 이용해 물체 인식과 추종에 대한 실험을 진행하였다. 목표물 인식률 향상을 위해 카메라 왜곡 보정을 비롯한 가우시안 스무딩, 히스토그램 평활화의 전처리 과정을 도입하였고, 템플릿 정합과 mean shift 기법을 목표물의 인식과 추종을 위해 적용하였다. 그리고 기존의 템플릿 정합 방법의 단점을 보완하기 위해, 적응형 이진화 기반의 템플릿 정합과 컬러 기반의 물체의 위치 정보를 가중합 방식으로 상관계수를 강인하게 계산하였고, 모든 템플릿에 의한 상관계수의 비교를 통한 정합 기법을 제안하였다. 마지막으로, 수중로봇 플랫폼을 이용한 실험을 통해 기존 방법에 비해 제안한 방법의 성능 향상을 검증하였다. 가중치 상관계수를 적용한 템플릿 정합은 영상의 명암 조건 변화에도 강인한 인식 성능을 보였고, 다중 템플릿 정합은 문턱값을 하나로 줄이고 낮은 문턱값에서도 오인식률을 줄이는 효과가 있었다. 

Reference

1.D. Feezor, F. Y. Sorrell, P. R. Blankinship, and J. G. Bellingham, "Autonomous Underwater Vehicle Homing/Docking via Electromagnetic Guidance", IEEE Journal of Oceanic Engineering, vol.26, pp.515-521, Oct. 2001.
2.P. Corke, C. Detweiler, M. Dunbabin, M. Hamilton, D. Rus, and I. Vasilescu, "Experiments with Underwater Robot Localization and Tracking", Proc. of International Conf. on Robotics and Automation, pp.4556-4561, Roma, Italy, April 2007.
3.P. Corke, C. Detweiler, M. Dunbabin, M. Hamilton, D. Rus, and I. Vasilescu, "Autonomous Underwater Vehicle Navigation", IEEE Journal of Oceanic Engineering, vol.35, no.3, pp.663-678, July 2010.
4.S. C. Yu, T. Ura, T. Fujii, and H. Kondo, "Navigation of Autonomous Underwater Vehicles based on Articial Underwater Landmarks", Proc. of MTS/IEEE Oceans, vol.1, pp.409-416, Hawaii, USA, Nov. 2001.
5.J. Sattar and G. Dudek, "Robust Servo-Control for Underwater Robots using Banks of Visual Filters", Proc. of International Conference on Robotics and Automation, pp.3585-3588, Kobe, Japan, May 2009.
6.G. Dudek, M. Jenkin, C. Prahacs, A. Hogue, J. Sattar, P. Giguere, A. German, H. Liu, S. Saunderson, A. Ripsman, S. Simhon, L. Torres, E. Milios, P. Zhang, and I. Rekletis, "A Visually Guided Swimming Robot", Proc. of IEEE/RSJ International Conf. on Intelligent Robots and Systems, pp.3604-3609, Alberta, Canada, Aug. 2005.
7.P. M. Lee, B. H. Jeon, and S. M. Kim, "Visual Servoing for Underwater Docking of an Autonomous Underwater Vehicle with One Camera", Proc. of Oceans, vol.2, pp.677-682, San Diego, USA, Sept. 2003.
8.A. Negre, C. Pradalier, and M. Dunbabin, "Robust Vision-based Underwater Target Identication and Homing Using Self-Similar Landmarks", Journal of Field Robotics, vol.25, pp.360-377, 2008.
9.F. Maire, D. Prasser, M. Dunbabin, and M. Dawson, "A Vision Based Target Detection System for Docking of an Autonomous Underwater Vehicle", Proc. of Australasian Conf. on Robotics and Automation, Sydney, Australia, Dec. 2009.
10.K. Han and H. Choi, "수중로봇을 위한 형태를 기반으로 하는 인공표식의 인식 및 추종 알고리즘", 전자공학회논문지-SC, 제48권, 제6호, 91-98쪽, 2011년 11월.
11.J. P. Lewis, "Fast Template Matching", Vision Interface, pp.120-123, Quebec City, Canada, May 1995.
12.D. Comaniciu and P. Meer, "Mean shift: A robust approach toward feature space analysis", IEEE Trans. Pattern Anal. and Machine Intell., vol.24, no.5, May 2002.
13.K. Han and H. Choi, "지능형 수중로봇의 연구 동향과 수중 영상처리 소개", 전자공학회지, 제38권, 제7호, 37-41쪽, 2011년 7월.
14.Z. Zhang, "A Flexible New Technique for Camera Calibration", IEEE Trans. on Pattern Anal. and Machine Intell, vol.22, pp.1330-1334, Nov. 2000.
15.D. Lowe, "Distinctive Image Features from Scale-Invariant Keypoints", International Journal on Computer Vision, vol.60, no.2, pp.91-110, 2004.
16.H. Bay, T. Tuytelaars, and L. Van Gool, "SURF: Speeded Up Robust Features", European Conf. on Computer Vision, vol.3951, pp.404-417, Graz, Austria, 2006.
17.D. Comaniciu, V. Ramesh, and P. Meer, "Kernel -Based Object Tracking", IEEE Trans. Pattern Anal. and Machine Intell., vol.25, no.5, pp. 564-577, May 2003.
18.Video of Vision-based Underwater Navigation, http://urobotserver.kaist.ac.kr/visionnav.html
오늘하루 팝업창 안보기 닫기