Journal Search Engine
Search Advanced Search Adode Reader(link)
Download PDF Export Citaion korean bibliography PMC previewer translate in English
ISSN : 1975-6291(Print)
ISSN : 2287-3961(Online)
Journal of Korea Robotics Society Vol.14 No.1 pp.65-73
DOI : https://doi.org/10.7746/jkros.2019.14.1.065

Localization Algorithm for Lunar Rover using IMU Sensor and Vision System

Hosun Kang1, Jongwoo An2, Hyunsoo Lim3, Seulwoo Hwang4, Yuyeong Cheon5, Eunhan Kim6, Jangmyung Lee†
1MS student, Pusan National University, Busan, Korea
()

2PhD student, Pusan National University, Busan, Korea
()

3BS student, Pusan National University, Busan, Korea
()

4BS student, Pusan National University, Busan, Korea
()

5BS student, Pusan National University, Busan, Korea
()

6BS student, Pusan National University, Busan, Korea
()
Professor, Corresponding author: Electrical Engineering, Pusan National University, Busan, Korea (jmlee@pusan.ac.kr)
20181010 20190116 20190131

Abstract


In this paper, we propose an algorithm that estimates the location of lunar rover using IMU and vision system instead of the dead-reckoning method using IMU and encoder, which is difficult to estimate the exact distance due to the accumulated error and slip. First, in the lunar environment, magnetic fields are not uniform, unlike the Earth, so only acceleration and gyro sensor data were used for the localization. These data were applied to extended kalman filter to estimate Roll, Pitch, Yaw Euler angles of the exploration rover. Also, the lunar module has special color which can not be seen in the lunar environment. Therefore, the lunar module were correctly recognized by applying the HSV color filter to the stereo image taken by lunar rover. Then, the distance between the exploration rover and the lunar module was estimated through SIFT feature point matching algorithm and geometry. Finally, the estimated Euler angles and distances were used to estimate the current position of the rover from the lunar module. The performance of the proposed algorithm was been compared to the conventional algorithm to show the superiority of the proposed algorithm.



IMU 센서와 비전 시스템을 활용한 달 탐사 로버의 위치추정 알고리즘

강 호 선1, 안 종 우2, 임 현 수3, 황 슬 우4, 천 유 영5, 김 은 한6, 이 장 명

초록


    1. 서 론

    최근 미국, 러시아, 유럽 등의 우주 강국에 더해 중국과 인도 가 우주 탐사를 위한 본격적인 발걸음을 내디디고 있다. 중국의 경우, 2013년 달 착륙선 창어 3호가 성공하였으며, 현재 창어 4 호도 계획 중에 있다[1]. 이에 따라 한국의 항공우주연구원에서 도 2020년 KSLV-Ⅱ로켓으로 한국형 달 착륙선을 발사할 계 획 중에 있다. 달 탐사 프로젝트에서 빠질 수 없는 것이 바로 달 탐사 로버(Rover)이다. 대부분의 달 탐사 프로젝트는 사람이 달로 이동하기에는 큰 위험 부담이 있으므로 무인으로 수행된 다. 따라서 사람의 역할을 대신하여 달의 지형 및 다양한 환경 들에 관한 탐사를 진행하기 위한 탐사 로버가 필요하다. 지구 에서 이동 명령을 내려 달의 환경을 확인하는 역할을 할 수 있 도록 로버를 운용하기 위해서는 로버의 다양한 센서들을 통하 여 달 착륙선으로부터 로버의 위치를 정확히 추정하는 것이 중 요하다. 위치추정을 위하여 주로 이용되는 센서로는 비전, IMU, 엔코더 등이 있으며, IMU와 엔코더를 이용한 Dead-reckoning 방 식이 대표적인 위치추정 방법이다. 하지만 달 표면은 먼지와 모래 등으로 이루어져 슬립이 발생하므로, 엔코더 값이 정확 하지 않고 시간에 따른 누적오차가 발생하기 때문에 로버를 장시간 운용할 시에 위치에 대한 오차가 매우 커지는 단점이 존재한다[2]. 반면에, 비전 시스템은 환경에 대한 제약이 적으 므로 달 탐사 임무에서는 비전 시스템을 필수적으로 사용하고 있다[3]. 지구상에서 비전 시스템을 활용한 visual SLAM 기술 들을 통해 정확한 위치추정이 가능한 알고리즘은 많이 연구되 고 있다. 하지만, 달 탐사 로버는 실시간으로 영상을 획득하기 어려워 정지된 상태에서 촬영한 하나의 이미지만으로 주변 환 경 및 달 착륙선과의 상대 위치를 파악해야 하므로, 지구상에서 사용하는 visual SLAM 기법들을 사용하기에는 무리가 따른다. 따라서 본 논문에서는 기존 알고리즘의 단점을 보완하고, 지구 가 아닌 달 환경에 적용하기에 적합한 IMU 센서와 비전 시스템 을 활용한 달 탐사 로버의 위치 추정 알고리즘을 제안한다.

    논문의 구성은 다음과 같다. 2.1장에서는 IMU 센서를 이용 하여 로버의 자세를 판단하여 오일러 각을 추정한다. 또한, 2.2 장에서는 비전 센서를 통해 획득한 영상에 알고리즘을 적용하 여 달 착륙선과 로버 사이의 직선거리를 추정하며, 2.1장의 오 일러 각과 함께 3차원 위치를 추정한다. 위의 [Fig. 1]은 전체 알고리즘을 도식화한 것이다.

    2. 본 론

    IMU 센서와 비전 시스템을 융합한 위치 추정을 위하여, 각 부분의 좌표계에 대하여 정리를 하면 아래의 [Fig. 2]와 같다. [Fig. 2(a)]는 실험을 위해서 사용한 모바일 로봇의 좌표계를 의미하며, [Fig. 2(b)]는 실험을 위해 사용한 비전 시스템의 좌 표계를 의미한다. 마지막으로, [Fig. 2(c)]와 [Fig. 2(d)]는 각각 IMU 센서의 가속도와 자이로의 좌표계를 의미한다.

    2.1. IMU 센서를 이용한 오일러 각 추정

    IMU 센서로부터 달 환경에서 획득 가능한 데이터는 가속 도, 자이로 데이터가 있다. 이를 확장 칼만 필터(Extended Kalman filter, EKF)에 적용하면, 자세 데이터인 오일러 각을 추정할 수 있다. Kalman filter는 과거의 정보와 새로운 측정값을 사용하 여 측정값에 포함된 잡음을 제거하여 최적의 값을 추정하는 알고리즘이다. 이는 선형적인 움직임을 갖는 대상에 재귀적으 로 동작시키는데, IMU의 자이로 데이터와 오일러 각 사이의 시스템 모델이 비선형이기 때문에, 이를 재귀적으로 동작시키 는 EKF를 이용한다. EKF는 간단하게 5단계로 구분하여 설명 할 수 있다. 먼저, 초기값 및 공분산 선정, 추정값과 오차 공분 산 예측, 칼만 이득 계산, 추정값 계산 그리고 오차 공분산 계 산을 마지막으로 5단계를 반복 실행하여 결과를 찾아낸다. 여 기서 공분산이란, 2개의 확률변수의 상관 정도를 나타내는 값 이다. 이 과정은 위의 [Fig. 3]에서 자세히 확인할 수 있다.

    IMU의 시스템 모델을 얻기 위하여 아래의 식 (1)과 같은 오 일러 각의 변화율 ( ϕ ˙ , θ ˙ , ψ ˙ ) 과 각속도 ( p ˙ , q ˙ , r ˙ ) 사이의 관계를 이용한다[4,5].

    { ϕ ˙ θ ˙ ψ ˙ } = [ p ˙ + q ˙ sin ϕ tan θ + r ˙ cos ϕ tan θ q ˙ cos ϕ r ˙ sin ϕ q ˙ sin ϕ sec θ + r ˙ cos ϕ sec θ ] + w = f + w
    (1)

    여기서 w는 시스템 잡음을 의미하며, (ϕ, θ, ψ)은 각각 X, Y, Z 축의 오일러 각을 의미한다. 비선형인 시스템 모델을 선 형화시키기 위하여 아래의 식 (2)와 같은 자코비안(Jacobian) 행렬인 A 행렬식을 구해야 한다[4].

    A = [ f 1 ϕ f 1 θ f 1 ψ f 2 ϕ f 2 θ f 2 ψ f 3 ϕ f 3 θ f 3 ψ ]
    (2)

    여기서, f = [ f 1 f 2 f 3 ] T 이며, 시스템 모델을 적용하여 표현 한 최종 자코비안 행렬을 다음과 같다[4].

    A ( 1 , 1 ) = q cos ϕ tan θ r sin ϕ tan θ A ( 1 , 2 ) = q sin ϕ sec θ 2 + r cos ϕ sec θ 2 A ( 1 , 3 ) = 0 A ( 2 , 1 ) = q sin ϕ r cos ϕ A ( 2 , 2 ) = 0 A ( 2 , 3 ) = 0 A ( 3 , 1 ) = q cos ϕ sec θ r sin ϕ sec θ A ( 3 , 2 ) = q sin ϕ sec θ tan θ + r cos ϕ sec θ tan θ A ( 3 , 3 ) = 0

    여기서, Am, n은 자코비안 행렬 A의 m 번째 행, n번째 열 의 요소를 의미한다. 또한, Kalman filter에서 보정용 측정값을 위해 선형 가속도 데이터를 이용하며, 이에 대한 측정 모델 식 은 다음과 같다[4].

    z = H x + υ
    (3)

    여기서, H = [ 1 0 0 0 1 0 ] , x = { ϕ θ ψ } 이다.

    이는 선형 시스템이기 때문에 자코비안을 구하지 않고 행 렬 H를 바로 사용한다. 이때, 가속도 값으로는 Yaw 각(ψ)을 계산할 수 없어서 제외한다. 또한, 잡음에 대한 공분산 행렬인 Q와 R은 아래의 식 (4)를 통해 적용한다[6] .

    q = d i a g ( σ w x 2 σ w y 2 σ w z 2 ) , R = d i a g ( σ ϕ 2 σ θ 2 0 )
    (4)

    여기서, ( σ w x , σ w y , σ w z ) 는 각 축에서 자이로의 공분산을 나 타내며, ( σ ϕ , σ θ ) 은 Yaw (ψ)을 제외한 Roll (ϕ), Pitch (θ) 에 대한 공분산을 의미한다.

    2.2. 비전 시스템을 이용한 거리 추정

    탐사 로버가 비전 센서를 이용하여 달 착륙선까지의 거리 를 추정하기 위해서는 먼저, 카메라 앵글 안에 물체 즉, 달 착 륙선이 보여야 한다. 따라서 기본적인 하드웨어로써 로버에 팬 틸트 카메라 제어 시스템이 부착되어 카메라가 달 착륙선 을 추적한다고 가정한다. 하지만 일반적인 모노 카메라는 깊 이 데이터가 없으므로 스테레오 카메라를 이용한다[7]. 또한, 카메라에 보이는 달 착륙선을 인식하여 달 착륙선까지의 거리 를 추정하기 위하여 3가지의 알고리즘을 제안한다. 먼저, 주변 환경을 무시하고 달 착륙선을 관심 영역(Region Of Interest, ROI)으로 지정하기 위한 HSV 필터링, 다음으로 stereo 카메라 의 좌, 우 영상으로부터 디스패리티를 구하기 위하여 SIFT 특 징점 매칭 알고리즘을 이용한다. 마지막으로 계산된 디스패리 티를 에피폴라 기하학에 적용하여 디스패리티와 거리 사이의 관계를 도출을 통한 탐사 로버와 달 착륙선 사이의 직선거리 를 추정한다.

    2.2.1. HSV 필터링을 이용한 ROI 추출

    카메라를 이용하여 달 착륙선을 정확히 인지하고 거리를 추정하기 위해서는 먼저, 달 착륙선을 ROI로 정확히 선정할 필요가 있다. ROI를 추출하는 방법으로는 다양한 달 착륙선 형상을 학습시켜 인식하는 방법, 착륙선 객체 이미지를 영상 과 특징점 매칭을 하여 인식하는 방법 그리고 색상 필터를 통 해 원하는 색을 가진 물체를 인식하는 방법 등이 있다. 하지만, 학습을 이용하는 방법의 경우, 많은 착륙선 이미지를 찾고 학 습시키는 과정까지의 시간이 너무 많이 소요된다는 단점이 있 으며, 특징점 매칭을 이용하는 방법의 경우, 착륙선을 바라보 는 면이 다르면 인식률이 낮다. 또한, 대부분의 달 착륙선은 달 환경으로부터 내부 전자 부품들을 보호하기 위한 금색의 특수 한 외벽으로 구성되어 있다. 이는 실제 달 환경에서 볼 수 없는 특수한 색으로써, HSV 색 공간을 활용한 색상 필터링 알고리 즘에 적용하여 원하는 색을 가진 픽셀들을 찾을 수 있다[8,9]. 이 때, 색 공간에는 HSV뿐만 아니라, RGB, CMYK 그리고 CIE 등이 있다. 하지만 다른 색 공간의 경우 감산 및 가산 혼합을 이 용한 색상이 나오는 반면, HSV의 경우 색상, 채도 그리고 명도 를 기준으로 색을 구성하기 때문에 색상의 지정이 직관적이 다. 따라서 본 논문에서는 HSV를 통한 색상 필터링 알고리즘 을 적용하여 카메라 영상으로부터 원하는 색상을 가진 픽셀들 을 찾아 달 탐사선을 ROI로 추출한다.

    2.2.2. SIFT 특징점 매칭 알고리즘

    2.2.1장의 HSV 필터링을 통하여 관심 영역을 추출하면, 2.2.3장의 관심 영역 내부의 물체까지 거리를 추정할 수 있다.

    이를 위해 위의 [Fig. 4]과 같이 스테레오 카메라를 통해 얻은 좌. 우 이미지의 특징점을 비교하여, 같은 특징점을 매칭하는 과정이 필요하다. 특징점 매칭 알고리즘으로는 SIFT (Scale Invariant Feature Transform), ASIFT (Affine-SIFT), SURF (Speeded- Up Robust Feature), Harris corner 등이 있지만, 본 논문에서는 SIFT 알고리즘을 이용한다. SIFT 알고리즘은 성능적인 면에 서 SURF, Harris corner 알고리즘보다 우수하지만, SIFT 알고 리즘의 시점 변화에 민감한 단점을 보완한 ASIFT 알고리즘보 다는 우수하지 못하다[10-14]. 하지만, ASIFT를 이용할 경우 성 능적으로는 조금 향상되는 반면에, 계산량이 방대하여 속도가 너무 느려진다. 본 논문에서는 스테레오 이미지를 통해서 얻 는 좌, 우 이미지를 서로 매칭하기 때문에 시점 변화가 크지 않 다. 따라서 본 논문에서는 SIFT 알고리즘을 이용하는 것이 적 합하다.

    2.2.3. 에피폴라 기하학을 이용한 거리 추정

    에피폴라 기하학은 두 개의 카메라를 이용하는 스테레오 비전 시스템에서 3차원 공간상의 입체 대상을 각 카메라의 2 차원 평면에 사영시켰을 때 나타나는 기하학적 관계를 다루는 것이다[15].

    아래의 [Fig. 5]와 같이, 이를 이용하여 3차원 공간상의 한 점 P, 이미지 평면에 사영된 점 PlPr 그리고 카메라 원점 OlOr 사이의 관계를 볼 수 있다. 이때 그림에서 ClCr은 이미지 평면의 중심좌표이며, f 는 카메라 원점부터 이미지 평면 중심좌표까지의 거리인 초점거리를 의미한다. 마지막으 로 T 는 두 카메라 사이의 거리인 베이스라인을 의미한다. 또 한, 삼각형의 닮음 법칙을 이용한 비례식을 사용하면, 카메라 원점에서 P 까지 수직 거리인 ZP 를 찾을 수 있다[16].

    Z P = f × T x l x r
    (5)

    이 식에서, x l = X P × f Z P , x r = ( X P T ) × f Z P 이다.

    또한 ZP의 분모에 해당하는 xl - xr은 디스패리티이며, 3차 원 공간상의 좌표를 두 이미지 평면에 사영시켰을 때 생기는 좌표의 x축 좌표의 차이를 의미한다.

    2.2.4. 좌표 변환을 통한 3차원 위치추정

    앞선 알고리즘들을 통해 얻은 오일러 각과 직선거리는 구 면좌표계의 ( r , θ , ψ ) 와 같다. 따라서 구면좌표계와 직교좌표 계 (x, y, z)의 관계에 적용하여 로버의 현재 위치를 추정한다.

    아래의 [Fig. 6]은 구면좌표계와 직교좌표계의 관계를 보여 주며, 다음과 같이 간단히 나타낼 수 있다.

    [ x y z ] = [ r sin θ cos ψ r sin θ sin ψ r cos θ ]
    (6)

    따라서, 2.1장에서 얻은 오일러 각 중 Pitch 각 및 Yaw 각을 의미하는 (θ,ψ)와 2.2장에서 얻은 거리(r)을 이용하여 로버 의 (x, y, z) 위치 좌표를 추정한다.

    3. 실 험

    3.1. IMU 센서를 이용한 오일러 각 추정

    본 논문에서 제안하는 알고리즘의 성능 확인을 위하여, 먼 저, IMU 센서를 통해 추정된 오일러 각의 정확도를 확인하는 실험을 진행하였다. 실험을 위해서 사용하는 IMU 센서는 E2BOX 사의 EBIMU-9DOFV3 이며, 모바일 로봇은 아래의 [Fig. 7]과 같다. 이를 아래의 [Fig. 8]과 같은 직사각형 복도 (1408 x 880 cm)를 주행하여 IMU의 가속도 및 자이로 데이터 를 획득하였다. 또한, 각도 변화를 명확히 보기 위하여, 코너 부근에서만 90°로 방향 전환하였다.

    획득한 IMU 데이터를 EKF에 적용하여 각 축에 대한 오일 러 각을 추정한 결과, 약 1.5° 내외의 잡음이 발생하지만, 위의 [Fig. 9]과 같이 Z축(yaw, ψ)에서 정확히 90° 회전하면서 복도 를 주행하는 결과를 확인하였다.

    3.2. 비전 시스템을 이용한 거리 추정

    2.2장에서 제안하는 알고리즘의 실험을 위하여 사용한 스 테레오 카메라는 ZED사 모델을 사용하였고, 성능은 아래 [Table 1]에서 확인할 수 있다.

    먼저, HSV 필터 적용을 위하여 아래의 [Fig. 10]와 같은 기 본 스테레오 이미지를 획득한다. 만약 이를 ROI를 지정하지 않고 SIFT 알고리즘에 적용한다면, 특징점 매칭이 제대로 이 루어지지 않는다.

    따라서 ROI 지정을 위하여 H, S, V의 범위를 조절하여 원하 는 색상을 가진 물체를 찾는다. 본 논문에서는 달 착륙선과 같 은 노란색 표면을 가진 물체를 목표로 하며, 필터 적용 결과는 아래의 [Fig. 11]과 같다.

    입력 이미지에서 ROI 지정을 위하여 HSV 필터링을 적용한 이미지의 pixel 값을 참조한다. 이때, 이미지에서 흰색인 부분 은 pixel 값이 255이며, 나머지 부분은 0을 가진다. 따라서 가로 방향과 세로 방향, 각각 255 값을 가진 pixel의 양을 아래의 [Fig. 12], [Fig. 13]과 같이 히스토그램으로 나타낸다. 이 중, 최 빈값으로부터 좌우로 임곗값 이상의 빈도를 보이는 값까지 ROI 영역을 선정한다. 본 논문에서 임곗값은 0으로 지정하고, 아래의 [Fig. 12]을 통해 얻은 가로 방향에서 최빈값을 지닌 지점 은 368이며, 관심 영역은 321~388이다. [Fig. 12]를 통해 얻은 세 로 방향에서 최빈값을 지닌 지점은 176이며, 관심 영역은 87~202이다. 또한, 이미지상에서 원점은 왼쪽 위의 꼭짓점이다.

    이를 적용하고 SIFT 알고리즘을 적용한 결과는 위의 [Fig. 14]과 같고, 앞선 [Fig. 10]과는 다르게 관심 물체 이외의 지점 에서 생기는 특징점을 제거하기 위하여 ROI의 외부는 흰색으 로 변경하였다.

    SIFT 알고리즘 적용 후, 거리 추정을 위하여 매칭된 점들을 에피폴라 기하학에 적용하였다. 하지만, SIFT 특징점 매칭에 서 제대로 된 매칭이 이루어지지 않은 잡음이 있으므로 디스 패리티 계산에 있어서 평균값이 아닌 중간값을 이용하고, 거 리 계산 후에도 잡음이 발생할 것을 대비하여 이동 평균 필터 를 적용하여 최종 거리를 산출하였다. 이때 평균 크기는 10개 데이터로 지정하였으며, 이를 통해 실제 거리를 30~100cm까 지 추정한 결과 아래 [Table 2]와 같다.

    마지막으로, 오일러 각과 거리를 이용하여 3차원 위치 정보 를 추정하기 위하여 위의 [Fig. 15]와 같은 실험 환경을 구성하 였다. 로버는 원점에서 출발하여 1번에서 5번까지 순서대로 이동한 다음, 다시 1번으로 돌아오는 과정을 거친다. 이때 팬 틸트 모듈 위에 카메라와 IMU 센서를 탑재하고, 팬 틸트 모듈 을 제어함으로써 카메라를 통해 달 착륙선 모형을 이미지의 중앙에 위치시킨 뒤, 마지막으로 스테레오 영상 및 IMU 데이 터를 획득한다. 실험 데이터는 아래의 [Table 3]에서 확인할 수 있다. 이때 오일러 각은 Y축을 기준으로 늘어나기 때문에, 구 면좌표계 형식으로 바꾸기 위하여 (90°-오일러 각)으로 계산 하여 사용한다.

    [Table 3]에서 얻은 데이터를 직교좌표계에서의 값으로 변 환하여 모바일 로봇의 위치를 추정한 결과는 위의 [Table 4]와 [Fig. 16]에서 확인할 수 있다.

    여기서 reference는 실제 위치이며, conventional algorithm은 IMU와 엔코더를 통해 dead-reckoning을 수행하여 위치를 추 정한 결과이다. IMU를 통해 모바일 로봇의 오일러 각을 추정 하고 엔코더를 통해 얻은 이동 거리와 함께 모바일 로봇의 현 재 위치 추정하였다. 처음에는 reference 데이터와 비교했을 때 큰 오차가 발생하지 않지만, 시간이 지남에 따라 누적오차 가 발생하여 최종적으로는 정확하지 못한 결과를 추정하였다. 반면 본 논문에서 제안한 알고리즘은 기존의 알고리즘에 비해 시간이 지남에도 오차가 발산하지 않고, 안정적인 결과를 가 지는 것을 확인할 수 있다. 각 지점에서 기존의 알고리즘과 제 안하는 알고리즘을 통해 추정된 X, Y, Z값들의 최대 오차율과 평균 오차율을 계산한 결과는 위의 [Table 5]에서 확인할 수 있 으며, 본 논문에서 제안한 알고리즘이 상당히 정확한 결과를 가지는 것임을 확인할 수 있다.

    4. 결 론

    본 논문에서는 달 탐사 로버가 달 착륙선으로부터 자신의 위치를 추정하기 위하여 IMU 센서와 스테레오 비전 시스템을 활용한 알고리즘을 제안하였다. 먼저, IMU 센서의 가속도, 자 이로 데이터를 EKF에 적용하여 오일러 각을 추정하였다. 다음 으로, 스테레오 비전 시스템에서 HSV 필터링을 통해 달 착륙 선을 관심 영역으로 선정하고 SIFT 특징점 매칭 알고리즘과 에 피폴라 기하학을 통해 거리를 추정하였다. 추정된 오일러 각과 거리를 구면좌표계와 직교좌표계의 관계에 적용하여 달 착륙 선으로부터 로버의 현재 위치 (x, y, z) 를 추정하였다. 본 알고 리즘의 성능은 모의실험을 통해 실제 값과 추정값을 비교 분석 하여 검증하였다. 추정 결과 평균 오차율 3.35%를 가진다. 이 는 거리 추정에서 발생하는 오차와 외부적인 요건으로 실험 상 황에서 정확한 지점에서 측정하지 못해서 생기는 오차 등에 의 하여 발생한다. 하지만 엔코더를 사용하지 않고 IMU 센서와 스 테레오 카메라를 통해 3차원 위치를 획득하기 때문에, 달 탐사 로 버의 위치추정뿐만 아니라, UAV (Unmanned Aero Vehicle), 자 율 주행 로봇 등 다양한 분야에서 바퀴의 제약 없이 위치를 추 정하는 알고리즘으로 충분히 적용 가능할 것으로 기대된다.

    Figure

    JKROS-14-65_F1.gif

    The proposed algorithm

    JKROS-14-65_F2.gif

    The coordinate system

    JKROS-14-65_F3.gif

    Extended kalman filter

    JKROS-14-65_F4.gif

    Example of stereo image feature matching algorithm

    JKROS-14-65_F5.gif

    Distance estimation using epipolar geometry

    JKROS-14-65_F6.gif

    Relationship of Spherical coordinate system and rectangular coordinate system

    JKROS-14-65_F7.gif

    Mobile robot for experiments

    JKROS-14-65_F8.gif

    Experiment environment for IMU sensor (Rectangle corridor : 1408 x 880 cm^2)

    JKROS-14-65_F9.gif

    Result of extended kalman filter (Rectangle corridor : 1408 x 880 cm^2)

    JKROS-14-65_F10.gif

    Input stereo image (Case of the distance between object and camera is 100 cm)

    JKROS-14-65_F11.gif

    Result of HSV filtering (Case of the distance between object and camera is 100 cm)

    JKROS-14-65_F12.gif

    Histogram of width direction (Left image of stereo) : The mode is 368 and Range of ROI is from 321 to 388

    JKROS-14-65_F13.gif

    Histogram of height direction (Left image of stereo) : The mode is 176 and Range of ROI is from 87 to 202

    JKROS-14-65_F14.gif

    Result of SIFT algorithm (Case of the distance between object and camera is 100 cm)

    JKROS-14-65_F15.gif

    Experiment environment for localization

    JKROS-14-65_F16.gif

    Result of localization(Upper image : Final result of localization / Bottom left image : X-Y View of Result for all positions / Bottom right image : X-Z View of Result for only 2-4 positions)

    Table

    Specification of ZED stereo camera

    Result of estimate distance

    Estimate data for each points

    Result of proposed algorithm at each points

    Result of localization

    Reference

    1. Y. Zheng, Z. Ouyang, C. Li, J. Liu, and Y. Zou,. “China's Lunar Exploration Program: Present and future,” Planetary and Space Science, vol. 56, no. 7, pp. 881-886, May., 2008.
    2. H.-S. Jeong, J. Kim, and J. Lee, “Study on Estimation of Optimal Slip ratio for Maximum Drawbar pull of Exploration Rovers,” Institute of Electronics Engineers of Korea Summer General Conference, Jeju, Korea, pp. 1164-1166, 2016.
    3. W.-S. Eom, Y.-G. Kim, J.-H. Lee, K.-H. Choi, and E.-S. Shim. “Development Trend of Unmanned Planetary ExplorationRover by NASA,” Current Industrial and Technological Trends in Aerospace, vol. 10, no. 2, pp. 102-111, 2012.
    4. P. Kim. Kalman Filter for Beginners with MATLAB Examples, CreateSpace Independent Publishing Platform, 2011, pp.161-191.
    5. Y.-S. Park, W.-S. Choi, S.-I. Han, and J.-M. Lee. “Navigation system of UUV Using Multi-Sensor Fusion-Based EKF,” Journal of Institute of Control, Robotics and Systems, vol. 22, no. 7, pp. 562-569, Jul., 2016.
    6. Y. Kim, J. An, and J. Lee. “Robust Navigational system for a Transporter Using GPS/INS Fusion,” IEEE Transactions on Industrial Electronics, vol. 65, no. 4, pp. 3346-3354, 2018.4.
    7. M. Maimone, Y. Cheng, and L. Matthies, “Two Years of Visual Odometry on the Mars Exploration Rovers,” Journal of Field Robotics, vol. 24, no. 3, pp. 169-186, Mar., 2007.
    8. N.-R. Jung, J.-W. Song, and H.-S. Kang, “Automatical Middle Ear Disease Judgement using HSV Color Space,” Institute of Electronics Engineers of Korea Summer General Conference, Jeju, Korea, pp. 801-803, 2015.
    9. V. A. Oliveira and A..Conci, “Skin Detection using HSV color space,” H. Pedrini, & J. Marques de Carvalho, Workshops of Sibgrapi, pp.1-2, 2009.
    10. C. Harris and M. Stephens, “A combined corner and edge detector,” Alvey Vision Conference, pp. 23.1-23.6, 1988.
    11. D. G. Lowe. “Distinctive image features from scale-invariant keypoints,” International Journal of Computer vision, vol. 60, no. 2, pp. 91–110, Nov., 2004.
    12. H. Bay, A. Ess, T. Tuytelaars, and L. V. Gool, “Speeded-Up Robust Features (SURF),” Computer vision and Image Understanding, vol. 110, no. 3, pp. 346-359, Jun., 2008.
    13. G. Yu and J.-M. Morel, “ASIFT: An Algorithm for Fully Affine Invariant Comparison,” Image Processing On- Line, 1, pp. 11-38, 2011.
    14. Y. M. Kim, C. W. Park, K. T. Park, and Y. S. Moon, “Marker Detection by Using Affine-SIFT Matching Points for Marker Occlusion of Augmented Reality,” Journal of the Institute of Electronics and Information Engineers, vol. 48, no. 2, pp. 55-65, Mar., 2011.
    15. I.-H. Oh, S.-H. Kim, Y.-I. Yoon, and J.-S. Choi, “A robust technique for extraction of correspondences from uncalibrated images using epipolar geometry,” HCI Korea 2013, Pyeongchang.Korea, Vol. 2, pp. 416-420, 2003.
    16. H.-S. Lee, J.-C. Ko, M.-S. Kim, and M.-H. Kim, “Depth Information Recognition In 3D Space Using Stereo vision,”The Korea Entertainment Industry Association Fall Conference, Dea-jeon. Korea, pp. 121-124, 2009.

    저자소개

    • 강 호 선 (Hosun Kang)
    • 2017 부산대학교 항공우주공학과(학사)
    • 2017~현재 부산대학교 전자공학과(석사)
    • 관심분야: 인공지능, 영상처리, 위치 추정

    • 안 종 우 (Jongwoo An)
    • 2014 인제대학교 전자공학과(학사)
    • 2017 부산대학교 전자공학과(석사)
    • 2017~현재 부산대학교 전자공학과(박사)
    • 관심분야: 임베디드 시스템 및 특수환경 navigation and Localization

    • 임 현 수 (Hyunsoo Lim)
    • 2015~현재 부산대학교 전자공학과(학사)
    • 관심분야: 영상 처리

    • 황 슬 우 (Seulwoo Hwang)
    • 2012~현재 부산대학교 전자공학과(학사)
    • 관심분야: 영상 처리, 통신

    • 천 유 영 (Yuyeong Cheon)
    • 2015~현재 부산대학교 전자공학과(학사)
    • 관심분야: 로보틱스

    • 김 은 한 (Eunhan Kim)
    • 2012~현재 부산대학교 전자공학과(학사)
    • 관심분야: 센서 제어, 위치 추정

    • 이 장 명 (Jangmyung Lee)
    • 1980 서울대학교 전자공학과(학사)
    • 1982 서울대학교 전자공학과(석사)
    • 1990 미국 남가주대학교 전자공학과(박사)
    • 1992~현재 부산대학교 전자공학과 교수
    • 관심분야:특수환경 Navigation and Localization, 지능로봇시스템 설 계 및 제어, 마이크로프로세서 응용
    오늘하루 팝업창 안보기 닫기