Journal of Korea Robotics Society
[ ARTICLE ]
The Journal of Korea Robotics Society - Vol. 16, No. 4, pp.291-298
ISSN: 1975-6291 (Print) 2287-3961 (Online)
Print publication date 30 Nov 2021
Received 27 May 2021 Revised 25 Aug 2021 Accepted 15 Oct 2021
DOI: https://doi.org/10.7746/jkros.2021.16.4.291

협소 공간 생존자 탐색을 위한 뱀형 로봇의 다중 센서 모듈

김성재1 ; 신동관2 ; 표주현2 ; 신주성2 ; 김무림2 ; 서진호
A Multi-Sensor Module of Snake Robot for Searching Survivors in Narrow Space
Sungjae Kim1 ; Dong-Gwan Shin2 ; Juhyun Pyo2 ; Juseong Shin2 ; Maolin Jin2 ; Jinho Suh
1Graduate Student, Smart Robot Convergence and Application Engineering, Pukyong National University, Busan, Korea bbman7020@gmail.com
2Researcher, Interactive Robotics R&D Division, Korea Institute of Robotics and Technology Convergence (KIRO), Pohang, Korea shingun@kiro.re.krjhpyo@kiro.re.krjsshin@kiro.re.krmulimkim@kiro.re.kr

Correspondence to: Professor, Corresponding author: Dept. of Mechanical System Engineering, Pukyong National University, Busan, Korea ( suhgang@pknu.ac.kr)

CopyrightⓒKROS

Abstract

In this study, we present a multi-sensor module for snake robot searching survivors in a narrow space. To this end, we integrated five sensor systems by considering the opinions of the first responders: a gas sensor to detect CO2 gases from the exhalation of survivors, a CMOS camera to provide the image of survivors, an IR camera to see in the dark & smoky environment, two microphones to detect the voice of survivors, and an IMU to recognize the approximate location and direction of the robot and survivors. Furthermore, we integrated a speaker into the sensor module system to provide a communication channel between the first responders and survivors. To integrated all these mechatronics systems in a small, compact snake head, we optimized the positions of the sensors and designed a stacked structure for the whole system. We also developed a user-friendly GUI to show the information from the proposed sensor systems visually. Experimental results verified the searching function of the proposed sensor module system.

Keywords:

Multi-Sensor Module, Snake Robot, Disaster Response Robot, Narrow Space

1. 서 론

최근 지진, 폭설, 테러 등으로 인해 건물 붕괴가 빈번하게 발생하고 있다. 대표적인 건물 붕괴 재난으로는 서울 삼풍백화점 붕괴(인재), 미국 세계무역센터 붕괴(테러), 경주 마우나오션리조트 붕괴(폭설), 2017년 멕시코 대지진(지진) 등이 있으며, 대규모의 인명 피해가 발생하였다. 건물이 붕괴했을 때 구조대는 협소한 공간에 진입하기 어려워 생존자를 수색/구조하기 위해 길이 1~2 m인 서치 탭을 사용하거나 구조견의 도움을 받는다[Fig. 1]. 그러나 앞서 기술한 방법들은 좁고 긴 공간 너머에 있는 생존자의 탐색이 불가하여 수색 영역이 제한되는 한계점을 가진다. 또한, 서치 탭과 구조견을 활용하려면 구조대원이 현장에 필수로 동반되어야 하므로, 구조 도중에 건물 추가 붕괴가 발생하면 구조대원도 위험하게 된다.

[Fig. 1]

Searching survivors with search tab and canine

협소 공간 생존자 탐색이 가능한 뱀형 로봇은 생존자 수색 범위와 능력을 획기적으로 높일 수 있다. 뱀형 로봇은 다양한 주행 방식을 가지고 있고, 직경 10 cm 이하의 좁은 통로에도 진입 가능하며, 동력/통신선으로 구성된 20~30 m 길이의 전선(Tether)을 사용하여 원격으로 운용 가능하다[1-4].

2017년 멕시코에서 지진이 발생하였을 때 CMU에서 개발한 뱀형 로봇이 생존자 탐색에 사용된 바 있다[4]. CMU 연구팀은 머리부에 CMOS 카메라 1대를 장착한 뱀형 로봇을 투입하였는데, 추가적인 감지 수단이 부족하여 생존자 탐색에 어려움을 겪었다[Fig. 2][5]. 한편, 유럽에서는 INACHUS 프로젝트를 통해 기차 형태의 모듈형 탐색 로봇을 개발하였는데, 탐색 임무에 필요한 다양한 센서(카메라, 마이크, 라이다 센서)들을 각각의 모듈에 탑재하였다. 이 로봇은 지름이 200 mm 이상으로 뱀형 로봇(일반적으로 지름이 100 mm 이하)에 비해 크고, 무한궤도를 통하여 이동함으로 다양한 지형에서 사용하기 어렵다[Fig. 3][6].

[Fig. 2]

CMU’s snake robot

[Fig. 3]

INACHUS project snake robot

상술한 로봇의 문제점을 해결하기 위해, 본 논문에서는 새로운 형태의 뱀형 로봇과 운영 방안을 구현한다[Fig. 4]. 구조대의 안전을 위해 뱀형 로봇은 무너진 건물의 지붕에서 투입하는데 약 20~30 m의 운용범위를 가진다. 뱀형 로봇이 협소한 공간을 통과한 후, 상술한 감지 수단들을 이용하여 생존자를 찾으면, 구조대와 생존자의 통신을 복구하고 생존자에게 응급구호 물품을 전달한다. 이러한 임무를 수행하기 위해 뱀형 로봇의 생존자 탐색 능력을 극대화할 필요가 있다. ① 생존자의 날숨에 포함된 CO2를 감지하여 어둠 속에서도 생존자를 발견할 수 있는 가스 센서, ② 시각적 이미지를 제공할 수 있는 CMOS 카메라, ③ 농연 환경과 어두운 곳에서 생존자를 탐색할 수 있는 센서로 적외선을 이용하여 생존자를 발견할 수 있는 열화상 카메라, ④ 소리를 이용하여 생존자를 발견할 수 있는 마이크, 마지막으로 ⑤ 생존자와 로봇의 정확한 위치/방향을 파악하기 위한 수단으로 IMU 센서가 필요하다[Fig. 5]. 또한, 생존자를 발견하였을 때 구조대와 생존자 간의 소통을 위해 스피커를 탑재하여야 한다.

[Fig. 4]

Search survivors system’s concept

[Fig. 5]

Snake robot operating system’s concept

상술한 다양한 센서들을 뱀형 로봇의 머리부에 콤팩트하게 배치하기 위해 다중 센서 모듈을 제안한다. 먼저 다중 센서 모듈을 구성하기 위한 센서는 실사용자인 구조대원들의 의견을 수렴하여 정하고, 소형화된 센서 모듈을 만들기 위한 적층 구조 배치 방안을 고안하였다. 또한, 다중 센서 모듈을 쉽게 사용할 수 있도록 사용자 친화적인 인터페이스와 신호, 데이터 처리 프로그램을 개발하였다. 본 논문에서 개발한 다중 센서 모듈은 뱀 로봇에 장착한 후 가스 탐지 기능, CMOS 카메라, 열화상 카메라, 소리 측정 기능 등 다양한 생존자 탐지 기능이 정상 작동하는 것을 실험을 통하여 검증하였다.

본 논문은 다음과 같이 구성된다. 2장에서는 다중 센서 모듈의 설계안을 소개하고 3장에서는 통신 및 데이터 처리 방법을 제시하고 다양한 센싱 기능을 검증한다. 마지막으로 4장에서는 본 논문의 결론과 향후 계획을 서술한다.


2. 다중 센서 모듈의 설계

뱀형 로봇의 이동 및 탐색 방향에 해당하는 말단부(뱀 머리)는 생존자를 탐지할 수 있는 최전방에 위치하며, 이 위치에 모든 센서를 집약하여 사용하면 효과적이다[7]. 협소 공간에 진입하기 위한 뱀형 로봇의 다중 센서 모듈은 지름 70 mm 이하로 설계하였다[8]. 다중 센서 모듈 내 다수의 센서를 탑재해야 하는 공간적 제약으로 인해, 크기가 작고 장착이 용이한 센서들을 선정하였다. 또한, 선정한 센서들을 다중 센서 모듈에 집적하기 위한 최적의 배치안을 고안하였다[Fig. 6].

[Fig. 6]

The concept of snake-like robot head to search survivors

2.1 생존자 탐색 및 구조를 위한 기능

기존의 선행 연구자료와 구조대의 의견 수렴자료를 토대로 다음과 같은 5개의 기능을 도출하였다. ① 첫 번째 기능은 사람의 날숨에서 포함된 CO2 가스를 검출하여 생존자를 발견하는 기능인데, CO2 가스 농도 분석을 통해 생존자 존재 여부 및 대략적인 위치까지도 파악이 가능할 수 있다. ② 두 번째 기능으로 생존자와 주변 환경에 대한 이미지를 제공하는 기능이 필요하다. ③ 세 번째 기능은 재난 발생 시 어둡고 연기가 많은 공간에서 생존자를 발견할 수 있는 기능이다. 붕괴 지역의 협소 공간은 빛이 잘 들어오지 않으며, 비산 먼지 혹은 연기로 인하여 가시성이 떨어지며 이 기능이 필요하다. ④ 네 번째 기능은 생존자가 발생하는 소리를 탐지하는 기능이다. 생존자는 구조 요청 시 소리를 통해 위치를 알리는 경우가 많으며, 이러한 구조 요청 신호를 인식할 필요가 있다. ⑤ 다섯 번째로 로봇과 생존자의 정확한 위치/방향을 파악할 수 있는 기능이 필요하다. 생존자의 위치를 정확하게 알아야 구조대가 빠르고 효과적인 작전을 수행할 수 있다. 이외에도 구조대와 생존자 간의 소통을 위한 스피커가 필요하다. 갇혀 있는 생존자는 극도의 불안감에 시달리게 되는데, 구조대와 통신이 복구되면, 생존자는 자신이 구조될 수 있다는 믿음을 가지고 심리적으로 안정될 수 있다.

상술한 기능들을 가지는 다중 센서 모듈을 구성하기 위해 [Fig. 7]와 같은 기준으로 센서들을 선정하였는데, 먼저 성능, 크기, 통신 인터페이스 등을 선정 기준으로 분류하고, 협소한 뱀형 로봇 머리 모듈에 탑재하기 위해 센서 크기를 최우선으로 선정하였다[9-14]. 실제 선정된 센서들은 [Table 1]에 정리하였다. 생존자의 호흡 여부를 탐색할 수 있는 센서로 CO2를 검출하는 가스 센서를 선정하였다. 생존자와 주변 환경을 이미지화하기 위해 저전력, 소형화에 유리한 CMOS 카메라를 선정하였다. 농연 환경이나 어두운 곳과 같이 가시화가 힘든 환경에서 생존자를 탐색할 수 있는 센서로 열화상 카메라(IR Camera)를 선정하였다. 열화상 카메라는 적외선을 사용하기 때문에 비가시 상황에서도 생존자 탐색이 가능하다[15,16]. 로봇의 위치파악을 위한 센서로 가속도, 각속도 및 지자기를 통해 위치 및 방향을 검출할 수 있는 IMU (Inertial Measurement Unit)을 선정하였다. 이 센서를 이용하여 로봇이 바라보는 방향 및 위치 정보를 구조대원에게 제공하여 탐색 및 로봇 조작 작업을 보조할 수 있도록 하였다. 마지막으로 구조대원과의 소통을 통한 생존자의 심리적 안정을 유도하기 위하여 마이크로폰과 스피커를 탑재하였다.

[Fig. 7]

Sensor selection methodology

The specification of selected sensors

2.2 다중 센서 모듈 구성안

탐색 작업에 요구되는 센서들을 협소 공간 탐색 로봇에 탑재하여 운용하기 위해서는 각각의 센서들을 하나로 통합하는 것이 필수적이다. 따라서 공간의 효율성을 증대시킬 수 있도록 기능을 구분하여 적층 구조로 PCB (Printed circuit board)를 설계하였다.

[Fig. 8]은 다중 센서 모듈의 3D 구성도이다. 구성한 다중 센서 모듈의 정면에는 생존자 탐지를 위한 센서들과 함께 현장 가시화를 위해 카메라와 패턴 프로젝터, LED 조명을 배치하였다. 측면에는 길이 방향으로 큰 가스 센서를 배치하여 공간 손실을 최소화하였다. [Fig. 9]는 다중 센서 모듈 카메라 배치도이다. 정면의 스테레오 카메라와 측면에 FOV (Field of view) l60° 갖는 카메라를 화각이 중첩되게 배치하여 240°~280° 사이의 광시야각을 확보할 수 있도록 구성하였다. 마지막으로 선정한 센서들이 70 mm 이하라는 제한된 공간 내에서 최고의 성능을 보일 수 있도록 역할에 따른 배치를 하였다.

[Fig. 8]

Multi sensor module 3D layout

[Fig. 9]

Multi sensor module camera layout

2.3 다중 센서 모듈 시제품

[Fig. 10]은 본 연구에서 개발한 다중 센서 모듈의 시작품이다. 다중 센서 모듈의 지름은 설계 조건인 70 mm보다 작은 68.1 mm로 제작되어 설계 요구 사항을 만족한다[Fig. 11]. 제작한 다중 센서 모듈은 [Fig. 12]와 같이 협소 공간 탐색 로봇의 머리부에 장착하였다.

[Fig. 10]

Multi sensor module prototype

[Fig. 11]

Multi sensor module size

[Fig. 12]

Integration of multi-sensor module and snake robot


3. 다중 센서 모듈 통신 및 데이터 처리

3.1 다중 센서 모듈의 통신 인터페이스

선정된 센서들의 데이터 취득을 위해 통신 인터페이스를 구성하였다[Fig. 13]. <Board 1>과 <Board 2>에는 카메라와 함께 사용될 센서 위주로 배치를 하였으며 각각의 보드에 배치된 MCU를 통해서 센서 데이터를 송수신한다. <Board 3>은 <Board 1>과 <Board 2>의 MCU에서 취합한 데이터를 뱀형 로봇의 원격 조종기로 전송하기 위한 Ethernet hub와 각각의 보드에 3.3 V~5 V 전원 공급을 위한 Power regulator가 부착되어 있다. 다중 센서 모듈과 로봇 조종기와의 통신은 다량의 데이터를 안정적으로 송수신하기 위해 Ethernet (RTSP, TCP/IP) 통신 방식을 사용하였다.

[Fig. 13]

Multi sensor module communication diagram

3.2 다중 센서 모듈을 위한 데이터 처리 프로그램

영상 및 음성 데이터와 같은 미디어 데이터의 경우 실시간으로 전송하기 위해 RTSP (Real time streaming protocol)를 사용하였다. 미디어 데이터 외의 센서 데이터는 별도의 프로토콜을 사용하여 전송하였다[Fig. 14]. 고안한 프로토콜은 센서나 장치에 대한 Command ID와 데이터 영역을 구분하여 구성하였고, Ethernet을 통하여 로봇 조종기로 전달된다.

[Fig. 14]

Multi sensor module communication protocol

IMU 데이터는 가속도, 각속도 및 지자기 값을 출력하는 센서로 방향과 위치를 알기 위해서는 각도 값으로 변환하는 작업이 필요하다. 이때, 적분에 의한 누적 오차로 데이터가 시간이 흐름에 따라 발산하는 Drift 현상이 발생하는데 이를 최소화하기 위해 필터를 사용한다. 빠른 연산 처리를 위해 저주파 통과 필터(Low Pass Filter, LPF)와 고주파 통과 필터(High Pass Filter, HPF)를 결합한 상보 필터(Complementary filter)를 사용하여 데이터 후처리를 진행하였다[17].

θk=αθk-1+Gyrodt+1-αAcc(1) 

식 (1)은 본 논문에서 사용한 1차 상보 필터(1차 HPF와 1차 LPF의 결합)를 간단히 정리한 식이다. θk는 현재의 각도이며, θk-1은 이전의 각도 값, α는 현재 값과 이전 값에 대한 가중치(Weight factor), GyroAcc는 각각 자이로 센서와 가속도 센서에서 나오는 각속도 및 가속도 값이다. 가중치 α의 경우 0~1 사이에 있는 값으로 가중치의 크기에 따라 각속도와 가속도가 각도 값에 미치는 영향력이 변화한다.

XH=Xcosϕ+Ysinρsinϕ-Zcosρsinϕ(2) 
YH=Ycosρ+Zsinϕ(3) 
Heading=arctanXH,YH(4) 

Tilt 상태에서의 Z축이 뒤틀려서 정확한 센서 모듈의 방향을 알 수 없다. 이를 보정하기 위해 식 (2)~(4)는 지자기 센서를 이용하여 센서 모듈의 방향을 보정한다. ρ는 Roll, ϕ는 pitch를 나타내며, X, Y, Z는 각각 지자기 센서의 값을 나타낸다. 위의 식을 통한 보정된 센서 모듈의 방향을 이용하여 식 (1)을 통해 Yaw 각도를 계산한다.

3.3 다중 센서 모듈 모니터링 프로그램

개발한 다중 센서 모듈의 데이터를 사용자에게 효과적으로 전달할 수 있도록 Ethernet (TCP/IP, RTSP) 인터페이스를 활용하여 모니터링 프로그램을 구현하였다.

모니터링 프로그램은 여러 host PC에서 접근할 수 있도록 Server 형태로 제작하였다. [Fig. 15]는 모니터링 프로그램의 동작 순서도이다. 영상 및 음성 정보는 실시간 스트리밍을 위하여 RTSP를 사용하여 전송하였고, 센서나 장치 제어는 정보의 송수신 안정성 확보를 위하여 TCP/IP를 사용하였다. 각 정보는 Thread를 분리하여 병렬 처리 하였다.

[Fig. 15]

Program processing sequence

[Fig. 16]은 사용자 편의성과 데이터 시각화를 고려하여 모니터링 프로그램을 구성하였다. 생존자 감지 및 주변 환경 파악에 활용되는 영상 데이터는 화면 중심에 배치하여 가시성을 높였고, 음성/패턴 프로젝터/조명 등 조작성 데이터는 버튼을 이용하여 처리하도록 구성하였다. IMU/가스 센서 데이터는 그래프 형태로 표현하였고, 기준치 이상의 값이 측정되면 별도의 알람 창에 경고 표시를 할 수 있도록 하였다.

[Fig. 16]

Multi sensor data monitoring program layout

3.4 실험 결과

IR 카메라의 경우 인체에서 방사하는 적외선을 감지하기 때문에 가시성이 떨어지는 환경에서 일반 카메라보다 더욱 뚜렷하게 사람을 구별할 수 있다. 다중 센서 모듈에서 사용하는 IR 카메라와 일반 카메라의 영상 정보로 IR 카메라가 어두운 환경에서 사람 감지가 뛰어남을 확인하였다[Fig. 17]. 가스 센서의 경우 CO2 성분을 수치적 데이터와 그래프로 시각화를 함께 하였으며, 일정 수준을 넘어갈 때 자동으로 경고 메시지를 보여줄 수 있도록 하였다[Fig. 18]. 다중 센서 모듈이 장착되는 뱀 형 로봇의 움직임을 상정하여 흔들림을 모사하고 이때 취득한 IMU 데이터를 후처리한 결과이다[Fig. 19]. 본 논문에서는 식 (1)에서 표현된 가중치 α를 실험적 방법을 통하여 Roll, Pitch에서 0.95, Yaw에서 0.9로 선정하였다.

[Fig. 17]

Camera image result

[Fig. 18]

Gas sensor data result

[Fig. 19]

IMU sensor data result

[Fig. 20]은 다중 센서 모듈에 장착된 마이크를 통해 획득한 음성 신호이다. 획득한 음성 정보는 Ethernet으로 로봇 조종기로 전송되며 조종기에 내장된 스피커를 통해 구조대원에게 전달된다.

[Fig. 20]

Sound sensor data result


4. 결 론

본 연구에서는 협소 공간 내 생존자 탐색을 위해 뱀형 로봇의 기능을 극대화할 수 있는 로봇의 머리부에 장착하는 다중 센서 모듈을 개발하였다. 협소 공간 진입을 위해 직경 70 mm이하로 제작하였고, 생존자 탐색에 필요한 5가지 기능을 탑재하고 검증을 하였다. 구체적으로 ① 가스 센서, ② 카메라, ③ 열화상 카메라, ④ 마이크, ⑤ IMU 센서를 탑재하여 생존자 탐색 능력을 극대화하고 생존자와 구조대와의 통신을 위해 스피커도 장착하였다. 상술한 센서들과 스피커를 공간적으로 제한된 뱀 머리부에 조밀하게 배치하기 위해 적층 구조로 배치하였으며, 그 결과 설계된 다중 센서 모듈의 직경은 68.1 mm로 목표 직경(70 mm 이내)을 만족한다.

다중 센서 모듈을 쉽게 사용할 수 있도록 사용자 친화적인 인터페이스와 데이터 처리 프로그램을 개발하였다. 제작한 다중 센서 모듈을 뱀형 로봇에 장착한 후, 모든 센서의 정보(RGB 영상, 열화상 영상, 음성, 가스, IMU 데이터)를 쉽게 파악할 수 있음을 실험을 통해 검증하였다.

향후 계획으로는, 본 논문에서 제안한 다중 센서 모듈 현장 실증 시험, GUI 소프트웨어 고도화, 두 개의 마이크로폰을 이용한 음원 추정 기능 개발, 그리고 생존자 심리 안정을 위한 콘텐츠 개발 등이 있다.

Acknowledgments

This material is based upon work supported by the Ministry of Trade, Industry & Enegry (MOTIE, Korea) under Industrial Technology Innovation Program No. 20003739 and this research was supported by a grant(20010079) of Disaster-Safety Industry Promotion Program Funded by Minstry of Interior and Safety (MOIS, Korea)

References

  • H.-C. Shin, K.-M. Jeong, and J- J. Kwon, “Development of a Snake Robot with 2-DOF Actuator Modules,” Journal of Institute of Control, Robotics and Systems, vol. 17, no. 7, pp. 697-703, 2011. [https://doi.org/10.5302/J.ICROS.2011.17.7.697]
  • P. Liljebck, K. Y. Pettersen, O. Stavdahl, and J. T. Gravdahl, “A review on modelling, implementation, and control of snake robots,” Robotics and Autonomous Systems, vol. 60, no. 1, pp. 29-40, 2012. [https://doi.org/10.1016/j.robot.2011.08.010]
  • J. Borenstein, M. Hansen, and A. Borrell, “The OmniTread OT-4 Serpentine Robot Design and Performance,” Journal of Field Robotics, vol. 24, no. 7, pp. 601-621, 2007. [https://doi.org/10.1002/rob.20196]
  • J. Bae, M. Kim, B. Song, M. Jin, and D. Yun, “Snake Robot with Driving Assistant Mechanism,” Appllied Science, vol. 10, 2020. [https://doi.org/10.3390/app10217478]
  • J. Whitman, N. Zevallos, M. Travers, and H. Choset, “Snake Robot Urban Search After the 2017 Mexico City Earthquake,” IEEE International Symposium on Safety, Security, and Rescue Robotics (SSRR), pp. 1-6, Philadelphia, PA, USA, 2018. [https://doi.org/10.1109/SSRR.2018.8468633]
  • G. Athanasiou, A. Amditis, N. Rivière, E. Makri, E. Makri, A. Bartzas, A. Anyfantis, R. Werner, Dan Alexsson, E. D. Girolamo, Nicolas Etienne, M. Schaap, N. Kerle, N. Bozabalian, G. Marafioti, J. Berzosa, and A. Gustafsson, “INACHUS: Integrated wide area situation awareness and survivor localisation in search and rescue operations,” 5th International Conference on Earth Observation for Global Changes and 7th Geo-information Technologies for Natural Disaster Management (GiT4NDM), pp. 1-1, 2015, [Online], http://www.widm.ca/wp-content/uploads/2017/04/Abstract_IGRDG_GiT4NDM2015_20232_George-60-1.pdf, .
  • M. Mutlu, K. Melo, M. Vespignani, A. Bernardino, and A. J. Ijspeert, “Where to place cameras on a snake robot: Focus on camera trajectory and motion blur,” IEEE International Symposium on Safety, Security, and Rescue Robotics (SSRR), pp. 1-8, West Lafayette, IN, USA, 2015. [https://doi.org/10.1109/SSRR.2015.7442948]
  • J. H. Pyo, D. G. Shin, J. S. Shin, D. B. Shin, G. H. Seo, J. H. Suh, and M. Jin, “Development of Driving Module of Snake Robot for Detection and Rescue in Collapsed Area,” Institute of Control, Robotics and Systems, pp. 196-197, 2020, [Online], http://www.dbpia.co.kr/journal/articleDetail?nodeId=NODE09410399, .
  • O.-H. Kwon and H.-J. Song, “Sensor Deployment Simulator for Designing Sensor Fields,” The Journal of Korea Multimedia Society, vol. 16, no. 3, pp. 354-365, 2013. [https://doi.org/10.9717/kmms.2013.16.3.354]
  • M. K. Seo, B. J. Yoon, H. Y. Shin, and K. J. Lee “Development of an Integrated Sensor Module for Terrain Recognition at Disaster Sites,” The Journal of Drive and Control, vol. 17, no. 3, pp. 1-8, 2020.
  • K. S. Kang, H. S. Moon, W. S. Lee, and S. W. Kim “Barometer Information-Based 3D Localization for Rescuing a Buried Person in Disaster Environments,” The Journal of Korean Institute of Communications and Information Sciences, vol. 32, no. 3, pp. 489-496, 2018, DOI:10.7840/kics.2018.43.3.489. [https://doi.org/10.7840/kics.2018.43.3.489]
  • D.-Y. Kim, H.-J. Choi, J.-E. Lee, S.-H. Cha, S.-J. Kang, K.-H. Cho, and M.-H. Jo, “A Sensor Node Deployment Method Based on Environmental Factors Influencing Sensor Capabilities,” The Journal of Korean Institute of Communications and Information Sciences, vol. 33, no. 10, pp. 894-903, 2008, [Online], http://ksci.kisti.re.kr/search/article/articleView.ksci?articleBean.atclMgntNo=GCSHCI_2008_v33n10B_894, .
  • E.-J. Lee, K.-I. Lee, H.-S. Kim, and B.-S. Kang, “Develop of Agriculture Environment Monitoring System Using Integrated Sensor Module,” The Journal of Korean Contents Association, vol. 10, no. 2, pp. 63-71, 2010. [https://doi.org/10.5392/JKCA.2010.10.2.063]
  • J. J. Yoo and B. T. Jang “Design and Implementation of Sensor Network Monitoring Tool,” The Korean Institute of Information Scientists and Engineers, vol. 35, no. 2(D), pp. 358-362, 2008, [Online], https://www.dbpia.co.kr/journal/articleDetail?nodeId=NODE01074790, .
  • J. W. Starr and B. Y. Lattimer, “Evaluation of Navigation Sensors in Fire Smoke Environments,” Fire Technology, vol. 50, no. 6, pp. 1459-1481, 2014. [https://doi.org/10.1007/s10694-013-0356-3]
  • M. Y. Cho , D. I. Shin, and S. W. Jun “A Sensor Module Overcoming Thick Smoke through Investigation of Fire Characteristics,” The Journal of Korea Robotics Society, vol. 13, no. 4, pp. 237-247, 2018. [https://doi.org/10.7746/jkros.2018.13.4.237]
  • W. T. Higgins, “A Comparison of Complementary and Kalman Filtering,” IEEE Transactions on Aerospace and Electronic Systems, vol. AES-11, no. 3, pp. 321-325, May, 1975. [https://doi.org/10.1109/TAES.1975.308081]
김 성 재

2019 부경대학교 기계시스템공학과(공학사)

2021 부경대학교 기계시스템공학과(공학석사)

2021~현재 부경대학교 스마트로봇융합응용공학과 박사과정

관심분야: 로봇 제어, 로봇 시스템 통합, 로봇 활용 기술

신 동 관

2008 서울과학기술대학교 전기공학과(공학석사)

2008~2018 ㈜로보스타 선임연구원

2018~현재 한국로봇융합연구원 선임연구원

관심분야: 로봇 제어, 로봇 시스템 통합, 자동화 응용 기술

표 주 현

2018 포항공과대학교 창의IT융합공학과(공학박사)

2018~2019 포항공과대학교 PostDoc.

2019~현재 한국로봇융합연구원 선임연구원

관심분야: 필드로봇, 재난대응로봇, 로봇 시스템 설계

신 주 성

2014 국민대학교 기계자동차공학과(공학사)

2016 국민대학교 기계설계학과(공학석사)

2018~현재 한국로봇융합연구원 주임연구원

관심분야: 인간형 로봇, 차세대 모바일 로봇, 로봇 시스템 통합

김 무 림

2008 한국과학기술원 기계공학과(공학박사)

2008~2016 포항산업과학연구원 책임연구원

2016~현재 한국로봇융합연구원 수석연구원/센터장

관심분야: 재난대응로봇, 로봇 제어, 공장자동화, 협동로봇

서 진 호

2002 도쿄공업대학교(Tokyo Institute of Technology) 제어공학과(공학박사)

2006~2018 한국로봇융합연구원 수석연구원/단장

1998~현재 부경대학교 기계시스템공학과 교수

관심분야: 필드로봇, 재난대응로봇, 로봇 시스템 통합

[Fig. 1]

[Fig. 1]
Searching survivors with search tab and canine

[Fig. 2]

[Fig. 2]
CMU’s snake robot

[Fig. 3]

[Fig. 3]
INACHUS project snake robot

[Fig. 4]

[Fig. 4]
Search survivors system’s concept

[Fig. 5]

[Fig. 5]
Snake robot operating system’s concept

[Fig. 6]

[Fig. 6]
The concept of snake-like robot head to search survivors

[Fig. 7]

[Fig. 7]
Sensor selection methodology

[Fig. 8]

[Fig. 8]
Multi sensor module 3D layout

[Fig. 9]

[Fig. 9]
Multi sensor module camera layout

[Fig. 10]

[Fig. 10]
Multi sensor module prototype

[Fig. 11]

[Fig. 11]
Multi sensor module size

[Fig. 12]

[Fig. 12]
Integration of multi-sensor module and snake robot

[Fig. 13]

[Fig. 13]
Multi sensor module communication diagram

[Fig. 14]

[Fig. 14]
Multi sensor module communication protocol

[Fig. 15]

[Fig. 15]
Program processing sequence

[Fig. 16]

[Fig. 16]
Multi sensor data monitoring program layout

[Fig. 17]

[Fig. 17]
Camera image result

[Fig. 18]

[Fig. 18]
Gas sensor data result

[Fig. 19]

[Fig. 19]
IMU sensor data result

[Fig. 20]

[Fig. 20]
Sound sensor data result

[Table 1]

The specification of selected sensors

Type Name Power Interface
Gas IAQ-core 3.3 V I2C
CMOS camera KLT-J4K-OV2732
V1.0 NIR
3.3 V MIPI/DMP
IR Lepton3.5 3.3 V SPI/I2C
Microphone DFR0034 3.3~5 V Analog
IMU ICM20948 3.3~5 V SPI/I2C