Journal Archive

Journal of Korea Robotics Society - Vol. 10 , No. 1

[ ARTICLE ]
The Journal of Korea Robotics Society - Vol. 10, No. 1, pp. 24-32
Abbreviation: J Korea Robot Soc
ISSN: 1975-6291 (Print) 2287-3961 (Online)
Print publication date Feb 2015
Received 19 Jan 2014 Revised 17 Feb 2014 Accepted 14 Jan 2015
DOI: https://doi.org/10.7746/jkros.2015.10.1.024

감시경계 로봇의 그래픽 사용자 인터페이스 설계
최덕규1 ; 이춘우2 ; 이춘주

A Graphical User Interface Design for Surveillance and Security Robot
Choi Duck-Kyu1 ; Lee Chun-Woo2 ; Choonjoo Lee
1Army Major, Army HQs (duck38kyu@naver.com)
2Chief Engineer, Samsung Thales Research Center, Samsung Thales (cw0403.lee@samsung.com)
This project was partially funded by the Samsung Thales.
Corresponding author: Weapon Systems Department, National Defense University, Deogyang-Gu, Goyang, Gyeonggi, Korea (sarang90@kndu.ac.kr)


© Korea Robotics Society All rights reserved
This is an Open-Access article distributed under the terms of the Creative Commons Attribution Non-Commercial License (http://creativecommons.org/licenses/by-nc/3.0) which permits unrestricted non-commercial use, distribution, and reproduction in any medium, provided the original work is properly cited.

Abstract

This paper introduces a graphical user interface design that is aimed to apply to the surveillance and security robot, which is the pilot program for the army unmanned light combat vehicle. It is essential to consider the activities of robot users under the changing security environment in order to design the efficient graphical user interface between user and robot to accomplish the designated mission. The proposed design approach firstly identifies the user activities to accomplish the mission in the standardized scenarios of military surveillance and security operation and then develops the hierarchy of the interface elements that are required to execute the tasks in the surveillance and security scenarios. The developed graphical user interface includes input control component, navigation component, information display component, and accordion and verified by the potential users from the various skilled levels with the military background. The assessment said that the newly developed user interface includes all the critical elements to execute the mission and is simpler and more intuitive compared to the legacy interface design that was more focused on the technical and functional information and informative to the system developing engineers rather than field users.


Keywords: Graphical User Interface, Robot Interface Design, Scenario Planning, Unmanned Light Combat Vehicle

1. 서 론

인간과 로봇간 인터페이스는 인간이 로봇에게 명령을 내 리거나 로봇으로부터 인간이 정보를 전달받기 위한 인간과 로봇간 의사전달 기술이라고 정의할 수 있다[1]. 로봇에게 명 령을 전달하는 방법으로 햅틱장비가 가장 일반적으로 사용 되고 있으며, 지능형 로봇시스템에서는 인간의 자세, 표정, 감정 등 인간의 의도를 로봇이 스스로 인식하여 명령을 수 행하는 감성명령 기술이 등장하고 있다[2-10]. 이러한 인터페 이스 연구의 한계는 실험실 환경에서의 운용을 위한 것으로 전장환경을 고려한 군사적 운용에 바로 활용하는데는 한계 가 있다.

미국 등 선진국들이 무인전투체계에 대한 형상은 공개 하고 있으나 운용자 인터페이스에 대한 설계형상을 도출 하기 위한 방법론은 제시하지 않고 있다[11-16]. 우리나라는 국방 분야에서 무인체계를 군사적으로 이용하기 위해, 2006년부터 국방과학연구소를 중심으로 견마로봇 개발과 더불어 인터페이스에 대한 연구가 진행되었고 2012년부터 는 견마로봇의 인터페이스 설계를 발전시켜서 군사적 응 용개발을 위한 무인전투차량에 대한 연구가 진행되고 있 다. 기존문헌에서 UAV 운용자 인터페이스에 대한 하드웨 어 형상은 살펴볼 수 있으나 지상무인전투차량에 대한 인 터페이스 설계에 대한 연구자료는 미흡하다[17-19].

본 연구는 민군겸용기술로 개발된 견마로봇의 그래픽 사용자 인터페이스가 개발자에게 필요한 기술정보를 전시 하는데 초점이 맞춰져 있어서 이를 사용자 중심으로 발전 시키는데 그 목적이 있다. 즉, 시시각각 변화하고 급박한 전장상황에서 사용자가 여러 대의 로봇을 통제하여 임무 를 성공적으로 수행하기 위해서는 사용자 중심의 인터페 이스 구현이 필요하다.

로봇의 운용체계는 1명의 운용자가 여러 대의 로봇을 운용하는 NMAC(N-operator M-robot Access Control)개념으로 [20], 일부 로봇은 자율적으로 임무를 수행하고 필요시 운용 자가 개입하여 직접 제어하는 것이다. 그래픽 인터페이스 를 설계하는데 사용되는 로봇은 자율화 수준으로 표현하 자면 10단계중 컴퓨터가 로봇의 행동을 선택하고 사용자 가 허락하면 이를 수행하는 5단계 수준에 해당한다[21, 22].

본 연구는 사용자 중심으로 그래픽 사용자 인터페이스 를 설계하기 위해 인터페이스 설계단계를 제시하고 특히 사용자 분석에서 불확실한 적정과 변화하는 임무환경 하 에서 전략수립 방법으로 사용되고 있는 시나리오 기획 기 법을 활용하여 사용자 중심의 로봇 인터페이스를 설계하 는 방법을 제시하였다. 연구 범위는 감시·경계임무를 수 행하는 군사용 로봇으로, 주요시설물 감시 임무로 제한하 지만 수색정찰 임무수행을 위한 무인전투차량에 대한 활 용이 가능할 것으로 판단한다.

본문의 구성은 2장 감시·경계 로봇에 대한 그래픽 사 용자 인터페이스 설계 방법, 3장 설계 사례, 그리고 4장 결 론으로 하였다.


2. 감시·경계 로봇 그래픽 사용자 인터페이스 설계 방법

감시·경계 로봇의 그래픽 사용자 인터페이스 설계는 그림 1과 같이 세 단계로 구분되는데 첫 번째, 분석단계는 인터페이스를 설계하는데 필요한 요소를 환경, 과업, 사용 자로 구분하여 분석한다. 두 번째, 설계단계는 분석단계에 서 파악된 내용을 기반으로 메타포, 정보, 상호작용 설계 를 거쳐 인터페이스를 설계한다. 마지막 평가단계에서는 분석적 평가로 설계된 인터페이스를 검증한다.


Fig. 1. 

1. GUI design phases



2.1. 분석단계
2.1.1. 환경분석

운용환경 분석은 사용자가 어떤 환경에서 시스템을 이 용하는가에 대한 분석으로, 사용자가 시스템 사용시 영향 을 미치는 모든 외적 요인들이라고 할 수 있다. 감시·경 계 로봇의 사용자 환경은 무인전투체계 운용개념과 로봇 의 자율화 정도를 나타내는 기술수준에 의해 영향을 받는 다. 따라서 미래전장에서 사용될 무인전 체계 운용개념을 분석하고, 무인전투체계 전력화를 위한 목표 기술을 고려 하여 환경분석을 한다.

2.1.2. 과업분석

사용자 중심 인터페이스를 설계하기 위해서는 사용자가 인터페이스를 이용하여 어떤 일을, 어떻게 수행하는지를 분석할 필요가 있다. 이를 과업분석이라고 하며, 과업분석 은 자연스럽게 사용자의 목적을 파악하는 과정을 포함하 기에 인터페이스 설계에 있어 중요하다. 로봇의 군사작전 활용은 유인전투체계 임무를 보강하거나 대체 수행하는 것으로 가정하여, 유인전투체계 작전 과업분석을 통해 로 봇의 과업을 분석한다.

2.1.3. 사용자분석

로봇의 인터페이스 설계를 위한 사용자분석은 사용자를 식별하고 사용자의 인터페이스 사용 행태를 분석하는 것 이다. 사용자 행태는 시나리오 기획을 통해 미래에 일어날 수 있는 상황을 구체화하고 구조화함으로써 불확실한 미 래에 대한 여러 가지 가능성을 도출한다[23-27]. 기존 문헌의 활용이 제한되어 감시·경계 로봇 인터페이스 사용자의 행태는 시나리오 기획 기법을 적용함으로써 사용자 행동 을 구체화하고 구조화하여 분석할 수 있다.

- 1단계 : 시나리오 영역의 정의 및 영향요인 도출

시나리오 기획은 핵심이슈를 파악하는 것, 즉 시나리오의 영역을 결정하는 것부터 시작된다. 핵심이슈가 결정되면, 영 향요인을 도출한다. 영향요인은 핵심이슈의 미래를 결정하 는 환경요소 및 불확실성이라고 할 수 있다. 시나리오 기획 에서 영향요인을 도출하기 위한 도구로는 PEST 모델, 5Force 모델, 그리고 군사작전에서 활용되는 METT+TC모형을 고려 할 수 있으며 PEST 모델은 거시환경을 정치(Political), 경제 (Economic), 사회(Social), 과학기술(Technological)로 구분하고 있으며, 5Force 모델은 신규 진입자의 위협, 기존 경쟁자의 위협, 고객의 교섭력, 대체제의 위협으로 구분하여 경쟁분 석을 함으로써 환경을 파악하는 도구이다. 본 연구에서는 감시·경계 로봇 인터페이스 영향요인 도출을 위해 군사 작전에서 상황 분석요소인 METT+TC(임무, 적상황, 지형, 가용병력, 가용시간, 민간요소)를 사용하였다.

- 2단계 : 자료구성

도출된 영향요인 중에서 의미 있고 통제 가능한 수의 시나리오 작성을 위해 영향요인을 평가한다. 영향요인에 대한 평가는 영향도와 불확실성 정도를 고려하여 실시한 다. 영향도는 영향요인이 핵심이슈에 영향을 미치는 정도 이고 핵심이슈와 관련된 사항을 진행함에 있어 얼마나 중 요한지를 평가하는 척도이다. 불확실성은 도출한 영향요인 의 극점이 어느 방향으로 발생할 것인지에 대한 불확실성 을 평가하는 것이다.

- 3단계 : 시나리오 구성

3단계에서는 핵심이슈에 영향을 미칠 수 있는 핵심영향 요인과 시나리오 작성에 사용될 영향요인들 간의 관계를 고려하여 인과관계를 분석하고 인과고리를 도식화하며 이 를 기반으로 시나리오를 작성한다.

- 4단계 : 전략대안 선택

전략 대안 선택은 도출된 시나리오 분석을 통해 가능한 미래 환경에서 취할 수 있는 행동과 대응방향을 도출하는 단계이다.

2.2. 설계단계

그래픽 인터페이스 설계는 메타포 설계, 정보 설계, 상 호작용 설계단계를 거쳐 최종적으로 인터페이스를 설계한 다. 인터페이스 설계절차에 대한 내용은 표 1과 같다.

Table 1. 

GUI design procedure in design phase


Design Procedure Contents
Metaphor Design • show the relationship between the objective area of system to develop and the acknowledged concept
Information Design • provide users with the meaningful information by collecting and managing the various data
Interaction Design • include the process that users input the information and the system displays the results
Interface Design • decide how to display the information and function in the input and output equipment of the system

메타포 설계는 개발하는 시스템을 목표영역이라고 했을 때, 개발 시스템을 한 번도 사용해보지 않은 사용자들이 시스템이 어떤 것이라는 것을 쉽게 이해할 수 있도록 사 용자들이 이미 익숙해져 있는 개념과 연관 관계를 명확하 게 보여주는 과정이다. 정보설계는 사용자에게 의미 있는 데이터를 선정하여 그 정보의 의미를 사용자에게 명확하 게 전달하고자 하는 단계이다. 정보 설계의 중요한 목적은 정보의 특성, 기계적 특성, 사용자의 특성 등에 맞추어 구 조화하여 그 정보 공간을 이용하는 사용자가 최적의 경험 을 갖게 하는 것이다. 상호작용이란 사용자가 시스템과 커 뮤니케이션 하는 모든 것으로 상호작용 설계는 사용자가 원하는 메뉴를 선택하는 과정과 사용자의 입력에 반응하 여 화면에 결과를 보여주는 과정을 설계하는 단계이다. 인 터페이스 설계는 시스템의 입출력 장치를 통해 정보나 기 능의 표현 방법을 결정하는 과정이다.

2.3. 평가단계

설계된 인터페이스는 실증적 평가 또는 분석적 평가로 검증한다. 실증적 평가방법은 실제 사용자들이 시스 템의 평가를 주도하는 평가 방법이다. 분석적 평가방법은 실제 사용자를 참여시키지 않고 전문가들이 이미 만들어진 시 스템이나 앞으로 만들어질 시스템을 평가하는 방법들을 말한다.

감시·경계 로봇의 인터페이스는 실제 사용자들이 평가 를 하는 것은 제한이 되므로 분석적 평가 방법을 적용하 였다. 분석적 평가는 크게 검사법과 모형법으로 나누어진 다. 검사법은 해당 분야 전문가들이 정해진 평가 척도에 따라 해당 시스템을 평가하며, 모형법은 인지 과학 전문가 들이 사용자가 머릿속에 가지고 있을 것이라고 예상되는 모형을 구축하고, 그 모형에 따라 사용자가 시스템을 이용 하게 되면 어떠한 문제점에 봉착하게 될 것인지를 분석하 는 방법이다. 검사법은 시스템이 완성되기 전에 평가가 가 능하며, 세부적인 부분을 검사할 수 있다는 장점이 있는 반면, 모형법은 평가에 사용되는 모형을 만들기가 어려운 단점이 있다. 검사법은 정해진 항목에 따라 전문가가 시스 템을 평가하는 리스트 검사법과 전문가가 마치 사용자인 것처럼 리허설을 해봄으로써 문제점을 찾아내는 리허설 검사법이 있다. 본 연구에서 리허설 검사법을 적용하였다.


3. GUI 설계 사례
3.1. 분석단계 결과

2는 우리나라의 군사용 로봇 기술개발수준과 체계개 발 계획을 나타내며 2015년에는 자율주행 수준까지 진행 될 것으로 예상한다. 그림 2는 감시·경계 과업을 분석한 것이다.


Fig. 2. 

Task hierarchy of surveillance and security operation



Table 2. 

Prospects of Korean robot autonomous technology[26]


Year Technology Maturity Level System Maturity Level
2015 Semi-autonomous(Limited Autonomous Control) Semi-autonomous (Waypoint Navigation)
2020 Autonomous(Autonomous Navigation) Semi-autonomous(Limited Autonomous Navigation)

3은 사용자 행태분석을 통해 그래픽 사용자 인터페 이스(GUI) 설계를 위한 시나리오의 영역을 도출한 것이다.

Table 3. 

GUI design scenario dimension


Dimension Contents
Key Issues
  • analysis of user pattern to conduct the surveillance for the interested area using surveillance and security robot
  • identify the required elements to design the interface of surveillance and security robot
Position Area • surveillance and patrol in two areas of interest
Mission Scope • conduct the surveillance and security mission and contingency plan according to the unmanned surveillance operational concept

브레인스토밍 기법으로 군사용 로봇을 지휘통제하는 사 용자의 행동을 인터페이스로 반영하는 방법론과 구현형태 및 구현요소를 도출하였다. 그림 3은 GUI구현요소를 도출 하는 과정을 예시하고 있다.Table.3


Fig. 3. 

GUI elements identification procedure



4는 상황평가요소(METT+ TC) 관점에서 GUI 설계영 향요인을 도출한 것이다[29].

그림 4는 주요시설 감시 경험이 있는 인원 10명과 로봇 개발자 5명을 대상으로 설문하여 요소별 7점 척도로 영향 요인의 불확실성과 영향력 수준을 평가한 결과이다.


Fig. 4. 

Analysis of influencing factors and critical Factors



Table 4. 

Influencing factors on GUI design


Criteria Influencing factors
Mission • mission: mission given to the robot users
• users: rank and training level
Enemy • threat: person, force, and penetration trail that show the hostility to the security of main facility
Terrain & Climate • terrain and climate: terrain and climate that influence to robot operation
Troops
  • troops available: single user operate multiple robots and coordinate with the manned systems
  • logistic support: maintenance and supply
Time • time available: time allowed to start or complete the mission
Civilian • technological maturity level: performance capacity of robot and command control equipment

적위협과 기술성숙도가 감시·경계 로봇 인터페이스 설 계시 핵심영향요인이 되며, 임무, 가용시간, 가용부대가 시 나리오의 부재료로 사용될 영향요인으로 도출되었다.

도출된 2개의 핵심영향요인으로 표 5과 같이 4개의 시 나리오가 가능하며, 시나리오에 이용될 영향요인들의 극점 내용을 분석하면 표 6과 같다.

향후 기술성숙도가 자율수준과 적위협이 높아질 것으로 예상하여 시나리오 1번을 기반으로 영향요인들 간의 인과 관계를 분석하고 그림 5와 같이 인과고리를 도식하였다.


Fig. 5. 

Causal loop between influencing factors



Table 5. 

GUI design scenarios


Classification Threat Level Technology Maturity Level
Scenario 1 (+) High (+) Autonomous
Scenario 2 (+) High (-) Semi-autonomous
Scenario 3 (-) Low (+) Autonomous
Scenario 4 (-) Low (-) Semi-autonomous

Table 6. 

Critical influencing factors and impacts


Classification Contents
Key Driving Factors Threat + •High: increases the contingent event and requires the user reaction to the events as well as the several safety element
- •Low: stylized system for the expected threat
Technology Maturity Level + •Autonomous: involve when the situation requires, otherwise execute another mission
- •Semi-autonomous: continuously monitors the situationand involve when ever required
Driving Factors Mission + •Mission: issued additional mission including surveillance and security
- •Mission:firm fixed missionon surveillance and security
User + •Professional: well experienced expert
- •Enlisted:requires some trainings
Time available + •Reaction time: identify and input the requirements when operate robot
- •Reaction time: minimized the user’ role to identify and input the requirements

적 침투 또는 징후식별이 낮을 경우 기본적인 임무를 수 행하며, 임무를 준비 및 수행간 시간에 대한 통제가 적고, 임무를 수행하는 인원의 숙련도가 임무에 미치는 영향도 적다. 적 침투 또는 징후식별이 높을 경우 감시·경계 임 무가 증가되며 추가적인 로봇 투입이 요구되고, 임무 준비 및 수행시간에 대한 신속성이 요구된다. 또한 임무를 수행 하는 인원의 숙련도가 작전에 미치는 영향이 커지게 된다. 1번 시나리오로 작성할 경우 GUI 구성요소에 미치는 영향 은 긴급 상황시 여러 임무를 신속하고 동시적으로 수행 가능하도록 우선순위를 두어야 한다. 앞에서 제시한 그림 3에서 사용자가 임무계획을 하는 행동요소로부터 도출한 GUI 구현요소는 5가지가 있다. 5가지 구성요소 중에서 1번 시나리오로 작성한다면 우선순위는 그림 6과 같이 구분할 수 있다.


Fig. 6. 

Example of prioritizing GUI factors



3.2. 설계단계 결과

메타포 설계는 사용자가 인식하기 쉬운 개념과 연관관 계를 보여주는 과정인데 감시·경계 로봇 인터페이스 설 계에서는 메뉴 인터페이스와 버튼, 햅틱장비를 사용하였다. 메뉴는 ‘고른다’, ‘선택한다’ 라는 개념이 있고, 버튼은 ‘누 른다’ 라는 개념이 있기 때문에 사용자가 메뉴나 버튼을 선택할 때 어떤 결과가 나온다는 것을 예측할 수 있다. 분 석단계에서 인터페이스 구현우선순위가 높은 기능을 표 7 과 같이 정리하였다. 이 중 긴급성이 요구되는 기능을 하 드웨어 버튼으로 설계하였다. 원격제어는 햅틱장비로 제어 되며 이와 관련한 메타포 설계로서 주행은 자동차의 가속 페달, 브레이크페달, 핸들로 설계하였고, 사격 및 감시장비 는 조이스틱으로 설계하였다.

Table 7. 

Critical Function of GUI


Function Function Contents
Mission management
  • confirm mission : mission from the chain of command for robot
  • inputmission: input the robot mission
  • modify mission: modify the robot mission
  • execute mission: execute the scheduled mission
  • cancel mission: cancel the current or scheduled mission
  • stop mission: stop the current mission
  • Return to Base: return to the specified location
Remote control
  • driving remote control: control the driving equipment
  • surveillance remote control: control the surve illance equip.
  • shooting remote control: control the shooter equipment
  • emergency stop: stop robot when emergency
Authority setting
  • specify the operator: transfer the operating authority
  • specify the manager: specify the operator who will directly one to one control the robot
Switch management
  • system switch: system power switch to control robot
  • system reset: system power on/off
  • robot power switch: power switch of robot mount equipment
General setting
  • robot: initial setting for mission
  • map:specify map setting
  • volume control: volume control for microphone and speaker
Information check
  • system: check the system operating condition
  • robot: check the robot operating condition
  • video information: check the video information from the robot

정보설계에서는 로봇 인터페이스와 관련된 기능을 연관 관계를 분석하여 구조화하였다. 그림 7은 임무와 관련된 기능을 구조화한 결과이다.


Fig. 7. 

Hierarchy of mission management (example)



상호작용 설계에서 햅틱 인터페이스는 조향장치와 페달 로 주행을 위한 명령이 입력되며 조이스틱을 통해 감시장 비 및 사격장비 구동에 대한 명령이 입력된다. 사격의 격 발은 조이스틱의 격발장치로 입력되고 결과는 화면상에 제시 및 햅틱장비 힘반향을 통해 나타난다. GUI 상의 메뉴 와 버튼을 선택시 해당 기능 명령이 생성되며 결과는 팝 업창 또는 화면에 제시토록 설계하였다.

로봇 인터페이스 설계는 사용자가 로봇 통제시스템을 통해 어떤 기능을 수행하며, 어떻게 구조가 되어있는지를 쉽게 파악되도록 설계하는 것에 중점을 두고 로봇으로부 터 제공되는 정보를 사용자가 직관적으로 파악되도록 설 계하였다. 버튼은 사용자가 행동에 방해가 되는 요소가 최 소화되도록 위치 및 순서를 고려하였다. 메타포, 정보, 상 호작용 설계결과를 토대로 설계한 최종 인터페이스 설계 안은 그림 9와 같다. 그림 8은 비교를 위해 기존에 기술자 중심으로 설계한 그래픽 사용자 인터페이스의 일부를 나 타낸 것이다.


Fig. 9. 

A screen capture of the suggested GUI design



그림 8 기존 로봇 인터페이스 설계 화면의 운용정보 메 뉴가 배터리 전압, 로봇 조향각, 방위각 속도 등 사용자가 운용에 직접적으로 필요한 정보보다는 기술적 규격이 메 뉴의 상위 수준에 구현되어 있는데 비해 그림 9 설계안은 임무작성/수정과 배터리 잔량 등 사용자의 관심이 큰 항목 을 상위 메뉴로 구현하였다.


Fig. 8. 

A screen capture of legacy GUI design



3.3. 평가단계 결과

인터페이스 설계안의 검증은 분석적 평가 방법 중 리허 설 검사법을 적용하였다. 리허설 검사법은 사용자 입장에 서 주어진 시나리오를 따라 인터페이스를 조작해 봄으로 써 만족도를 평가하는 것인데 평가에 참여한 전문가는 기존 의 인터페이스에 대하여 평가 경험이 있는 연구자5명과 잠 재적 사용자10명이며 검증 결과 제안한 인터페이스 설계안 은 기존의 인터페이스 설계에 비해서 직관성과 상황조치를 위한 반응시간 측면에서 만족도가 높았고 감시·경계 로봇 의 인터페이스로 적용 가능한 것으로 평가되었다.


4. 결 론

로봇을 군사적으로 운용하고자 할 경우 사용자와의 상 호작용이 중요하다. 상호작용은 인터페이스를 통해 구현되 므로 인터페이스 설계는 사용자에 대한 분석을 통해 사용 자 입장에서 설계되어야 한다. 우리나라도 무인전투체계 개발을 위해 국방과학연구소를 중심으로 견마형 로봇개발 이후 후속 연구가 진행 중이나, 문헌상에 인터페이스 설계 자료가 미흡하고 미래 군의 로봇 운용요구의 다양화가 예 상되어 사용자 중심의 인터페이스 설계를 위한 방법론 연 구가 필요하다. 이에 본 연구에서는 주요시설물 감시·경 계 임무를 수행하는 로봇에 대한 인터페이스의 설계 방법 을 분석, 설계, 평가단계로 구분하여 제시하였다.

분석단계에서는 인터페이스 설계와 관련된 환경과, 감시 ·경계 로봇의 과업, 그리고 사용자를 분석하였다. 특히 사용자 분석은, 불확실한 상황 하에서 미래 예측 전략으로 사용되고 있는 시나리오 기획 기법을 적용하였으며, 사용 자 분석시 인터페이스 구현 요소를 병행하여 도출하였다. 설계단계는 메타포, 정보, 상호작용 설계를 거쳐 인터페이 스 설계를 하였으며, 설계된 인터페이스는 분석적 평가 중 리허설 검사법을 통해 사용 가능성을 확인하였다.


REFERENCES
1. Perzsnowski, D, Schultz, A C, Adams, W, Marsh, E, Bugajska, M, “Building a multimodal human-robor interface”, IEEE Intelligent Systems, (2001), 16(1), p16-21.
2. Zhang, P, Advanced Industrial Control Technology, (2008), Elsevier.
3. Aaron, Powers, “What robotics can learn from HCI”, Interactions, 15(2), p67-69.
4. Ben, Shneiderman, Design the User Interface, USA: Pearson Education, (2005).
5. NielsenC WMichaelA“Goodrich, Comparing the usefulness of video and map information in navigation tasks”, Proceedings of the 1st ACM SIGCHI/SIGART Conference on Human-Robot Interactions, HRI 2006, (2006).
6. Jessi, Y C, “Human-Computer Interface: Issues in Operator Performance & Interface design and technologies”, Army Research Laboratory, (2006).
7. Jill, L, Drury, Holly, Yanco, A, Jean, C Scholtz, “Beyond usability evaluation: Analysis of human-robot interaction at a major robotics competition”, Human- Computer Interaction Journal, 2004, Jan.
8. Ronny, Ophir-Arbelle, “Interface for supporting dismounted soldiers in intelligence gathering mission from Unmanned Vehicles”, Ph.D Dissertation University Ben-Gurion, (2011).
9. Cho, Y, Cheong, J, Kim, D, “Generalized Graph Representation of Tendon Driven Robot Mechanism”, Journal of Korea Robotics Society, (2014), 9(3), p78-184.
10. Cho, D Lee S, Seo, Y, “Facial Feature Tracking Using Adaptive Particle Filter and Active Appearance”, Journal of Korea Robotics Society, (2013), 8(2), p116-128.
11. Chen, J Y, “Human-Robot Interaction in the Context of Simulated Route Reconnaissance Missions”, Military Psychology, (2008), 20.
12. Chen, J Y, “UAV-guided navigation for ground robot tele-operation in a military reconnaissance environment”, Ergonomics, (2010), 53(8).
13. Delphine, Dufourd, “Integrating human robot interaction into robot control architectures for defense applications”, 1st National Workshop on Control Architectures of robot, (2006).
14. John, E, “Soldier-Machine Interface for the Army Future Combat System: Literature Review, Requirements and Emerging Design Principles”, Institute for Defense Analyses, (2003).
15. Keryl, A, “Soldier Machine Interface for Vehicle Formations: Interface Design and Approach Evaluation and Experimentation”, Army Research Laboratory, (2009).
16. Lif, P, “Tactical Evaluation of Unmanned Ground Vehicle during a Mount Exercise”, Proceedings of the 7th International Conference of Engineering Psychology and Cognitive Ergonomics HCI, (2007).
17. Sean, R Perry, James, H Taylor, “A Prototype GUI Unmanned Air Vehicle Mission Planning and Execution”, (2014), The International Federation of Automatic Control, Cape Town, South Africa, August 24-29.
18. Jessie, YC, Chen, Ellen C, Haas, Krishna Pillalamarri, Catherine N, Jacobson, “Human-Robot Interface: Issue in Operator Performance, Interface Design, and Technologies”, Army Research Laboratory, Report ARLTR- 3834, 2006, Jul.
19. OH., Y, “Development of Humanoid Joint Module for Safe Human-Robot Interaction”, Journal of Korea Robotics Society, (2014), 9(4), p264-271.
20. Lee, H, , “Command and Control of Unmanned Combat Vehicles considering the Mission Planning and Global Path Planning”, 3rd Military Science and Technology Conference of Robot Workshop for Military Robot, (2008), p, p65-69.
21. Sheridan, T, Verplank, W, “Human and computer control of undersea teleoperators”, Technical report, Man-Machine Laboratory, (1978), Massachusetts Institute of Technology, Cambridge, MA.
22. Stephen, M Millett, “Should Probabilities Be Used with Scenarios?”, Journal of Futures Studies, 2009, May, 13(4), p61-68.
23. Herman, Kahn, Thinking about the unthinkable, (1962), Discus Books/Avon, New York.
24. Jeon, C, Lee, C, “A Study on the Mid-Long Term Civil-Military Specification Unification Project using Scenario Planning”, Military Science Journal, (2008), 12.
25. Choi, D, Kim, J, Park, B, Lee, C, “Prioritization of Dog-Horse Robot GUI Elements using Scenario Planning”, Korean Military Science and Technology 2010 Conference, (2010).
26. Paul, J H Shoemaker, Scenario Planning: A Tool for Strategic Thinking, Sloan management Review Winer, (1995).
27. Couryney, H, Kirland, J, Viguerie, P, “Strategy under uncertainty”, Harvard Business Review, 1997, 11.12.
28. Park, Y, “The Prospective of Defense Unmanned System and Military Application”, Defense R&D Forum Republic of Korea, (2007).
29. Baek, J, Lee, C, “An Analysis on the Influential Factors to Set the Path Planning Algorithm for Unmanned Ground Vehicle in Combat Environment”, Journal of Korea Robotics Society, (2009), 4(3), p233-242.