Journal of Korea Robotics Society
[ ARTICLE ]
The Journal of Korea Robotics Society - Vol. 12, No. 1, pp.94-106
ISSN: 1975-6291 (Print) 2287-3961 (Online)
Print publication date Feb 2017
Received 19 Dec 2016 Revised 14 Feb 2017 Accepted 15 Feb 2017
DOI: https://doi.org/10.7746/jkros.2017.12.1.094

군사로봇의 감시제어에서 운용자 역량 평가 방법에 관한 연구

최상영 ; 양지현1
Operator Capacity Assessment Method for the Supervisory Control of Unmanned Military Vehicle
Sang-Yeong Choi ; Ji-Hyeon- Yang1
1Automotive Engineering,Kookmin University yangjh@kookmin.ac.kr

Corresponding author : The Specialized Research Center for Future Ground System Analysis, MyongJi University, Cheoin-gu, Gyeonggi-do, Korea ( metayoung@gmail.com)

© Korea Robotics Society. All rights reserved.

Abstract

Unmanned military vehicles (UMVs) will be increasingly applied to the various military operations. These UMVs are most commonly characterized as dealing with “4D” task – dull, dirty, dangerous and difficult with automations. Although most of the UMVs are designed to a high degree of autonomy, the human operator will still intervene in the robots operation, and tele-operate them to achieve his or her mission. Thus, operator capacity, along with robot autonomy and user interface, is one of the important design factors in the research and development of the UMVs. In this paper, we propose the method to assess the operator capacity of the UMVs. The method is comprised of the 6 steps (problem, assumption, goal function identification, operator task analysis, task modeling & simulation, results and assessment), and herein colored Petri-nets are used for the modeling and simulation. Further, an illustrative example is described at the end of this paper.

Keywords:

Unmanned Military Vehicles, Human and Robot Interaction, Operator Capacity, Human Performance Model

1. 서 론

군사 로봇은 미래 전장에서 중요한 역할을 수행할 것 으로 전망되며, 위험하고 반복되며 어려운 임무에 적극 적으로 운용될 것이다. 예를 들면, 지뢰 폭발물 제거, 감 시 정찰, 중요지역 거점 방어 등이다. 군사 선진국에서는 이미 군사 로봇 운용이 실용화 단계에 와 있다[1]. 국내에 서는 향후 무인 경전투차량이 개발될 예정이다.

군사 로봇의 가장 큰 특징 중의 하나는 무인화・자동화 이다. 그런데 로봇이 무인화・자동화 되더라도 인간요소 를 완전히 배제하지 못하며, 인간요소는 여전히 중요한 요소가 된다[2]. 단지, 이전과는 달리 인간과 로봇 사이의 상호작용에서 서로의 역할에 대한 재분배가 이루어질 것이다. 상호작용과 관련된 요소로는 Fig. 1에서 보다시 피 운용자 역량, 사용자 인터페이스, 자동화가 있는데, 미래 군사로봇 연구개발에서 운용자 역량은 로봇 자동 화와 사용자 인터페이스와 더불어 중요한 설계변수가 된다[3].

Fig. 1

Human-robot interactions

운용자 역량은 1인이 운용할 수 있는 로봇의 수 혹은 다수의 운용자가 운용할 수 있는 로봇의 수를 의미한다[4]. 일반적으로 원격 차량형 군사로봇의 경우에는 후자를 의미한다. 운용자 역량은 로봇 자동화 그리고 사용자 인 터페이스와 더불어 밀접한 관련성을 지닌다. 로봇자동 화 수준이 향상되면 운용자의 역할이 줄어든다. 사용자 인터페이스가 효율적으로 설계되면 마찬가지로 운용자 의 상황인식 능력이 제고되어 운용자 역량의 효과가 증 가한다. 본 논문에서는 이러한 특성을 고려한 차량형 군 사로봇의 운용자 역량을 평가할 수 있는 방법을 제안하 는 데에 그 목적이 있다.

논문의 구성은 제 1장에서 서론, 제 2장에서는 관련이 론과 기존 연구를 고찰하고, 본 연구에서 제시하는 방법 의 기존 연구와 차별성 및 기여에 대해서 설명한다. 제 3장에서는 운용자 역량의 평가 방법을 설명한다. 제 4장 에서는 운용자 역량의 평가 방법을 실험적으로 적용한 결과를 설명하고, 마지막으로 제 5장에서 결론을 맺는다.


2. 관련 이론 및 기존 연구 고찰

2.1. 관련 이론 및 기존 연구

운용자 역량은 인간과 로봇의 상호작용에서 중요한 연구분야 중의 하나이다[5]. 이는 인간정보처리이론, 인 간자원이론, 통제 이론을 바탕으로 운용자 과업 M&S (Modeling & Simulation) 혹은 실험을 통해서 연구가 이 루어진다.

∙. 인간정보처리 이론

Henrry와 Farrell[6]은 인간의 행위를 인간정보처리 (Human Information Process, HIP)모델을 사용하여 설명 하였다. 이는 4단계로 이루어진다. 인식, 목표상태 평가, 방책선택, 그리고 방책이행 단계이다. 군사분야에서도 이와 유사하게 지휘관의 행위를 상황인식, 결심, 집행으 로 구분한다[7]. 이 구분들은 Fig. 2에서 보는 바와 같이 의미가 서로 대응된다. 지휘통제 분야의 상황인식은 좀 더 구체적이다. 이는 환경에서 중요한 요소를 인식하고, 그들의 의미를 이해하며 더 나아가서 미래 상태까지를 투사하는 의미까지를 포함한다[8]. 상황인식 레벨1이 인 간정보처리모델의 지각에 해당하고, 레벨2와 레벨3은 목표상태 평가에 해당한다.

Fig. 2

Relationship of HIP model and SA

대부분의 운용자 과업에 대한 연구는 HIP이론에 근거 를 둔다. 예를 들면, 항공통제센터의 오퍼레이터 오류분 석연구[9], 미래 병사체계와 로봇과 정보교환 적절성연구[10] 등이 있다. 상황인식모델은 군사분야에서 원격통제시스 템 혹은 지휘통제에서 응용되고 있다[11,13].

∙. 인간자원이론

인간자원이론은 인간이 과업노력을 수행하는 동안에 소모되는 인간자원에 대해서 설명한다. 이는 공업 심리 학에서 다루어지기도 한다. 인간자원이론에서는 심성모 델, 중다자원모델 등이 있다[14]. 여기서 운용자 역량 평가 와 관련해서 중요한 것 중의 하나가 과업노력을 어떻게 인간자원 측면에서 정량화 하는가 이다. 이를 위한 방법 으로는 2가지가 있다. 생체반응척도와 경험척도이다. 생 체반응척도는 과업노력 시에 직접 생체반응을 측정하는 것이다. 예를 들면, 심박수, 동공움직임 등이다. 경험척 도는 과업노력을 일정한 수준으로 레벨링하여 수치화 하는 것이다. 여기에는 대표적으로 VACP[15,16], TLX[17] 가 있다. VACP는 시각(Visual), 청각(Auditory), 인지 (Cognition), 동작(Psychomotor)을 의미하고 특정한 과 업을 수행하는 데에 필요한 VACP 수준을 0에서 7까지 로 구분하여 운용자의 작업부하를 계량화하는 데에 적 용하고 있다. TLX는 Task Load IndeX의 약어로 NASA 에서 개발되었다. TLX는 6개 항목(정신적 요구, 육체적 요구, 시간긴박적 요구, 노력, 임무성취감, 불쾌감)으로 구성하고 각 항목별 작업부하 평가를 0에서 100까지로 20개 구간으로 나누어 점수화하여 평가한다.

∙. 통제 이론

운용자 역량은 인간-로봇 상호작용의 감시제어 통제 역량이다. Hollnagel & Woods는 감시제어 통제수준을 Fig. 3에서와 같이 목표수준(targeting), 감시(monitoring) 수준, 규제(regulating)수준, 그리고 추적(tracking)수준 으로 구분하였다[18].

Fig. 3

Levels of supervisory control

Fig. 3의 가장 윗부분에 있는 목표수준에서는 목표를 설정하고 지속적으로 운용상황을 평가하며 필요 시에는 기존 목표를 수정한다. 감시 수준에서는 그 목표 달성을 위한 계획을 수립하고 진행 상황을 감시한다. 한편, 규제 수준에서는 감시 수준에서 수립된 계획이 곧 자체의 목 표가 되며, 이를 달성하기 위한 동작이 이루어지고 그 결과 상황에 대하여 평가한다. 마지막의 추적 수준에서 는 감시 수준의 동작이 자동화되어 실행되는 수준이다. 추적 수준에서 기계적 오류나 돌발 상황이 발생하면 필 요한 조치가 이루어진다. 이들은 다시 상위 수준의 것에 반영되어 전체적으로 피드백을 형성한다. 이러한 Hollnagel & Woods의 통제수준 구분은 감시제어에서 각 수준의 운용자 역할을 구분하기 위한 기준을 제공한다. 그리고 각 수준에서 운용자 역량은 자동화 수준에 따라 달라 지는데, Parasuraman은 그 자동화 수준을 8단계로 구분 하였다[7].

∙. 운용자 과업 M&S

운용자 과업 M&S에는 이산시스템 방법[19], 에이전트 기반 방법[20], Petri-nets기반 방법[21] 등이 있다. 이산시스 템 방법은 과업수행 모델링을 위해 전통적으로 적용해 오고 있는 방법이다. 이 방법을 적용하여 개발된 모델로 는 CART[22]가 있다. 이는 상용 MicroSaint엔진[23]을 바 탕으로 개발된 것이다. 에이전트기반 방법은 최근에 관 심이 높아지고 사건과 규칙기반으로 모델링 하게 된다. 대표적인 모델링 예로써 UGVSimp가 있다[24]. 이는 에이 전트기반 방법과 프로세스 지향 방법을 혼합한 혼합 시 뮬레이션 방법을 적용하여 다중 무인차량에 대한 단 일 운용자의 작업 부하량을 측정하였다. 이는 상용 AnyLogic[25] 엔진을 바탕으로 개발된 것이다. Petri-nets 기반 방법은 병렬적으로 발생하는 과업을 모델링 하는 데 효과적이다. Petri-nets기반의 모델링과 시뮬레이션을 지원하는 엔진으로는 CPN Tool이 있다[26]. Kim et al은 다수 로봇의 협조제어에 대한 연구를 수행하였다[27].

2.2. 기존 연구와 본 연구의 차별성 및 기여

본 논문에서는 제시한 운용자 역량 평가방법은 첫 번 째, 앞에서 고찰한 인간정보처리이론에 상황인식모델을 반영하여 운용자 과업분석방안을 제시함으로써 군사특 성이 반영되도록 하였고, 두 번째, 인간자원이론에서 운 용자 역량 평가척도는 VACP를 기반으로 하였다. 이는 다른 평가척도에 비해 운용자 작업부하를 더 세밀하게 반영하고 있기 때문이다. 통제이론과 관련해서는 연구 목적을 고려하여 감시 및 목표수준에서 발생하는 감시 제어에 초점을 두었다. 한편, 운용자 과업 M&S에서는 Petri-nets기반의 모델링 및 시뮬레이션을 기반으로 하였 다. Petri-nets은 운용자 과업에서 발생하는 병렬특성을 유연하게 잘 반영할 수 있기 때문이다. 본 연구에서 제시 된 운용자 역량 평가방법은 이러한 기존 이론에서 군사 특성을 반영하여 고안되었으며 특히, 문제정의로부터 결과분석에 이르기까지 그 절차를 상세히 정립하고 실 험적 적용 예를 보임으로써 미래 군사로봇의 운용성 연 구에 기여할 것으로 사료된다. 세부적인 방법과 그 예시 는 다음 장에서 설명한다. F4-F5

Fig. 4

Steps for operator capacity assessment

Fig. 5

Operator capability, UI, and autonomy


3. 운용자 역량 분석 및 평가 절차

운용자 역량 분석 및 평가는 문제 정의로부터 시작된 다. 근본적인 질의는 운용자의 수와 작업부하의 적절성 이다. 이는 Fig. 4에서 보는 바와 같이 6단계(문제정의, 가정, 목표기능 식별, 운용자 과업분석, 과업 모델링 및 시뮬레이션, 결과분석 및 평가)를 통해서 그 적절성을 평가하는 것이다. 각 세부 단계에 대한 설명은 다음과 같다.

∙. 단계1(문제정의)

문제정의 단계에서는 운용자 역량 평가와 관련된 맥 락과 해결해야 할 문제를 정의한다. 운용자 역량은 운용 자를 포함하는 로봇팀의 운용개념, 임무 복잡성, 그리고 전장 특성에 영향을 받는다. 문제정의에서는 운용자 역 량의 영향 요소를 식별하고, 이 맥락에서 운용자의 수와 작업부하의 적절성을 평가하여 최적의 운용자 수준을 찾아 내는 것이다.

∙. 단계2(가정)

가정에서는 운용 시나리오를 설정하고, 운용자 역량 에 중요하게 영향을 미치는 로봇 자동화와 사용자 인터 페이스를 가정한다.

로봇 자동화는 운용자의 수를 줄이거나 과업수행을 용이하게 할 수 있으며, 경제적 이점을 제공한다. 그러나 어느 수준의 이상이 되면 운용자 상황인식의 부재, 불균 형적인 운용자 작업부하, 과신 등으로 인해 효율성이 떨 어질 수 있는 단점이 있다. 사용자 인터페이스(User Interface, UI)는 로봇과 운용자 사이의 정보흐름을 제공 하고, 이를 통해서 운용자는 상황을 인식하여 로봇과 상 호작용한다. 인터페이스는 다양한 모달리티로 구현되어 사용편의성을 제공하지만 운용자의 작업부하에 영향을 미친다.

∙. 단계3(목표기능 식별)

목표기능은 운용자가 수행해야 할 기능이다. 일종의 운용자 기능이라고 할 수 있다. 인간-로봇 시스템에서 운용자도 전체 시스템의 일부로 간주되기 때문이다. 운 용자의 목표기능과 로봇기능이 상호협조적으로 발휘되 어 최종적인 임무를 달성하게 된다. 운용자 역량은 목표 기능을 성공적으로 수행하기 위함이다. 그래서 운용자 역량 분석을 위해서는 가장 먼저 목표기능을 식별하는 것이 중요하다.

∙. 단계4(운용자 과업분석)

운용자 과업분석에서는 최상위 임무 프로파일로부터 단계3에서 식별된 목표기능을 시작으로 하향식으로 분 해하여 운용자가 직접 수행하는 과업을 분석해 내는 것 이다. 이를 위해서 운용 시나리오를 참고하여 임무 프로 파일(Mission profile)로부터 Fig. 6과 같이 목표기능 (Goal Function)-하부기능(Sub-Function)-과업(Task)으 로 분해하여 하향식 계층구조를 작성한다.

Fig. 6

Operator task hierarchy

여기서, 목표기능은 편의상 하부기능으로 계층화된다. 하부기능은 최종적으로 과업으로 세분화 된다. 기능이 운용자가 수행해야 할 역할들의 모임이라고 하면, 과업 은 운용자가 수행해야 하는 기본 단위이다. 그리고 각 과업 단위별로 과업의 발생 시점과 종점, 과업 수행 시 간, 과업 발생 조건, 과업 수행을 위해서 필요한 자원이 정의된다. 자원은 인간자원을 의미한다. 예를 들면, 시각 (Visual), 청각(Auditory), 지각(Cognitive), 동작(Psycho Motor)이다. 이를 줄여서 VACP라고 한다.

∙. 단계5(과업 모델링 및 시뮬레이션)

과업 모델링에서는 단계4에서 식별되고 정의된 과업 들의 수행 과정을 모델링 한다. 과업 모델링은 목표기능 별로 이루어진다. 목표기능별로 하향식으로 계층화된 단위 과업들을 대상으로 선후관계, 조건을 고려하여 과 업 네트워크를 형성한 후에 colored Petri-nets(CPN)로 모델링 한다[21]. 모델이 완성되면 CPN Tool[26]을 통해서 시뮬레이션을 수행한다.

∙. 단계6(결과분석 및 평가)

단계5의 과업 모델링 및 시뮬레이션을 통하여 운용자의 수와 작업부하에 대한 결과를 얻고, 이를 분석 평가한다.


4. 실험적 적용 결과

4.1. 문제 정의

본 논문의 목적상 관련 문제를 다음과 같이 고려한다. 다수의 차량형 로봇와 다수의 운용자로 이루어진 로봇 팀을 구성하여 감시정찰 임무를 수행할 때 운용자의 수 와 작업부하를 평가하여 최적의 운용자 수를 찾아 내는 것이다.

4.2. 가정

∙. 운용 시나리오

운용자는 임무수행을 위한 경로를 포함한 임무를 계 획하여(이는 제3단계인 목표기능 식별에서 목표기능1 “임무계획”이 됨), 감시정찰 임무를 통제한다(이는 목표 기능2 “임무통제”가 됨).

임무 수행간에 돌발 사태, 예를 들면 장애물 출현, 위 협 출몰 등이 발생하면, 운용자는 대응조치를 취한다(이 는 목표기능3 “돌발상황 조치”가 됨). 필요 시에는 경로 계획을 재조정할 수 있다. 한편, 차량주행은 자동으로 하되 돌발 사태가 발생하거나 임무 수행간에 정밀한 감 시가 요구되는 경우에는 수동으로 제어한다(이는 목표 기능4 “차량주행제어”가 됨).

∙. 자동화 수준

로봇의 자동화 수준은 Parasurman[7]의 자동화 수준의 8단계 수준 중에서 5단계(감시제어 반자동화 수준)로 운 용된다. 자동화 수준 5단계는 임무통제의 경우는 계획대 로 하되 돌발상황이 발생하거나 차량주행제어 상황이 요구되는 경우에는 로봇이 관심요구를 운용자에게 요청 하고 운용자가 이에 응답하는 방식이다.

∙. 사용자 인터페이스

차량형 로봇의 감시제어는 UI를 통해 이루어진다. UI 는 정보제공 패널과 제어패널로 구분된다. 정보제공 패 널에서는 로봇으로부터 전송된 정보가 전시된다. 그러 면 운용자는 이를 바탕으로 상황인식 및 평가를 통하여 행동방책을 결정하며, 제어패널의 버턴 혹은 아이콘을 선택함으로써 로봇에게 명령한다. Fig. 7은 UI의 패널구 분과 그 이름을 정의한 것이고, Fig. 8은 해당 패널의 UI 형상을 나타낸다. UI 형상은 Choi[28]와 Lee[29]의 논문을 근거로 본 연구 목적에 부합되게 일부 가상적으로 재 조정 된 것이다. 이들에 대해서 간략히 설명하면 다음과 같다.

Fig. 7

UI component definition

Fig. 8

Vehicle robot UI

Fig. 7에서 ①, ②, ③, ④, ⑤는 제어패널이고, ⑥, ⑦, ⑧, ⑨는 정보제공 패널이다. ①은 차량로봇의 팀 구성을 위한 패널이다. ②는 차량로봇 팀의 임무할당을 위한 패널이다. 여기서는 감시제어 임무이다. ③은 차량 로봇의 주행경로를 계획하기 위한 패널이다. ④는 차량 로봇의 임무수행간에 임무를 재 조정할 때 사용하는 패 널이다. ⑤는 임무수행간에 운용자가 차량로봇의 제어 권을 넘겨 받아서 수동으로 제어하기 위한 햅틱조종 패 널이다. 나머지는 정보제공 패널로써, ⑥은 전장을 포함 한 차량로봇 운용상황의 실시간 정보를 전시하는 패널 이다. ⑦은 차량로봇팀의 임무상태, 예를 들면 주행, 멈 춤, 임무수행 등을 전시하는 패널이다. ⑧은 차량로봇 시스템의 상태, 예를 들면, 남은 연료량, 가용한 탄의 수, 자가 고장진단 상태 등을 전시하는 패널이다. 그리고 ⑨ 는 운용자 통제기 상태를 표시하는 패널이다.

4.3. 목표기능 식별 및 운용자 과업 분석

운용 시나리오로부터 식별된 목표기능은 4.2의 운용 시나리오에서 표시한 바와 같이 4개 즉, 목표기능1-임무 계획(mission plan, MP), 목표기능2-임무통제(control mission, CP), 목표기능3-돌발상황 조치(control emergency situation, CES), 목표기능4-차량주행제어(control vehicle drive, CVD)이다. 그리고 각 목표기능을 분해하여 구성 된 하부기능은 Table 1에서 보는 바와 같이 15개이다. Table 1에서 두 번째 행의 첫 번째 열에 있는 GF1: mission plan(MP)는 목표기능 1을 의미하고, 그 이름은 mission plan이며 약어로는 MP로 사용한다는 의미이다. 한편, 두 번째 열에 있는 GF1-F1: monitor tactical situation은 목표기능1의 하부기능1을 의미하고, 그 이름 은 monitor tactical situation이라는 의미이다. 다른 것도 마찬가지로 같은 설명 형식을 따르고 있다.

List of goal functions and sub-functions

그리고 Table 1의 하부기능에서 더 분해된 운용자의 단위 과업은 총 60개로 확인되었다. Table 2는 이 중에서 목표기능4-차량주행제어(GF4: control vehicle drive)의 하부기능(GF4-F1: select vehicle of interest, GF4-F2: execute manual drive)의 단위 과업목록을 보여주고 있다. Table 2에서 GF4-F1은 앞서 설명한 바와 같이 목표기능4 의 하부기능1의 식별코드이고, GF-F1-T1은 GF4-F1의 단 위 과업 1이라는 의미이다. 다른 것도 마찬가지이다. Table 2에서 괄호의 약어는 Fig. 7의 UI 요소를 나타낸다.

Task list of GF4-F1, GF4-F2

4.4. 과업 모델링 및 시뮬레이션

과업 모델링은 4.3에서 식별한 과업들을 바탕으로 Petri-nets로 모델링 하는 것이다. 모델링 방법은 Fig. 9에 도식화 되어있다. 이를 상세히 설명하면 다음과 같다.

Fig. 9

CPN modeling method

Fig. 9는 Fig. 6에서 설명한 운용자 과업 계층구조와 CPN 모델의 계층구조를 상호 매칭한 그림이다. 여기서 보다시피, 운용자 과업 계층구조의 목표기능-하부기능- 과업은 각각 CPN Tool[26]에서 지원하는 CPN 계층구조 모델 즉, 페이지(Page), 서브페이지(Sub-Page), 그리고 Petri-nets 요소와 상호 매칭할 수 있기 때문에, 운용자 과업을 CPN 계층구조로 1:1로 전환하여 모델링 하였다.

Fig. 10은 운용자 과업을 CPN 계층구조 모델로 전환 하여 모델링을 수행한 결과를 보여주고 있다. Fig. 10에 는 4개의 계층으로 구분되어 있는데, 각각의 계층은 Table 1의 각 목표기능을 CPN모델 페이지로 모델링 한 것이다. 가장 위의 페이지 GF1 Page는 목표기능1-임무 계획(GF1: mission plan, MP)을 모델링 한 것이다. 두 번째는 목표기능2-임무통제(GF2: mission control, MC) 에 대한 모델링이고, 세 번째와 네 번째는 각각 목표기능 3-돌발상황조치(GF3: control emergency situation, CES) 와 목표기능4-차량주행제어(GF4: control vehicle drive, CVD)를 모델링 한 것이다.

Fig. 10

Petri-nets for the operator tasks

Fig. 10의 가장 위의 페이지 GF1 Page 내에 4개의 서 브 페이지는 목표기능1-임무계획(GF1: mission plan, MP)의 서브 기능 즉, GF1-F1: monitor tactical situation, GF1-F2: monitor team status, GF1-F2: monitor team status, 그리고 GF1-F4: replan auto-pilot를 나타낸다. 이는 Table 1의 것이다. Fig. 10의 해당 그림에서 별도 2개의 트랜지션이 더 있는 데, 이는 운용자의 의사결정 트랜지 션을 나타낸다. 첫 번째 의사결정 트랜지션(MP Decision1) 은 GF1-F2(monitor team status)에 이어서 수행되며, 2가 지의 선택 경우가 있다. 계속 모니터링 하는 경우 혹은 임무모드를 재설정 하는 경우이다. 이는 확률적으로 이 루어진다. 두 번째 의사결정 트랜지션(MP Decision2)도 마찬가지로 2가지 선택의 경우인데 기존 경로의 계획대 로 하는 경우와 경로를 변경하는 경우이다.

Fig. 10의 두 번째, 세 번째, 그리고 네 번째 페이지 즉, GF2 Page, GF2 Page, 그리고 GF3 Page도 GF1의 것과 유사하게 이해할 수 있다.

한편, Fig. 10의 CPN 계층구조 모델의 각 페이지는 좌 상단의 AttentionReq 트랜지션과 모두 연결되어 있음 을 알 수 있다. 이는 운용자 목표기능의 모의가 여기로부 터 시작된다는 의미이다. 즉, UI의 정보패널에서 제공되 는 정보를 바탕으로 운용자의 상황인식과 판단으로 목 표기능(GF1, GF2, GF3 혹은 GF4)이 결정되고 수행이 시작되는 것이다. 이는 몬테칼로 방식으로 모델링되어 있다. 목표기능 발생시간과 발생했을 때 어떤 목표기능 에 해당되는 것인가는 확률적이다.

또한, Fig. 10의 두 번째 페이지 GF2 Page의 맨 우측에 있는 IssueCmd 트랜지션이 있는데 이는 목표기능 수행 결과로 차량로봇에게 전달되는 명령을 나타낸다. 각 목 표기능의 수행결과는 차량로봇을 제어하기 위한 명령이 기 때문이다.

한편, 각 목표기능 페이지의 서브페이지는 해당 서브 페이지 별로 상세하게 Petri-nets 모델링이 되는데, 예를 들면, Fig. 11은 목표기능4 페이지의 두 번째 서브페이지 (GF4-F1: select vehicle of interest)의 상세 Petri-nets을 보여준다. 여기서는 Table 2에서 설명한 과업 GF4-F1-T1, GF4-F1-T2, GF4-F1-T3 과업의 해당 Petri-nets이다. 그 리고 각 플레이스는 각 관련 과업을 수행하기 위해서 요구되는 인간자원요소인 VACP 수준을 나타낸다. 참고 로 VACP 수준을 나타내는 데에는 편의상 10단위를 사 용하였다. 예를 들어서 시각(Visual) 자원이 0.7이라고 하면 모델링 상에는 7로 표현되었다는 의미이다. 이는 CPNTool에서 정수만 다루어지기 있기 때문이다. 그러 나 결과 해석은 10을 나누어서 한다.

Fig. 11

CPN modeling of GF4-F1

4.5. 결과분석 및 평가

∙. 입력 데이터

시뮬레이션을 위한 입력 데이터는 4.4에서 모델링된 운용자 과업모델의 각 과업에 대한 데이터로써 과업수 행에 요구되는 운용자의 인간자원 데이터(VACP, Visual, Auditory, Cognitive, Psychomotor), 그리고 각 과업의 수 행시간이 있다. Table 3은 각 목표기능별 관련 과업에 대한 입력 데이터들이다. 예를 들어서 Table 3의 세 번째 행의 “T1:check DOI(MDU)”를 보면, 이는 목표기능 GF1-F1 수행과 관련된 과업으로써 Fig. 7의 정보전시 패널 ⑥ 즉, 다중전시유니트(MDU, Multi Display Unit) 에 있는 관심전시기(DOI, Display of Interest)를 체크하 는 과업을 의미한다. 그리고 이 과업을 수행하는 데에는 시각(Visual)부하수준은 7.0, 지각(Cognitive)부하 수준 은 3.7이 소요되고,과업수행 시간은 일양분포(1,2)를 따 른다는 의미이다. 시간단위는 초 단위이다. 다른 과업들 도 마찬가지이다.

Input date set for CPN simulation

∙. 결과 분석 및 평가

결과분석을 위해서 먼저, 로봇팀의 감시정찰 임무시 간을 30분으로 설정하여 시뮬레이션을 수행하였다. 목 표기능 이벤트 발생은 임무 수행간에 각 로봇으로부터 비롯되는데, 연구 목적상 통합적으로 4개의 목표기능 이 벤트는 각각 상호독립적으로 발생하고 발생확률은 Table 4와 같이 가정하였다. 한편, 목표기능 이벤트의 발생시간은 지수분포로 가정하고 평균을 각각 10, 20, 30단위시간(초 단위)으로 구분하여 3가지의 경우(경우1 에서 경우3까지)로 나누어 실험을 하였다. 또한 각 경우 마다 운용자를 1명부터 4명까지 증가시키면서 각 목표 기능 이벤트의 처리시간과 미처리 이벤트의 수, 그리고 작업부하를 측정하였다.

Probability of the goal function events

Fig. 12와 Fig. 13은 경우1의 실험결과이고, Fig. 14와 Fig. 15는 경우2의 실험결과이다. 그리고 Fig. 16과 Fig. 17 은 경우3의 결과이다.

Fig. 12

Throughput time for Case1

Fig. 13

Missing number of the goal function events for Case1

Fig. 14

Throughput time for Case 2

Fig. 15

Missing number of the goal function events for Case 2

Fig. 16

Throughput time for Case 3

Fig. 17

Missing number of the goal function events for Case 3

목표기능 이벤트의 처리시간과 관련해서 Fig. 12, Fig. 14, Fig. 16을 보면 운용자 수와 관계없이 각 목표기능 처리시간 별로 거의 비슷함을 알 수 있다. 이는 운용자 수와 관계없이 단위 목표기능 수행시간은 거의 동일하 다는 의미이다.

미처리 이벤트는 원격 차량로봇으로부터 관심요청이 있었지만 이에 응하지 못한 경우인데, 이는 목표기능 이 벤트의 발생 시간분포에 따라 많은 차이가 남을 알 수 있다. 경우1(목표기능 이벤트 발생시간이 평균 10인 지 수분포)에는 운용자가 4명 정도되어야 완벽하게 처리가 가능함을 알 수 있고, 경우2와 경우3(목표기능 이벤트 발생시간이 각각 평균 20, 30인 지수분포)에는 운용자가 2명 정도면 충분히 처리할 수 있음을 보여주고 있다. 이 러한 결과는 운용 통제센터의 운용자 수를 결정하는 데 에 참고될 수 있다.

한편, 오퍼레이터의 인지자원도 각 경우마다 많은 차 이를 보였다. 예를 들어서 Fig. 18은 경우1에서 운용자가 3명인 경우에 각 목표기능 이벤트 처리시에 요구된 VACP수준을 나타낸다. 여기서 볼 때 Psychomotor가 큰 차이를 보이고 있는데, 특히 CVD(차량 주행제어) 경우 에 다른 것에 비해 큰 것을 알 수 있다. 그러나 전반적인 수준으로 볼 때 모두 한계 부하수준인 7보다 훨씬 작기 때문에 3명으로 운용했을 때, 운용자의 작업부하는 크지 않음을 알 수 있다. 그런데 7보다 큰 경우라면 작업부하 가 크기 때문에 임무수행의 비효율성을 초래할 수 있다 는 의미가 된다.

Fig. 18

Average VACP required to perform goal functions


5. 결 론

본 고에서는 군사 로봇이 감시제어 형태로 운용될 때, 운용자 역량을 분석할 수 있는 방법을 제안하였다. 제안 된 방법은 운용자 관점에서 수행해야 하는 목표기능을 하향식으로 분해하여 운용자 단위과업을 식별하고 이를 Petri-nets기반의 모델링 및 시뮬레이션으로 운용자 역량 을 분석하는 것이다. 그러나 본 연구를 수행함에 있어서 다음과 같은 제한사항이 있었다. 첫 번째, 과업수행에 요구되는 VACP를 얻는 데에 어려움이 있었다. 이는 응 답자의 경험을 바탕으로 얻어지며, 응답자의 경험이 다 르기 때문에 객관성을 얻기가 쉽지 않다. 또한 운용자의 숙련도와 생체학적 특성에 따라 다를 수 있는 것이다. 그래서 이러한 특성 들을 반영한 객관화된 방법이 필요 하였다. 또한 실제 실험값과 비교분석을 통해서 제안된 방법에 대한 검증이 이루어져야 하나 실험환경의 제한 으로 수행되지 못하였다. 향후에 이들에 대한 연구가 추 가적으로 수행될 것이며, 그 결과 들은 미래 무인차량 연구개발에서 운용자 통제소 설계나 운용자 수를 결정 하는 데에 유용하게 활용될 수 있기를 기대한다.

Acknowledgments

This project was supported by a research program(The Specialized Research Center for Future Ground System Analysis) funded by the Agency of Defense Development of Korea and we appreciate it.

References

  • Gorman, RO, Abbott, C, Remote control war, (2013).
  • Chen, JY, Barnes, MJ, Harper-Sciarini, M, “Supervisory control of multiple robots: Human performance issues and user-interface design”, Systems Man and Cybernetics Part C: Applications and Reviews IEEE Transactions on, (2011), 41(4), p435-454. [https://doi.org/10.1109/TSMCC.2010.2056682]
  • Jordan, BM , , “Human-Robot Interaction Literature Review”, DRDC No. CR-2012-083, (2012), Department of National Defense, Canada.
  • Oslen, D R Jr, “Stephen Bart Wood. Fan-out: Measuring Human Control of Multiple Robots”, CHI 2004, (2004), April, Vienna, Austria, p24-29.
  • Michael, B, Florian, J, “Human-Robot Interactions in Future Military Operations”, (2010), MPG Books Group, UK.
  • Hendy, KC, Farrell, PS, “Implementing a Model of Human Information Processing in a Task Network Simulation Environment”, (1997), Canadian Department of National Defense, Defense and Civil Institute of Environmental Medicine, North York, Ontario, Canada M3M 3B9, Technical Report DCIEM No.97-R-71 .
  • Parasurman, R , , “A model for types and levels of human interaction with automation”, IEEE Transactions on Systems Man and Cybernetics-Part A: Systems and Humans, (2000), p286-297. [https://doi.org/10.1109/3468.844354]
  • Endsley, MR, “Toward a Theory of Situation Awareness in Dynamic System”, Human Factors, (1995), 37(1), p32-64. [https://doi.org/10.1518/001872095779049543]
  • Henk, AP , , “On the Integration of Human Performance and Collision Risk Simulation Models of Runway Operation”, NLR, Amsterdam.
  • Patricia, W , , “A Platoon-Level Model of Communication Flow and the Effects on Operator Performance”, ARLMR-0656, (2006).
  • Tina, M , , “Predicting Performance and Situation Awareness of Robot Operators in Complex Situations by Unit Task Tests”, ACHI 2012: The Fifth International Conference on Advances in Computer-Human Interactions, (2012).
  • Cummings, ML, Mitchell, PJ, “Predicting controller capacity in supervisory control of multiple UAVs”, Systems, Man and Cybernetics, Part A: Systems and Humans, IEEE Transactions on, (2008), 38(2), p451-460. [https://doi.org/10.1109/TSMCA.2007.914757]
  • Breslow, LA , , “Dynamic Operator Overload: A Model for Predicting Workload During Supervisory Control”, Human-Machine Systems IEEE Transactions on, (2014), 44(1), p30-40. [https://doi.org/10.1109/TSMC.2013.2293317]
  • Wickens, , “Engineering Psychology and Human Performance”, (2013), Pearson Education, Inc, New York, p3-6.
  • McCrasken, JH, Aldrich, TB, “Analysis of selected LHX mission functions: Implications for operator workloadand system automation goals”, Technical Note ASI479-024-84, (1984), Fort Rucker, AL, Army Research Institute Aviation Research and Development Activity.
  • Keller, J, “Human Performance Modeling For Discrete- Event Simulation: Workload”, In Proceedings of the 2002 Winter Simulation Conference, (2002). [https://doi.org/10.1109/wsc.2002.1172879]
  • Hart, SG, “Development of NASA-TLX (Task Load ndex): Results of Empirical and Theoretical Research”, Moffett Field. California, NASA-Ames Research Center.
  • Hollnagel, E, Woods, D, “Joint Cognitive Systems”, (2005), CRC Press, p149-155. [https://doi.org/10.1201/9781420038194.ch6]
  • Carson, II JS, “Introduction to Modeling and Simulation”, In Proceedings of the 2004 Winter Simulation Conference, (2004). [https://doi.org/10.1109/wsc.2004.1371297]
  • Borshchev, A, “The Big Book Simulation Modeling”, (2013), Anylogic North America, p60-63.
  • Kurt, Jensen, Coloured Petri Nets, (2009), Springer.
  • Brett, BE , , “The Combat Automation Requirements Testbed Task1 Final Report: Implementation Concepts and an Example”, Interim Report Human Effectiveness Directorate Crew System Interface Division 2255 H Street Wright-Patterson AFB, OH 45433-7022, (2000).
  • Catherine, DB, “Advanced Uses for MICRO SAINT Simulation Software”, Proceedings of the 1997 Winter Simulation Conference, (1997).
  • Choi, S-Y, “Application of Agent-Based Multi-Method Simulation Approach to the Simulation Testbed Prototype for the Concept Exploration and Requirement Analysis of UGV”, Proceedings 29th European Conference on Modeling and Simulation, (2016).
  • AnyLogic Inc, ‘AnyLogic Home’, Available:http://www.anylogic.com/agent-based-modeling [Accessed: December 1, 2016], (2016).
  • Eindhoven University of Technology, 'CPN Tools Home', Available: http://cpntools.org/gettingstarted/start [Accessed: December 1, 2016], (2016). [https://doi.org/10.7746/jkros.2015.10.3.139]
  • Jeong, H-I, Hong, N-M, Woo, C-J, Lee, J-M, “Cooperative Control of Mobile Robot for Carrying Object”, Journal of Korea Robotics Society, (2015), 10(3), p139-145.
  • Choi, D-K, Lee, C-W, Lee, C-j, “A Graphical User Interface Design for Surveillance and Security Robot”, Journal of Korea Robotics Society, (2015), 10(1), p024-032.
  • Lee, H-J, Park, W-I, Kim, D-J, “Unit Mission Based Mission Planning and Automatic Mission Management for Robots”, Journal of the KIMST, (2014), 17(1), p1-7. [https://doi.org/10.9766/kimst.2014.17.1.001]
최 상 영

1982 육군사관학교

1989 (영)크랜필드 공대 체계과학(박사)

1989 ~ 2014 국방대학교 국방과학 교수

2014 ~ 현재 명지대학교 국방공학센터 연구 교수, 한성대학교 국방과학대학원 겸임 교수

관심분야: Defense Modeling and Simulation, System Engineering, Human-Robot Interaction

양 지 현

2000 서울 대학교(공학사)

2007 MIT 공대 인간공학(박사)

2015 ~ 현재 국민대학교 자동차 공학과 교수

관심분야: Robotics and Human Factors

Fig. 1

Fig. 1
Human-robot interactions

Fig. 2

Fig. 2
Relationship of HIP model and SA

Fig. 3

Fig. 3
Levels of supervisory control

Fig. 4

Fig. 4
Steps for operator capacity assessment

Fig. 5

Fig. 5
Operator capability, UI, and autonomy

Fig. 6

Fig. 6
Operator task hierarchy

Fig. 7

Fig. 7
UI component definition

Fig. 8

Fig. 8
Vehicle robot UI

Fig. 9

Fig. 9
CPN modeling method

Fig. 10

Fig. 10
Petri-nets for the operator tasks

Fig. 11

Fig. 11
CPN modeling of GF4-F1

Fig. 12

Fig. 12
Throughput time for Case1

Fig. 13

Fig. 13
Missing number of the goal function events for Case1

Fig. 14

Fig. 14
Throughput time for Case 2

Fig. 15

Fig. 15
Missing number of the goal function events for Case 2

Fig. 16

Fig. 16
Throughput time for Case 3

Fig. 17

Fig. 17
Missing number of the goal function events for Case 3

Fig. 18

Fig. 18
Average VACP required to perform goal functions

Table 1

List of goal functions and sub-functions

Goal Function Sub-Functions
GF1: missionplan (MP) GF1-F1: monitor tactical situation
GF1-F2: monitor team status
GF1-F3: reset mission mode
GF1-F4: re-plan auto-pilot
GF2 : missioncontrol (CM) GF2-F1: monitor vehicle attention request
GF2-F2: monitor vehicle driving
GF2-F3: monitor tactical situation
GF2-F4: response to vehicle attention request t
GF3 : control emergent situation (CES) GF3-F1: monitor tactical situation
GF3-F2: perceive threat
GF3-F3: evaluate threat situation
GF3-F4: select evasion strategy gy
GF3-F5: execute evasion strategy
GF4 : control vehicle drive (CVD) GF4-F1: select vehicle of interest
GF4-F4: executemanual drive

Table 2

Task list of GF4-F1, GF4-F2

Functions Tasks (Physical Form)
GF4-F1: select vehicle of interest GF4-F1-T1: check vehicle id (VDPP)
GF4-F1-T2: select vehiclei d (VDPP)
GF4-F1-T3: select drivemode(VDPP)
GF4-F2: execute manual drive GF4-F2-T1: check mission interim control (MICP)
GF4-F2-T2: select Execution Button (MICP)
GF4-F2-T3: drive right Button
GF4-F2-T4: drive left Button
GF4-F2-T5: drive acceleration Button
GF4-F2-T6: drive stop Button

Table 3

Input date set for CPN simulation

Operator Task V A C P Time
GF1-F1: monitor tactical situation
 T1: check DOI (MDU) 7.0 3.7 U(1,2)
 T2: select TSD as DOI (MDU) 5.9 3.7 7.0 U(1,3)
 T3: check team operation (MDU) 7.0 6.8 U(15,20)
GF1-F2: monitor team status
 T1: check c2 text message (TSD) 5.9 3.7 U(1,3)
 T2: check c2 audio message (Audio) 4.9 4.6 U(1,2)
 T3: check team coordination (TSD) 7.0 7.0 U(15,20)
 T4: check team member status (MUT) 5.9 3.7 U(2,5)
GF1-F3: select vehicle mission interim mode
 T1: evaluate team mission (TSD) 7.0 7.0 U(15,20)
 T2: determine team interim action (MCD) 3.7 3.7 U(1,2)
 T3: select team interim action (MICD) 7.0 6.8 7.0 U(1,2)
GF1-F4: replan auto-pilot
 T1: check vehicle driver mode (VDPP) 5.9 3.7 U(1,3)
 T2: select vehicle of interest (VDPP) 7.0 3.7 U(1,3)
 T3: check DOI (MDU) 7.0 3.7 U(1,2)
 T4: select 2D as DOI (MDU) 5.9 3.7 U(1,3)
 T5: select Re-plan (Re-plan Btn, VDPP) 7.0 6.8 U(1,3)
 T6: put cursor on waypoint (Cursor Controller,2D) 7.0 5.3 U(15,20)
 T7: put cursor on release point (Cursor Crlter,2D) 6.8 7.0 U(1,2)
 T8: evaluate replan (TSD) 3.7 6.8 U(15,20)
 T9: accept replan (accBtn, VDPP) 3.7 6.8 U(1,2)
 T10: cancel (cnclBtn, VDPP) 3.7 6.8 U(1,2)
GF2-F1: monitor vehicle attention request
 T1: monitor vehicle att request (VCP) 7.0 6.8 U(1,3)
GF2-F2: monitor vehicle driving
 T1: select vehicle of interest (VSD) 7.0 U(1,3)
 T2: check speed limit (VSD) 7.0 3.7 U(1,2)
 T3: check current speed (VSD) 7.0 3.7 U(1,2)
 T4: check pitch (VSD) 7.0 3.7 U(1,2)
 T5: check yaw (VSD) 7.0 3.7 U(1,2)
 T6: check roll (VSD) 7.0 3.7 U(1,2)
 T7: check fuel (VSD) 7.0 3.7 U(1,2)
GF2-F3: monitor tactical situation
 T1: check mission area (TSD) 7.0 6.8 U(2,5)
 T2: check for threats (TSD) 7.0 6.8 U(8,10)
 T3: check range bearing (TSD) 7.0 6.8 U(13,15)
GF2-F4: response to vehicle attention request
 T1: select permission (VCP) 5.9 6.8 7.0 U(1,2)
 T2: select rejection (VCP) 5.9 6.8 7.0 U(1,2)
 T3:other (VCP) 5.9 6.8 7.0 U(1,2)
GF3-F1: monitor tactical situation
 T1: check DOI (MDU) 7.0 3.7 U(1,2)
 T2: select TSD as DOI (MDU) 5.9 3.7 7.0 U(1,3)
 T3: check team operation (MDU) 7.0 6.8 U(15,20)
GF3-F2: perceive threat
 T1: check DOI (MDU) 7.0 3.7 U(1,2)
 T2: check threat 7.0 6.8 U(8,10)
GF3-F3: evaluate threat situation
 T1: identify current threat(s) (TSD) 7.0 6.8 U(8,10)
 T2: prioritize threat (TSD) 7.0 6.8 U(8,10)
GF3-F4: select evasion strategy
 T1: select vehicle (VSD) 7.0 3.7 U(1,2)
 T2: determine mission interim change (MICP) 3.7 6.8 U(15,20)
 T3: determine jockey maneuver (VCP) 3.7 6.8 U(1,2)
 T4: check vehicle driver mode (VDPP) 3.7 3.7 U(1,2)
 T5: select drive mode (VDPP) 5.9 6.8 U(1,2)
GF4-F1: select vehicle of interest
 T1: check vehicle id (VDPP) 7.0 3.7 U(1,2)
 T2: select vehicle (VDPP) 7.0 3.7 U(1,3)
 T3: select drive mode (VDPP) 7.0 6.8 7.0 U(1,3)
GF4-F2 execute manual drive:
 T1: check mission interim control(MICP) 7.0 6.8 U(1,2)
 T2: select Execution Button (MICP) 7.0 6.8 U(1,2)
 T3: drive right Button (VCP) 7.0 3.7 7.0 U(15,20)
 T4: drive left Button (VCP) 7.0 6.8 7.0 U(15,20)
 T5: drive acceleration Button (VCP) 7.0 6.8 7.0 U(15,20)
 T6: drive stop Button (VCP) 7.0 6.8 7.0 U(15,20)

Table 4

Probability of the goal function events

Goal Function Probability
Mission Plan (MP) 0.1
Mission Control (MC) 0.3
Control Emergency Situation (CES) 0.2
Control Vehicle Drive (CVD) 0.4