Journal Search Engine
Search Advanced Search Adode Reader(link)
Download PDF Export Citaion korean bibliography PMC previewer translate in English
ISSN : 1975-6291(Print)
ISSN : 2287-3961(Online)
Journal of Korea Robotics Society Vol.15 No.2 pp.169-176
DOI : https://doi.org/10.7746/jkros.2020.15.2.169

A Comparative Study on Collision Detection Algorithms based on Joint Torque Sensor using Machine Learning

Seonghyeon Jo1, Wookyong Kwon
1MS Students, Kyungpook National University, Daegu, Korea
(nwilliterate@knu.ac.kr)
Researcher, Corresponding author: Daegu-Gyeongbuk research center, Electronics and Telecommunications Research Institute (ETRI), Daegu, Korea (wkwon@etri.re.kr)
20200122 20200218 20200221

Abstract


This paper studied the collision detection of robot manipulators for safe collaboration in human-robot interaction. Based on sensor-based collision detection, external torque is detached from subtracting robot dynamics. To detect collision using joint torque sensor data, a comparative study was conducted using data-based machine learning algorithm. Data was collected from the actual 3 degree-of-freedom (DOF) robot manipulator, and the data was labeled by threshold and handwork. Using support vector machine (SVM), decision tree and k-nearest neighbors KNN method, we derive the optimal parameters of each algorithm and compare the collision classification performance. The simulation results are analyzed for each method, and we confirmed that by an optimal collision status detection model with high prediction accuracy.



기계학습을 이용한 Joint Torque Sensor 기반의 충돌 감지 알고리즘 비교 연구

조 성현1, 권 우경

초록


    Electronics and Telecommunications Research Institute

    1. 서 론

    제4차 산업 혁명 시대가 도래하면서, 기존의 산업용 로봇이 아닌 인간과 협력이 가능한 로봇인 협동 로봇(Cobot, Collaboration Robot)이 등장했다[1]. 협동 로봇은 기존의 정형화된 작업뿐만 아니라 사람과 공간을 공유하여 능동적인 업무를 수행할 수 있다. 그만큼 로봇은 작업자와의 물리적 접촉이 불가피하며, 이에 따른 작업 중의 사람과 로봇의 충돌에 대한 연구가 많이 진행되고 있다[2].

    로봇의 충돌은 크게 사전 충돌, 감지, 분리, 인지, 분류, 반응, 충돌 후로 총 7단계의 프로세스로 나눌 수 있다. 하지만 일반 적으로 로봇은 인간보다 빠르게 움직이기 때문에 사전에 충돌 을 보장하기 어렵다[3]. 따라서 본 논문에서는 로봇 충돌의 주 요 단계인 충돌 감지에 대해서 크게 중점을 둔다. 충돌 감지는 로봇과 인간의 물리적인 접촉으로 인한 부상을 최소화하기 위 해 실시간으로 로봇의 충돌 발생 여부를 감지하는 단계이다. 이 단계에서는 최소한의 오탐지와 민감한 충돌 감지를 위해 신호에 임계치를 선택하는 방법이 가장 실질적이며, 사용하는 신호에 따라 크게 센서리스 충돌 감지 방식과 센서 기반의 충 돌 감지 방식으로 접근할 수 있다[3,4].

    센서리스 충돌 감지는 외부 센서를 이용하지 않고 내장된 모터와 제어기의 정보만을 사용하여 사람과 로봇의 충돌을 감 지하는 것이다. 대표적으로 전류 신호 기반의 충돌 감지는 실 제 모터의 전류와 예상되는 전류의 차이 또는 관측기 설계 기 반으로 충돌을 감지하는데, 토크의 임계 값이 낮을수록 부정 확하고 외력 추정을 위한 복잡한 연산으로 응답속도가 느리다 [5,6]. 이를 개선하기 위한 방법으로 모멘텀 기반의 센서리스 충 돌 감지가 있으며, 로봇의 동역학과 마찰 모델을 이용하여 로 봇의 충돌을 감지한다. 그러나 복잡한 수식과 연산을 필요로 하고 시스템 모델의 오류를 줄어야 한다[7-9]. 대부분의 센서리 스 충돌 감지는 센서 기반의 충돌 감지에 비해 외부 센서를 이 용하지 않아 비용이 경제적이지만 모델의 정확성이 떨어지며, 응답 속도가 느리기 때문에 충돌 감지 성능이 떨어진다. 또한 관절의 마찰력은 시간에 따라 변화하며 비선형성을 띠어 정확 히 추정하는 데 한계가 있다.

    센서 기반의 충돌 감지는 광범위하게 연구되고 있다. 그 예 로서, 비전 센서를 이용한 충돌 감지는 충돌이 발생하기 전 로 봇의 궤적을 감속 및 변경함으로써 충돌을 사전에 방지할 수 있다. 하지만 카메라의 위치를 자세히 조정할 필요가 있고 인 지 영역에서 다소 부정확하다[10-12]. 또 다른 방법인 촉각 센서 를 이용한 충돌감지는 로봇의 모든 부분에서 충돌을 감지할 수 있으나 센서의 배선이 많이 복잡하고 계산해야 될 센서의 데이터양이 많아 큰 연산량이 필요하다[13]. 이에 비해 토크 센 서는 관절 별로 부착되어 센서의 데이터가 많지 않고 출력부 에서 측정하기 때문에 토크의 마찰항을 무시할 수 있어 외력 을 추정하기 쉽다[14]. 이러한 이유로 토크 센서 기반의 충돌 감 지가 주목을 받고 있으며, 충돌 감지의 정확도와 민감도를 높 이기 위해서는 토크 센서를 이용하여 충돌 감지 알고리즘을 설계해야 한다.

    많은 센서 기반의 충돌 감지 알고리즘들은 정적 임계치를 기준으로 하여 충돌을 감지한다[5-7,9,13]. 하지만 정적 임계치를 높게 설정하면 충돌에 둔감하여 임계치 미만의 미세한 충돌은 감지할 수 없으며, 반대로 임계치를 낮게 설정하면 잦은 오탐 지로 작업의 효율을 떨어트리게 된다[15]. 따라서, 이러한 문제 점을 보완하기 위해서 본 논문에서는 동적 임계치를 기준으로 하여 충돌을 분류하고 신호 처리에서 많이 사용되고 있는 기 계학습 기법 중 하나인 분류 알고리즘을 적용하여 충돌 감지 알고리즘을 제안한다.

    제안 방법론으로는 크게 3단계로 1) 데이터 수집 및 전처리, 2) 충돌 감지를 위한 분류 모델 개발, 3) 최적의 충돌 판별 모델 선정으로 프로세스를 진행하였다. 이를 위해, 조인트 토크 센 서를 이용하여 매니퓰레이터의 외력을 수집하였다. 수집된 데 이터는 충돌(Collision)과 비충돌(Non-collision) 두 가지 상태 로 정의하였으며, 지도 학습 알고리즘인 KNN, DT, SVM을 사용하여 학습시켰다. 또한 학습된 모델을 가지고 각각의 Hyperparameter을 선정하여 최적화함으로써 최적의 모델을 비교 분석하여 충돌 감지 알고리즘을 설계하였다.

    2. 연구 대상 및 데이터 처리

    본 장에서는 충돌 감지 연구의 대상과 정의된 충돌 상태 분 류를 하기 위한 데이터 수집 및 전처리 과정을 소개한다.

    2.1 연구 대상 구성

    본 연구에서는 충돌 감지 알고리즘을 구현하기 위하여, [Fig. 1]과 같은 형태의 3-DOF 매니퓰레이터를 바탕으로 연구를 진행한다. 이 매니퓰레이터는 직접 제작되었으며, Harmonic Drive를 3개를 사용하여 3자유도를 가진다. 최대 도달거리는 1410 mm이며, 무게는 48 kg, 하중은 10 kg이다. 액츄에이터는 아래 [Table 1]과 같이 500 W MR32와 300 W MR25 모터를 사 용했고, 감속을 위하여 100:1 기어비를 갖는 삼익 HDS의 SHG-25-100과 SHG-32-100 모델의 고 토크용 하모닉 드라이 브를 사용한다.

    토크 센서는 하모닉 드라이브에 직결되도록 구성되어 있으며, 위 [Table 2]와 같이 AL Robot사에 TSR-0200S와 TSR-0100S 를 사용한다. 또한, 아래 [Fig. 2]는 토크 센서(위)와 전류 신호로 추정된 토크(아래)를 비교하는 그래프이다. 토크의 Peak를 비 교했을 때, 토크 센서의 Peak가 전류 신호로 추정된 토크보다 약 0.4 Nm 차이가 있다는 것을 알 수 있으며, 이는 충돌 감지 시에 토크 센서 신호가 전류 신호로 추정된 토크보다 미세한 충돌을 판별할 수 있어 충돌 판별에 적합하다는 것을 알 수 있 다. 전류 신호로 추정 토크를 구하는 수식은 아래 식 (1)과 같 다. τcs은 전류 신호로 추정된 토크이고 Kt는 토크 상수, I 는 전 류 신호이다. 1축과 2축은 동일한 모터를 사용하였으며, 토크 상수 값은 각각 1축, 2축은 Kt = 0.1768, 3축은 Kt = 0.1461의 값을 가진다.

    τ c s = K t I
    (1)

    2.2 데이터 수집

    충돌 감지 알고리즘을 구현하기 위해 데이터 수집은 앞서 3-DOF 매니퓰레이터를 가지고 20 m3 크기의 공간에서 실험을 수행한다. 매니퓰레이터는 EtherCAT 통신으로 1 ms 단위로 다양한 항목의 데이터를 모니터링할 수 있으며, 본 실험에서 는 시간, 각 관절 별 위치, 전류 신호, 토크 센서 신호 등의 총 19 개의 항목을 수집하고 1 ms 간격으로 신호를 저장한다.

    충돌 실험은 작업자와 충돌이 잦은 2축과 3축을 집중적으 로 충돌시켰으며, 매니퓰레이터의 위치마다 로봇 동역학 모델 의 오차가 발생하기 때문에 각기 다른 각도에서 실험을 진행 한다. 위치는 300번 정도 옮기면서 데이터 수집했으며, 각 위 치마다 토크 센서를 기준으로 일정 거리를 두어 7번 충돌시켰 다. 관측된 충돌은 총 2100번이며, 관측 데이터 셋으로는 1,400,000개를 가지고 연구를 진행한다.

    2.3 데이터 전처리

    로봇의 충돌에 대해서 판별하기 위해서는 수집한 데이터로 부터 외부에서 발생한 토크를 검출해야 한다. 따라서 다음 식 은 조인트 토크 센서로부터 외부 토크를 수집하기 위한 로봇 매니퓰레이터의 동역학식이다.

    M ( q ) q ¨ + C ( q , q ˙ ) q ˙ + g ( q ) = τ j τ e x t
    (2)

    식 (2)의 각 매트릭스는 관성, 구심력, 중력을 나타내며, τj 는 조인트 토크 센서로 관측한 토크이고 τext는 외부에서 발생 된 토크이다.

    τ e x t = τ j f ( q , q ˙ , q ¨ ) = τ ^ e x t τ e r r
    (3)

    식 (3)에서 f는 Newton-Euler 공식을 이용하여 관절의 위치, 속도, 가속도를 통해 동역학 모델의 토크를 계산한다[16]. τerrf에서 구해진 동역학 모델과 실제 동역학 모델의 차이이다. 추 정된 τ ^ e x t 로부터 충돌의 감지하기 위해서는 임계치를 설정해야 하며, 다음과 같이 동적 임계치에 따라 충돌 여부를 설정한다.

    μ ( t ) { T r u e , F a l s e } μ i ( t ) = { T r u e , if | μ i ( t ) | > k , F a l s e , if | μ i ( t ) | k μ ( t ) = [ μ 1 ( t ) , μ 2 ( t ) , , μ p ( t ) ]
    (4)

    식 (4)에서 μ(t)는 모니터링 신호를 나타내며, t는 함수의 수집된 신호의 시간이며, k은 충돌 판별을 판별하기 위한 k번 째 충돌의 동적 임계치를 나타낸다[5].

    τ ^ e x t 을 동적 임계치로 충돌을 감지해도 [Fig. 3]과 같이 잔여 진동으로 인해 충돌 한 번에 여러 번 감지하게 된다. 따라서, 다음과 같이 k번째 충돌이 시작된 시간과 끝나는 시간으로 충 돌 범위를 설정한다.

    T ( x k ) = { 1 , if t s t a r t x k t e n d 0 , o t h e r w i s e
    (5)

    식 (5)는 T는 시간에 따른 k번째 충돌이 일어난 여부를 0과 1로 나타내며, tstart, tend는 k번째 충돌이 시작하는 시간과 끝 나는 시간을 나타낸다.

    본 연구에서는 각 축의 센서로부터 추정된 τ ^ e x t 의 최대 토 크의 범위가 각기 다르기 때문에 정규화 과정이 필요하다. 따 라서 본 연구에서는 수식 식 (6)과 같이 표준화를 수행하였다.

    τ ^ n = τ ^ n min ( τ ^ n ) max ( τ ^ n ) min ( τ ^ n ) ( n = 1 , 2 , 3 )
    (6)

    앞선 데이터 전처리를 통해 [Fig. 3]과 같이 조인트 토크 센 서에 따른 충돌 여부를 분류한다. 또한 충돌 여부에 따른 데이 터를 충돌(Collision)과 비충돌(Non-collision)으로 나누어 저 장하며 다음 장에서 충돌 판별 알고리즘 개발을 위한 응답 변 수로써 사용된다.

    3. 충돌 감지를 위한 충돌 판별 모델 개발

    본 장에서는 충돌 판별을 위해 분류 알고리즘인 KNN, DT, SVM를 검증, 모델 평가를 소개하고 설명한다.

    3.1 분류 알고리즘

    기계 학습은 크게 지도학습, 비지도학습, 강화학습의 세 가 지 범주로 나눌 수 있는데, 본 논문에서 다루는 분류알고리즘 은 지도학습 중에 속한다. 지도학습은 데이터와 그에 따른 라 벨이라는 원하는 목표의 데이터를 학습시킴으로써 라벨이 지 정되지 않은 데이터를 학습된 모델을 통해 예측한다. 주로 데 이터 분석이나 새로운 데이터를 매핑하기 위한 추론 함수로써 사용할 수 있다. 대표적으로 분류 알고리즘은 KNN (K-nearest neighbors), Linear regression, Logistic regression, SVM (Support vector machine), DT (Decision tree), Naive bayesian 등이 있다. 본 논문에서는 충돌 감지 알고리즘을 위한 구현을 위해 KNN, DT, SVM 총 3개의 분류 알고리즘을 적용한다.

    3.1.1 KNN (K-nearest neighbors)

    KNN 알고리즘은 훈련 데이터에서 가장 가까운 k개의 이웃 클래스를 거리 함수 기반으로 하여, 테스트 클래스를 추정한 다[17]. 여기서, 데이터의 가까움을 측정하기 위해 [Table 3]과 같은 거리 함수들을 사용한다[18,19]. 따라서 본 논문에서는 식 (7)과 같이 k와 거리 함수를 Hyper-parameter로 사용하여 최적 의 KNN 모델을 구한다.

    a r g m a x d s t , k s , a c c c υ ( d s t , k )
    (7)

    3.1.2 DT (Decision tree)

    DT 알고리즘은 하나의 루트 노드를 중심으로 여러 개의 분 기 및 자식, 터미널 노드로 구성이 되는데[20], 알고리즘 특성상 복잡한 모델을 생성하기 때문에 분기와 노드의 개수를 적절하 게 설정해야 한다[21]. 또한, 노드의 분할 방법에 따라 ID3, C4.5, CART (Classification and Regression Tree) 등과 같이 다양한 알고리즘 있으며, CART 알고리즘은 DT 방법론 중에 가장 잘 알려진 방법론 중 하나이다. CART 알고리즘은 불순도(Impurity) 의 감소량에 따라 분리하는데, 불순도는 크게 지니 계수와 엔 트로피 지수로 다음 식 (8)과 같이 정의할 수 있다[22].

    I g i n i ( x ) = 1 i = 1 n p 2 ( i ) I e n t r o p y ( x ) = i = 1 n p ( i ) log 2 p ( i )
    (8)

    따라서, 본 논문에서는 DT의 방법론 중 하나인 CART 알고 리즘을 사용하여, 식 (9)와 같이 불순도 계산법과 터미널 노드 의 최소 개수, 분기의 최대 개수를 Hyper-parameter로 사용하 여 최적의 DT 모델을 구한다.

    a r g m a x I , n min , B max s a c c c υ ( I , n min , B max )
    (9)

    3.1.3 SVM (Support vector machine)

    마지막으로, SVM 알고리즘은 원래 이진 분류를 목적으로 고안되었으나 한계점을 해결하고자 여러 멀티클래스를 분류 하는 방식이 제안되었다[23]. 하지만, 본 논문에서는 충돌과 비 충돌 두 개의 클래스로 나누어 분류하기 때문에, 멀티클래스 를 분류하는 방식을 고려하지 않는다. 이진 분류 SVM 알고리 즘은 데이터를 두 개의 클래스로 나누는 경계인 최적의 초평 면(Hyperplane)을 찾아 분류하는 알고리즘이다[24,25]. 분류하는 초평면은 다음과 같이 정의할 수 있다.

    f ( x ) = x β + b
    (10)

    식 (10)에서 벡터 β는 초평면과 직교하는 벡터를 정의한 것 이다. 여기서, 최적의 초평면 얻기 위해서는 클래스와 초평면 간의 관측 값이 포함되지 않는 공간을 마진(margin)이라고 하 는데, 이 마진이 최대 너비를 가지는 것을 말한다. 따라서, Lagrange 최적화 방법을 사용하여, 식을 정리하면 다음과 같 이 정의할 수 있다[25].

    β = i = 1 n a i y i G ( x i , x j ) + b w i t h 0 a i C a n d 1 i n
    (11)

    식 (11)에서 yi는 이진 클래스 라벨을 나타내며, C는 Lagrange 승수법의 제약(Constraint)이라 하고, G(.)는 커널 함수의 매트 릭스를 나타낸다. SVM는 Polynomial Kernel, Sigmoid Kernel 등 다양한 커널 함수가 있지만, 충돌 데이터는 비선형의 원형 초평면을 가지기 때문에 가장 효과적인 커널 함수인 Gaussian Kernel을 사용하며, 다음 식과 같이 정의할 수 있다.

    G ( x i , x j ) = exp ( γ x i x j 2 )
    (12)

    식 (12)에서 γ는 커널의 크기를 나타내며, 높은 정확도를 얻 기 위해서는 C와 γ의 적절하게 선택해야 한다[26]. 따라서, 본 논문에서는 식 (13)과 같이 C와 γ을 Hyper-parameter로 사용 하여 최적의 SVM 모델을 구한다.

    a r g m a x c , γ s , a c c c υ ( C , γ )
    (13)

    3.2 검증

    검증은 데이터를 통해 모델을 학습시키고 훈련이 제대로 성공했는지를 확인하기 위해서 반드시 필요한 과정이다. 훈련 모델은 학습된 데이터에 대해서 적절한 예측을 보여줄 수 있 지만, 새로운 데이터를 정확하게 예측하지 못할 수도 있어 교 차 검증을 진행해야 한다. 교차 검증은 일반적으로 두 부분으 로 나누어 진행하며, 데이터의 일부를 모델의 학습에 이용하고 학습된 모델을 테스트하기 위해 나머지 데이터를 사용한다[27]. 교차 검증에는 Re-substitution Validation, Hold-out validation, K-fold cross-validation, Leave one out cross-validation 등의 기 법이 주로 사용되며, 본 논문에서는 K-fold Cross-validation을 적용한다. K-fold cross-validation는 데이터를 동일한 k개의 폴 드로 분할하고 테스트를 위한 폴드 1개를 제외한 나머지 폴드를 학습시킨다. 이를, k번 반복 수행한다[28]. 일반적으로 k의 값이 높을수록 교차 검증의 정확도는 높아지나 과적합(Overfitting) 문제가 발생할 수 있으므로, 적절한 K 값을 설정해야 한다[29]. 따라서 본 논문에서는 K의 값을 3, 5, 10, 20으로 하여 분석하 였다.

    3.3 모델의 성능 평가

    본 논문에서는 분류 모델의 성능을 평가하기 위해서 평균 제곱 오차(MSE, Mean-Squared Error)와 오차 행렬(Confusion Matrix)를 두가지를 사용한다.

    3.3.1 MSE (Mean-Squared Error)

    평균 제곱 오차는 영상 처리나 기계학습에서 주로 사용되 는 정확성을 측정하는 방법 중 하나이다. 실제 라벨 데이터와 모델이 예측한 데이터의 오차를 제곱하여 평균으로 구한다. 수식은 다음 식 (14)와 같이 정의한다.

    M S E = 1 n i = 1 n ( y i y ^ l ) 2
    (14)

    3.3.2 오차 행렬(Confusion Matrix)

    오차 행렬은 학습 모델로 예측된 데이터를 행, 실제 데이터 를 열로 두고 평가하는 방식이다[30]. 이진 오차 행렬에서는 True와 False로 나누기 때문에, 각각 행렬을 TP (True Positives), TN (True Negatives), FP (False Positives), FN (False Negatives) 으로 나눌 수 있다. 이를 통하여 정밀도(Precision), 재현율(Recall), 정확도(Accuracy) 등을 알 수 있으며[31], 수식은 다음 식 (15)과 같이 정의한다.

    A c c u r a c y = ( T P + T N ) / T o t a l P r e c i s i o n = T P / ( T P + F P ) R e c a l l = T P / ( T P + F N )
    (15)

    이를 바탕으로 하여 본 연구에서는 학습 기반의 충돌 판별 모델을 개발하였으며, 학습된 모델의 성능을 비교 분석하였다..

    4. 충돌 판별 모델을 이용한 성능 비교

    각 지도학습 알고리즘 별 Hyperparameter를 선정하였으며, 최적화된 모델들을 비교하였다.

    4.1 최적의 Hyperparameter 설정

    각각 알고리즘을 대상으로 [Table 4]와 같이 Hyper-parameter 를 선택하였으며, 그에 따른 범위를 지정하였다. 또한, 최적의 Hyperparameter을 얻기 위해서 [Table 5]와 같은 결과를 도출 하였다.

    튜닝 결과, 최적의 Hyperparameter로 설정된 KNN은 매개 변수 K는 20~30 내외의 값을 가지고, 거리 함수로는 Standard Euclidean을 많이 사용되었다는 것을 볼 수 있었다. 또한 DT는 터미널 노드의 크기가 50~150 내외, 가지의 개수가 1,000~ 100,000개 사이, 불순도의 척도가 Gini Index를 많이 사용했다 는 것을 알 수 있었다. 마지막으로 SVM은 C는 0.01~1.3의 내 외, γ은 0.006 ~ 0.012의 값을 보였다. MSE의 지수는 KNN은 평균 0.048%, DT는 평균 0.047%, SVM 평균 0.058%의 성능을 나타났으며, 본 논문에서 선정한 알고리즘 3개 모두 0.05% 내 외의 수치를 갖는 것을 알 수 있다. 또한, Fold의 개수는 대부분 10 또는 20인 경우의 높은 성능을 나타났었다.

    4.2 모델 성능 비교

    앞선 결과에 따른 각 알고리즘 별 최적의 Hyper-parameter 적용한 모델을 가지고 알고리즘의 실행시간, Recall, Precision,. Accuracy를 [Table 6]과 같이 결과를 도출하였다.

    최적의 Hyperparameter로 선정된 모델을 동일한 개수의 테 스트 데이터를 가지고 예측하였을 경우, 모든 모델의 Recall은 94%, Precision은 96% 내외의 값을 가졌다. 하지만, Accuracy는 최저 95%에서 최고 97%의 차이를 가진 것을 알 수 있다. 또한, 각각 모델의 평균 예측 시간은 DT, KNN, SVM 순으로 낮다. 또한, 각각 모델의 평균 예측 시간이 KNN는 28.1 ms, DT는 49.3 ms, SVM는 6.8 ms을 가진다. 즉, SVM모델을 적용한 충 돌 판별 알고리즘이 높은 정확도와 빠른 시간을 가진다는 것 을 알 수 있다. 이를 바탕으로 최적의 SVM 모델을 가지고 실 제 매니퓰레이터의 데이터에 적용하는 경우 [Fig. 4]와 같은 결 과를 나타낸다.

    5. 결 론

    본 논문에서는 기계학습 기법 중에 지도학습 알고리즘을 적용하여, 조인트 토크 센서 기반으로 충돌을 판별하기 위한 단계로 1) 데이터 수집 및 전처리 2) 충돌 감지를 위한 분류 모 델 개발, 3) 최적의 모델 선정의 3단계를 제안하였다. 제안 사 항을 통해 토크 센서의 외부 토크만 추출하여 충돌 상태를 충 돌(Collision)과 비충돌(Non-collision)상태로 분류하였으며, 각 알고리즘의 Hyper-parameter를 최적화하여 비교 분석하였 다. 그 결과 충돌 판별 알고리즘을 구축하는데 있어서 KNN, DT, SVM 중에서 SVM을 이용하는 것이 높은 정확도와 낮은 실행시간을 가지는 것을 확인할 수 있었다. 다만, 다양한 기계 학습 기법 중의 지도학습 알고리즘만을 적용한 연구라는 점과 충돌 상황 프로세스의 충돌 탐지에서 그쳤다는 점에서 한계가 존재한다. 그러나 학습 기반의 충돌 판별이 높은 정확도로 민 감하게 반응했다는 것과 낮은 지연시간으로 인식했다는 것에 의미가 있을 것이며, 로봇 안전 시스템의 기초 연구로 활용 가 능하다. 본 연구를 통해 향후, 충돌 감지에서 그치지 않고 충돌 식별, 반응 단계까지 학습한 알고리즘을 개발하고 기술을 적 용한 프레임워크 및 로봇 제어 시스템을 개발할 예정이다.

    Figure

    JKROS-15-2-169_F1.gif

    Shape of 3-dof Manipulator

    JKROS-15-2-169_F2.gif

    Comparison of estimated torque using current signals and joint torque sensor signals. The peak of estimated torque from current signal is 0.625 Nm and joint torque sensor is 0.222 Nm

    JKROS-15-2-169_F3.gif

    Result of data preprocessing

    JKROS-15-2-169_F4.gif

    Predicted result of actual data into a model using hyper-parameter

    Table

    Datasheet on the 3-dof Manipulator actuator

    Datasheet on the 3-dof manipulator joint torque sensor

    Distances and their formulation

    Hyperparameter range and types for each model. Note yi is the number of observations

    Results of tuning hyper-parameters for each model. Note “CV Result” stands for MSE result

    Hyperparameter range and types for each model. Note yi is the number of observations

    Reference

    1. M. Bortolini, E. Ferrari, M. Gamberi, F. Pilati, and M. Faccio, “Assembly system design in the Industry 4.0 era: a general framework,” IFAC-PapersOnLine, vol. 50, no. 1, pp. 5700-5705, Jul., 2017.
    2. L. Wang, R. Gao, J. Váncza, J. Krüger, X. V. Wang, S. Makris, and G. Chryssolouris, “Symbiotic human-robot collaborative assembly,” CIRP Annals, vol. 68, no. 2, pp. 701-726, 2019.
    3. S. Haddadin, A. De Luca, and A. Albu-Schaffer, “Robot Collisions: A Survey on Detection, Isolation, and Identification,” IEEE Transactions on Robotics, vol. 33, no. 6, pp. 1292-1312, Dec., 2017.
    4. S. Robla-Gomez, V. M. Becerra, J. R. Llata, E. Gonzalez- Sarabia, C. Torre-Ferrero, and J. Perez-Oria, “Working Together: A Review on Safe Human-Robot Collaboration in Industrial Environments,” IEEE Access, vol. 5, pp. 26754-26773, 2017.
    5. S. D. Lee, M. C. Kim, and J. B. Song, “Sensorless collision detection for safe human-robot collaboration,” 2015 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), Hamburg, Germany, 2015.
    6. P. Aivaliotis, S. Aivaliotis, C. Gkournelos, K. Kokkalis, G. Michalos, and S. Makris, “Power and force limiting on industrial robots for human-robot collaboration,” Robotics and Computer-Integrated Manufacturing, vol. 59, pp. 346-360, Oct., 2019.
    7. Y. Tian, Z. Chen, T. Jia, A. Wang, and L. Li, “Sensorless collision detection and contact force estimation for collaborative robots based on torque observer,” 2016 IEEE International Conference on Robotics and Biomimetics (ROBIO), Qingdao, China, 2016,
    8. P. Cao, Y. Gan, and X. Dai, “Model-based sensorless robot collision detection under model uncertainties with a fast dynamics identification,” International Journal of Advanced Robotic Systems, vol. 16, no. 3, p. 172988141985371, May, 2019.
    9. J. Xiao, Q. Zhang, Y. Hong, G. Wang, and F. Zeng, “Collision detection algorithm for collaborative robots considering joint friction,” International Journal of Advanced Robotic Systems, vol. 15, no. 4, p. 172988141878899, Jul., 2018.
    10. E. Matsas, G. C. Vosniakos, and D. Batras, “Prototyping proactive and adaptive techniques for human-robot collaboration in manufacturing using virtual reality,” Robotics and Computer-Integrated Manufacturing, vol. 50, pp. 168-180, Apr., 2018.
    11. A. Mohammed, B. Schmidt, and L. Wang, “Active collision avoidance for human-robot collaboration driven by vision sensors,” International Journal of Computer Integrated Manufacturing, vol. 30, no. 9, pp. 970-980, Dec., 2016.
    12. R. C. Luo and C. W. Kuo, “Intelligent Seven-DoF Robot With Dynamic Obstacle Avoidance and 3-D Object Recognition for Industrial Cyber-Physical Systems in Manufacturing Automation,” Proceedings of the IEEE, vol. 104, no. 5, pp. 1102-1113, May, 2016.
    13. J. Kim, A. Alspach, and K. Yamane, “3D printed soft skin for safe human-robot interaction,” 2015 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), Hamburg, Germany, 2015.
    14. Y. Lou, J. Wei, and S. Song, “Design and Optimization of a Joint Torque Sensor for Robot Collision Detection,” IEEE Sensors Journal, vol. 19, no. 16, pp. 6618-6627, Aug., 2019.
    15. Y. J. Heo, D. Kim, W. Lee, H. Kim, J. Park, and W. K. Chung, “Collision Detection for Industrial Collaborative Robots: A Deep Learning Approach,” IEEE Robotics and Automation Letters, vol. 4, no. 2, pp. 740-746, Apr., 2019.
    16. A. De Luca and L. Ferrajoli, “A modified newton-euler method for dynamic computations in robot fault detection and control,” 2009 IEEE International Conference on Robotics and Automation, Apr., 2019.
    17. L. Jiang, Z. Cai, D. Wang, and S. Jiang, “Survey of Improving K-Nearest-Neighbor for Classification,” Fourth International Conference on Fuzzy Systems and Knowledge Discovery (FSKD 2007), Haikou, China, 2007.
    18. A. P. Pawlovsky, “An ensemble based on distances for a kNN method for heart disease diagnosis,” 2018 International Conference on Electronics, Information, and Communication (ICEIC), Honolulu, HI, USA, 2018.
    19. P. Schratz, J. Muenchow, E. Iturritxa, J. Richter, and A. Brenning, “Hyperparameter tuning and performance assessment of statistical and machine-learning algorithms using spatial data,” Ecological Modelling, vol. 406, pp. 109- 120, Aug., 2019.
    20. R. C. Barros, M. P. Basgalupp, A. C. P. L. F. de Carvalho, and A. A. Freitas, “A Survey of Evolutionary Algorithms for Decision- Tree Induction,” IEEE Transactions on Systems, Man, and Cybernetics, Part C (Applications and Reviews), vol. 42, no. 3, pp. 291-312, Aug., 2019.
    21. R. G. Mantovani, T. Horvath, R. Cerri, J. Vanschoren, and A. C. P. L. F. de Carvalho, “Hyper-Parameter Tuning of a Decision Tree Induction Algorithm,” 2016 5th Brazilian Conference on Intelligent Systems (BRACIS), Recife, Brazil, 2016.
    22. M. Jaworski, P. Duda, and L. Rutkowski, “New Splitting Criteria for Decision Trees in Stationary Data Streams,” IEEE Transactions on Neural Networks and Learning Systems, vol. 29, no. 6, pp. 2516-2529, Jun., 2018.
    23. C. W. Hsu, and C. J. Lin, “A comparison of methods for multiclass support vector machines,” IEEE Transactions on Neural Networks, vol. 13, no. 2, pp. 415-425, Mar., 2002.
    24. L. M. He, X. B. Yang, and H. J. Lu, “A Comparison of Support Vector Machines Ensemble for Classification,” 2007 International Conference on Machine Learning and Cybernetics, Hong Kong, China, 2007.
    25. T. Hastie, R. Tibshirani, and J. Friedman and J. Franklin, “Support Vector Machines and Flexible Discriminants,” The Elements of Statistical Learning, Springer, 2009, ch. 12, sec. 2, pp 417-421.
    26. E. Duarte and J. Wainer, “Empirical comparison of crossvalidation and internal metrics for tuning SVM hyperparameters,” Pattern Recognition Letters, vol. 88, pp. 6-11, Mar., 2017.
    27. Y. Zhang and Y. Yang, “Cross-validation for selecting a model selection procedure,” Journal of Econometrics, vol. 187, no. 1, pp. 95-112, Jul., 2015.
    28. J. D. Rodriguez, A. Perez, and J. A. Lozano, “Sensitivity Analysis of k-Fold Cross Validation in Prediction Error Estimation,” IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 32, no. 3, pp. 569-575, Mar., 2010.
    29. S. Yadav and S. Shukla, “Analysis of k-Fold Cross-Validation over Hold-Out Validation on Colossal Datasets for Quality Classification,” 2016 IEEE 6th International Conference on Advanced Computing (IACC), Bhimavaram, India, 2016.
    30. X. Deng, Q. Liu, Y. Deng, and S. Mahadevan, “An improved method to construct basic probability assignment based on the confusion matrix for classification problem,” Information Sciences, vol. 340-341, pp. 250-261, May, 2016.
    31. M. Sokolova and G. Lapalme, “A systematic analysis of performance measures for classification tasks,” Information Processing & Management, vol. 45, no. 4, pp. 427-437, Jul., 2009.

    저자소개

    • 조 성 현 (Seonghyeon Jo)
    • 2014 한국산업기술대학교 컴퓨터공학부 (공학사)
    • 2020~현재 경북대학교 전자공학부 석사 과정 재학 중
    • 관심분야: Robotic Manipulation, Machine Learning

    • 권 우 경 (Wookyong Kwon)
    • 2011 포항공과대학교 전자전기공학과(공학사)
    • 2012 포항공과대학교 철강대학원 제어 및 자동화 전공(공학석사)
    • 2017 포항공과대학교 철강대학원 제어 및 자동화 전공(공학박사)
    • 2018~현재 ETRI 연구원
    • 관심분야: Robotic Manipulation, Control systems, and Sampled-data Control
    오늘하루 팝업창 안보기 닫기