
손실함수를 재정의한 GRU 기반 학습 알고리즘을 통한 보행위상 예측 성능 향상
CopyrightⓒKROS
Abstract
In this study, we propose a user-defined loss function to enhance a learning-based algorithm for gait phase prediction. The algorithm utilizes gait phase labels and time-series data from a 6-axis IMU as inputs, employing a Gated Recurrent Unit (GRU) model for the prediction. A novel loss function is introduced, incorporating both gait phase error and error regulation to improve performance. The trained model autonomously generates two distinct outputs to enhance gait phase prediction, which are combined with the atan2 function to estimate the gait phase. Phase differences between the labeled and predicted gait phases are calculated and regulated within the loss function. To validate the proposed method, a pilot experimental study was conducted involving overground walking tests with five subjects and a treadmill walking test with one subject at various walking speeds. The results demonstrate precise gait phase predictions throughout the entire gait cycle, outperforming conventional approaches. This GRU-based model shows promise for implementation in embedded systems.
Keywords:
Gait Phase, Prediction Learning, GRU, IMU Sensors, Customized Loss Function, Wearable Robot1. 서 론
정확한 보행위상(Gait Phase) 예측은 외골격 로봇, 특히 보행보조장치의 성능을 최적화하는 데 매우 중요하다. 보행위상 예측은 착용자의 움직임을 실시간으로 추정하여 외골격 로봇이 다양한 보행 속도와 환경에서도 착용자에게 적합한 도움을 제공하는 데 중요한 역할을 한다[1]. 신경망을 활용한 IMU (Inertial Measurement Unit) 센서 기반의 보행위상 예측은 다양한 보행속도 변화에도 높은 정확도로 보행위상을 예측할 수 있다. 특히, 보행 속도가 변화할 때도 학습모델은 실시간으로 보행위상 변화에 적응할 수 있으며[2], 비정상적인 보행 패턴에서도 안정적이고 정확한 예측성능을 보인다. 이러한 이유로는 신경망은 외골격 로봇의 인식기로 많이 활용되고 있다[3,4].
최근 연구에서는 순환 신경망(RNN), 특히 LSTM (Long Short-Term Memory)과 GRU (Gated Recurrent Unit)를 활용한 보행위상 예측 방법이 활발히 연구되고 있다[5-8]. 시계열 데이터를 학습하는 데 탁월한 성능을 발휘하는 LSTM(혹은 GRU)은 IMU의 시계열 데이터 기반으로 하는 실시간 보행위상 예측에서도 효과적으로 적용할 수 있다[6]. LSTM 기반 모델은 다양한 보행 속도와 경사도에서도 높은 예측 정확도를 보여 실시간 보행위상 예측의 안정성을 크게 향상시킬 수 있다[6]. 반면, GRU는 LSTM과 유사한 성능을 보이면서 적은 수의 파라미터로 구현이 가능하여 메모리 사용이 제한되는 임베디드 시스템에서 더 효율적인 모델로 평가된다. 또한, GRU는 학습 속도가 빠르고, 과적합 위험이 적어 작은 데이터셋에서도 우수한 성능을 발휘한다는 장점이 있어 임베디드 시스템에서 실시간 보행위상 예측과 같은 경우에 매우 유용하다[7].
평지보행 시 인간의 보행위상은 톱니파(sawtooth wave) 형태로 반복된다. 주기성을 갖는 것은 신호추정에 매우 유리한 특성이지만, 1에서 0으로 변하는 구간(톱니날 부분)과 같이 불연속적으로 변하는 구간이 있어 보행위상 예측이 쉽지 않다. 보행위상 예측 시 크게 부족한 예측 성능과 시간지연 문제가 이슈가 된다([Fig. 1] 참고). IMU 센서의 입력 신호와 보행위상에 대한 라벨링 데이터를 통해 학습한 경우, IMU 센서 노이즈 등으로 인해 선형으로 증가하는 구간에서 선형으로 예측하지 못하거나 1에서 0으로 급격히 변하는 구간에서 1보다 큰 보행위상을 출력하기도 한다: L. Lu 외 5명은 직접 학습 시 5번의 Test에서 평균적인 RMSE가 26.7%인 연구 결과를 보였다[6]. 불연속적인 보행위상에 대한 추정 성능을 향상시키기 위해 보행위상을 극좌표계로 변환하고, 보행위상을 연속적인 cos값과 sin값의 조합으로 변환한 후 이를 각각 학습시키는 방법도 제시되었다. 이 방법에서는 학습 모델이 cos 항 값과 sin 항 값을 각각 출력하고, 이 두 값을 atan2함수의 입력으로 넣어서 보행위상을 예측한다 [2,5-6,8]. 이 경우 보행위상을 선형으로 깨끗하게 예측할 수 있어 예측성능을 높일 수 있는 반면, 1에서 0으로 급격히 변하는 구간에서 시간지연이 발생한다. 해당 구간에서는 cos 항값과 sin항 값의 상대적인 조합에 의해 0과 1이 결정되기 때문에 cos항 값과 sin항 값을 각각 학습하는 구조에서는 개선이 쉽지 않다. 기존 연구에서 보면 1.5 m/s로 보행 시 보행 예측 MSE는 2.1% 정도로 우수하지만, 10~30 ms 정도의 시간지연이 관찰된다[8].
본 연구에서는 정확한 타이밍에 외골격 로봇을 동작시키기 위해서 기존 극좌표계 변환 기반 보행 예측 방법론의 손실함수(loss function)를 재정의하여 보행위상 예측성능 뿐만 아니라 예측 타이밍 정확도를 향상하는 방안을 제안한다. 시계열 데이터인 IMU 센서값을 처리하기 위해 GRU 모델을 채택하였으며, 5명의 일반인을 대상으로 진행한 실험과 1명의 새로운 피험자 테스트를 통해서 제안하는 개선안의 예측성능 및 시간지연 정도에 대해 기존 연구와 비교 분석을 진행하였다.
2. 실험장치 및 데이터 수집
2.1 실험장치
실제 보행데이터를 수집하기 위해 착용형 데이터 수집 장치를 개발하였다([Fig. 2] 참고). 발뒤꿈치에는 FSR 센서(FSR402)를 부착하여 발뒤꿈치가 지면에 닿는 순간인 Heel Strike(HS) 시 발생하는 압력을 측정한다. 이 압력 데이터를 활용하여 보행위상의 시작과 끝을 정의하고 보행위상을 라벨링 한다.
보행 시 착용자의 움직임 측정을 위해 9축 IMU (LSM9DS1)를 사용하였으며, 이 중 3축 가속도, 3축 자이로스코프 데이터만 보행위상 분석을 위한 신경망 모델의 입력 데이터로 사용한다. 중간 신호처리를 위해 선정한 센서용 임베디드 보드(Arduino Nano 33 BLE)는 해당 IMU센서 내장하고 있으며, FSR 신호 역시 SPI 통신을 통해 수집한다. FSR 신호는 변환 칩(MCP3008)을 활용하여 ADC로 변환된 후 SPI 통신을 통해 임베디드 보드로 전송된다.
주 제어기로는 상용 임베디드 보드(Teensy 4.1(ARM Cortex-M7 at 600 MHz, 1024 K RAM, 55 GPIOs), PJRC )를 사용하여 데이터 수집한다. 내부 하드웨어 타이머를 사용하여 100 Hz 주기로 실시간으로 구동하며, I2C 통신으로 센서용 임베디드 보드에서 데이터를 획득한다. 획득한 데이터는 메모리에 저장했다가 추후 내부 저장공간(microSD)에 CSV 파일 형식으로 보행 데이터를 저장한다([Fig. 3] 참고).
2.2 데이터 수집을 위한 실험
제안하는 GRU 모델 학습을 위해, 5명의 건강한 남성 피험자(키: 174.26 ± 3.60 cm, 몸무게: 75.4 ± 5.1 kg)를 대상으로 보행 데이터를 수집하였다. 각 피험자는 30 m 길이의 평지를 3회 왕복하며 보행을 수행하였다. 수집한 데이터 중 방향 전환 등 보행 이외에 데이터는 제외하고 순수하게 보행에 해당하는 데이터만 학습에 반영하였다.
아울러, 학습된 모델을 테스트하기 위해, 세 가지 각기 다른 보행 속도 조건으로 새로운 건강한 남성 피험자(키: 174.8 cm, 몸무게: 68.4 kg, 나이: 25 세) 1명에 대한 실험을 수행하였다. 세 가지 보행 조건은 다음과 같다.
- ∙ 선호 속도 걷기(1.28 m/s)
- ∙ 빠른 속도 걷기(1.47 m/s, 선호 속도 +15%)
- ∙ 느린 속도 걷기(1.09 m/s, 선호 속도 ‑15%)
실험 전, 8 m 평지 걷기를 통해 선호 속도가 측정되었다. 조건에 따라 정량적인 보행 속도를 제공하기 위해 트레드밀(SkyLife 5100, Korea, 820 × 2300 × 1600 mm3) 위에서 수행되었으며, 각 조건에서 피험자는 80초씩 2회 걸었다.
2.3 데이터 전처리: 보행위상 라벨링
보행위상을 정확하게 예측하기 위해서는 각 위상에 대한 정확한 라벨링이 필수적이다. FSR 센서로부터 수집된 데이터로부터 입각기(stance phase)를 정의하고, 현재 입각기 시작점부터 다음 입각기 시작점까지를 현재 보행주기(gait cycle)로 정의한다. 입각기는 FSR 데이터가 임계값을 넘는 순간 시작하여 다시 임계값 이하로 내려가는 순간을 탐지하여 정의한다. 노이즈가 있는 FSR 데이터로부터 안정적으로 입각기를 추출하기 위해서는 별도의 전처리 단계를 두었다.
일차적으로 FSR 데이터에 포함된 노이즈 중 spike(튀는값)를 없애기 위해서, FSR 변화량(ΔFSR, 이전 FSR 데이터와 현재 FSR 데이터의 차이)의 표준편차(σ)를 계산한다. 만약 FSR 변화량이 표준편차의 3배를 초과하면(ΔFSR > 3σ) spike로 판단하고 해당 데이터를 앞뒤 데이터의 평균값으로 대체한다. 이러한 전처리 과정을 통해 데이터의 급격한 변동으로 인한 오차를 줄이고, 신호의 일관성을 유지할 수 있다. spike가 제거된 FSR데이터는 이후 Gaussian 커널을 활용하여 smoothing (window size: 20) 하여 FSR 데이터의 노이즈를 줄이고 전체적인 추세를 강조한다. 전체 전처리 과정을 통해 구한 입각기는 [Fig. 4]에서 볼 수 있다.
입각기 정보로부터 보행주기를 정규화하여 보행위상의 라벨링으로 활용하였다. 즉, 한 보행주기 내에서 전 구간을 [0, 1] 범위로 linear interpolation을 하여 정규화된 보행위상을 계산하고, 이를 라벨값으로 신경망 모델의 학습에 활용하였다([Fig. 5] 참고).
3. 보행위상 학습모델
3.1 모델 구성
학습모델의 입력값은 IMU 센서에서 수집된 3축 가속도와 3축 자이로스코프 데이터를 사용하였다. 수집된 데이터는 총 74,673개의 샘플로 구성되며, 이를 훈련 데이터 70%와 테스트 데이터 30%로 분할하여 활용하였다.
기존 시계열 데이터를 학습하는 LSTM 모델에 비해, GRU는 LSTM과 유사한 성능을 보이면서 적은 수의 파라미터로 구현이 가능해 학습 속도가 빠르고, 과적합의 위험이 적어 작은 데이터셋에서도 우수한 성능을 발휘한다는 장점이 있다. B. Mateus 외 4명은 산업용 펄프 프레스의 미래 동작에 대한 6개의 센서 값을 예측하는 문제에서 LSTM보다 GRU가 더 적은 데이터로 작동하고 성능이 더욱 우수함을 보였다[9]. 또한, H. Ma 외 5명은 차량 네트워킹 보안을 위해 GRU 모델 기반 실시간 침입 탐지 시스템을 제안하고 성능을 보였다[10].
이와 같은 이유에서, 시계열 데이터를 효과적으로 처리하기 위해 GRU 기반의 신경망으로 모델을 설계하였다. 첫 번째 GRU 레이어는 64개의 유닛을 가지고 있으며, 모든 타임스텝에 대한 출력 시퀀스를 반환한다. 두 번째 GRU 레이어는 32개의 유닛을 가지며, 이 역시 출력 시퀀스를 반환하도록 구성되었다. 세 번째 GRU 레이어는 16개의 유닛을 가지며, 마지막 타임스텝에서만 출력을 반환하도록 설계되었다. 마지막으로, 2개의 뉴런으로 구성된 출력 레이어가 추가되어, ypred,0과 ypred,1 값을 예측하도록 하였다([Fig. 6] 참고).
3.2 커스텀 손실함수(custom loss function) 사용
GRU 모델은 최종적으로 두 개의 출력값 ypred,0와 ypred,1을 생성한다. 기존의 극좌표계 변환 기반 모델에서는 라벨링된 보행위상으로부터 각각의 출력에 대한 참값을 별도로 생성하고, 각 위상오차의 RMSE (Root-Mean-Square-Error) 값을 독립적으로 계산한 후 이를 합하여 전체 loss를 계산한다([Fig. 6] 참고). 이 경우 두 출력값에 대한 예측 성능은 보장할 수 있지만 전체 보행위상 예측에는 한계가 있다. 이를 개선하기 위해 전체 보행위상 예측 오차를 기반으로 손실함수를 재정의한다.
모델의 두 개의 출력값 ypred,0와 ypred,1으로부터 다음과 같은 위상(phase)을 예측한다.
(1) |
식 (1)로 계산된 위상은 [-π, π] 범위에 존재하며, 이를 라벨링과 범위를 맞추기 위해 [0, 1] 범위로 정규화를 수행한다.
(2) |
이 예측한 위상과 라벨링한 위상 참값 사이의 위상차를 정의하여, 그 RMSE를 구해서 손실함수로 활용한다.
(3) |
다만, 보행위상이 1에서 0으로 떨어지는 지점과 같이 값이 큰 폭으로 변하는 구간에서는 시간지연으로 인한 위상차 spike가 발생할 수 있다. spike 값을 그대로 두면 모델이 spike에 대한 오차를 개선하는 데만 집중하게 되어 다른 부분의 예측성능이 저하될 수 있다. 따라서, 식 (4)와 같이 위상차가 균형을 잡을 수 있도록 오차를 조정한다(error regulation).
(4) |
최종적으로, 모델의 손실은 위상차의 RMSE로 계산되었으며, 이는 optimizer의 손실함수로 사용된다.
(5) |
전체 구조와 손실함수의 세부 사항은 [Fig. 6]에 제시되어 있다.
4. 실험결과
실험을 통해 획득한 데이터를 기반으로 제안한 보행위상 예측모델의 학습을 진행하였다. 선행연구와의 비교를 위해 기존 극좌표계 변환 기반 보행예측에 대한 학습 역시 진행하여 결과를 비교하였다. 이때, 학습 조건을 제외한 나머지 요소들, 예를 들어 학습에 사용된 epoch 수, 모델 구조, 콜백 함수, 데이터 분할 방식 등은 모두 동일하게 설정하여 공정한 비교가 되도록 세팅하였다. 주요 모델 네트워크 구조 파라미터는 [Table 1]에서 확인할 수 있다.
4.1 평지 보행 시 보행위상 예측 성능
평지 보행에 대하여 기존 연구(극 좌표변환 기반 보행위상예측)와 제안하는 연구 결과를 비교하였다. 전체 데이터에 대하여 training 및 test 시 대표 성능은 [Table 2]에 정리하였다. RMSE 값을 비교하면 training과 test 모두 기존 연구 대비 제안하는 방법이 작으며, test에서는 RMSE가 기존연구 대비 27.3% 수준으로 매우 작은 것을 알 수 있다.
[Fig. 7]은 시계열 IMU 센서 데이터가 입력될 때 학습된 모델에서 생성한 두 개의 출력값을 보여준다. 라벨링한 보행위상 참값으로부터 생성한 cos항 참값과 sin항 참값을 직접 비교하는 기존 방법에서는 각각 입력된 참값을 거의 정확하게 예측하는 것을 확인할 수 있다: ypred,0(cos항에 상응. RMSE (Training: 0.0443 / Test: 0.1756)), ypred,1(sin항에 상응. RMSE (Training: .0464 / Test: 0.1192)) 모두 매우 정확하게 예측된다.
반면, 본 연구의 제안 방법에서는 두 출력에 대해 직접적인 제약조건을 부여하지 않았으며, 학습모델은 손실함수를 최소화하도록 적절한 신호를 스스로 생성하여 출력한다. 이렇게 생성된 출력은 실제 cos 항과 sin항 참값과는 큰 차이를 보인다([Fig. 7] 참고). 흥미로운 점은 생성된 두 출력은 cos 항 혹은 sin 항 참값과 같은 주기의 신호(in-phase signal)라는 것이다. 이를 통해 atan2를 활용한 보행위상 예측 구조를 그대로 사용할 수 있었으며, 생성된 두 출력으로부터 계산한 보행위상은 실제 보행위상의 주기를 정확하게 추정할 수 있게 된다. 이처럼 극좌표계 변환을 명시적으로 수행하지 않아도 모델이 보행의 주기성을 학습할 수 있다는 것은 주목할 만하다.
학습된 두 출력을 바탕으로 atan2 함수를 사용해 보행위상을 생성할 수 있다([Fig. 8] 참고). 이를 보행위상 참값과 비교해 보아도 두 방법 모두 보행위상을 잘 예측하고 있음을 실험적으로 확인할 수 있다. 기존 연구와 비교하면 제안한 방법은 training과 test 모두에서 전반적으로 더 안정적으로 보행위상을 예측하며, 특히 1에서 0으로 변하는 구간에서 시간지연에 의한 위상차가 거의 없는 것을 확인할 수 있다([Fig. 8] 참고). 이는 보행위상 오차에서도 확인할 수 있다([Fig. 9] 참고). 기존 연구에서는 시간지연으로 인해 1에서 0으로 변하는 구간에서 ± 1 크기의 위상차가 발생한다:박스플랏(box plot)에서 outlier로 나타난다. 그러나 제안한 방법에서는 training이나 test에서 이런 outlier가 없으며, 위상차 대부분이 ± 0.05 안에 모여 있는 것을 확인할 수 있다. 시간지연으로 인해 발생하는 위상차의 spike가 없기 때문에 제안한 방법에서는 RMSE가 기존 방법에 비해서 훨씬 작다. 따라서 보행위상 예측성능 및 시간지연 오차 개선 측면에서 기존 연구 대비 제안한 방법이 더 우수한 성능을 보이는 것을 실험적으로 확인할 수 있다.
이는 보행위상 예측 시 시간지연(time-delay)을 표현한 [Fig. 10]에서 더욱 명확해진다. 그래프에 보면, 두 방법 모두 시간 지연이 발생하고 있으나 기존 연구에서의 시간지연은 test 시 지연성분의 50%가 10 ms ~ 30 ms에 존재하는데 반면, 제안한 방법에서는 지연성분의 50%가 0.05 ms ~ 0.15 m에 분포하고 있다. 즉, 제안한 방법은 기존 연구 대비 시간지연이 1/20 이하 수준이다. 따라서 제안하는 방법은 보행위상 예측 시 시간지연 문제를 분명하게 개선하고 있음을 실험적으로 확인할 수 있다.
4.2 트래드밀 보행 시 보행위상 예측 성능
다른 보행 속도 조건에 따른 모델의 보행위상 예측 성능을 확인하기 위해서, 세 가지 속도 조건에서 트레드밀 보행 실험을 진행하였다. 선호 속도/선호 속도 +15%/선호 속도 ‑15%의 속도에 대하여 IMU 센서 정보를 취득한 후 학습모델에 적용하여 보행위상 예측성능을 확인하였다. 각 실험에서의 오차를 정리한 [Table 3]에서 알수 있듯이, 제안한 방법은 속도 변화에 상관없이 일정한 수준의 위상차를 갖는 것을 볼 수 있다.
또한, IMU 센서 데이터를 활용하여 속도 별 시계열 보행위상을 생성하고 예측 성능을 분석한 결과, 모든 실험 속도에서 보행위상이 정확하게 추정됨을 확인할 수 있었다([Fig. 11] 참고). 이때의 위상차 분포 역시 대부분이 ± 0.05 안에 모여 있어 학습 시 테스트 결과와 유사하다. 따라서 제안한 방법이 다양한 속도 조건에서도 높은 성능의 예측 가능성을 확인할 수 있었다. 그러나, 보행 속도 변화 강인성을 제대로 검증하기 위해서는 추가적인 연구가 진행되어야 할 것이다.
5. 고찰 및 토의
본 연구에서는 기존 연구에서의 극좌표계 변환 기반 보행위상 인식 알고리즘의 성능을 개선하고자 하였다. 기존 연구의 한계점 중 하나는 인식 과정에서 발생하는 시간지연이다. 극좌표계에서는 cos항과 sin항 사이의 값의 차이에 따라 생성된 보행위상이 0과 1 사이로 불연속적으로 튈 수 있다. 만약 보행위상이 1에서 0으로 변하는 순간에서 cos항(즉, ypred,0)과 sin 항(즉, ypred,1)이 매우 정확하게 예측된다면 지연 없는 예측이 가능하겠지만 독립된 두 값을 동시에 정확하게 예측하는 데에는 많은 어려움이 있다. 시간지연을 극복하고자 보행위상에서의 위상차를 바로 loss로서 optimizer에 넣는 방법을 고안하였다. 그러나 이 경우에도 시간지연으로 인해 발생하는 위상 spike가 너무 커서 이 spike를 우선으로 줄이는 방향으로 학습이 진행되어 전체 예측성능이 충분히 향상되지 않는 것을 관찰할 수 있었다([Fig. 12] 참고). 위상 spike에 대한 편중을 줄이기 위해 error regulation 단계를 고려하였고, 평준화된 위상차로 인해 이후에는 보행주기 전 구간에 대해서 성능이 향상되도록 학습이 진행할 수 있었고, 예측성능이 크게 향상되는 것을 확인할 수 있었다([Fig. 12] 참고). 이처럼 손실함수를 재설계하는 경우 특정 영역에만 학습이 집중되지 않도록 오차 분포에 대해 고려할 필요가 있다.
본 연구는 보행위상 인식 성능 향상을 위한 선행연구로서, 제한된 모수의 인원에 대해서만 실험을 진행하여 가능성을 살펴보았다. 추후 IRB를 신청하여 대규모 실험을 진행하여 유효성을 검증해야 할 것이다. 현 단계에서 성능 검증을 보완하기 위해 학습에 포함되지 않은 인원(1명)에 대해서 트레드밀에서 세 가지 다른 속도 조건 하에서 예측 성능을 검증해 보았다. 또한, 적은 데이터셋으로 타당성 검증에 보수적으로 사용하는 Leave-One-Out-Cross-Validation (LOOCV)으로 교차검증해 보았다. 5명 인원에 대해서 순환하면서 평가해 본 결과 Test RMSE에 대한 평균은 3.64%이며 고르게 분산된 것을 볼 수 있다([Table 4] 참고) . 또한 LOOCV 교차검증에서의 모델의 평균 오차가 앞에서 실험에서 사용했던 모델의 오차와 유사한 수준인 것을 확인할 수 있다. 따라서 본 연구에서 사용한 데이터셋은 고르게 분포되어 있고, 모델은 데이터셋 전체에 대해서 잘 일반화되어 있으며, 70:30의 데이터 분할이 모델의 성능을 평가하는 데 충분히 신뢰하는 방법이라고 짐작해 볼 수 있다.
6. 결 론
본 연구에서는 IMU 센서 정보(6축)를 기반으로 한 보행위상예측기의 성능을 향상시키기 위한 방안을 제시한다. 기존의 극좌표계 변환 기반 보행위상 예측기 구조에 기반하여 손실함수를 재정의함으로써 보행위상 예측성능 향상 및 시간지연 감소 효과를 얻을 수 있었다. 손실함수에서는 극좌표계 변환을 사용했음에도 불구하고 변환된 보행위상에 대해서 위상차를 계산하고, error regulation을 통해서 시간지연에 의한 위상차 error의 영향을 조절한다. 건강한 성인 5명에 대하여 평지보행 실험을 진행하여 기존 극좌표계 변환 기반 방법과 제안한 방법의 예측 성능을 비교했다. 비교 결과 제안한 방법을 통해 예측 RMSE 오차는 27.3%로 감소하고, 지연은 1/20 수준으로 감소한 것을 확인할 수 있었다. 또한 학습에 포함되지 않은 대상자 1명에 대해서 속도 별 트레드밀 보행에서도 유사한 성능을 보이는 것을 확인했다. 따라서 제안한 방법을 적용함으로써 기존 극좌표계 변환 보행위상 예측기의 성능을 향상할 수 있음을 실험적으로 확인할 수 있었다.
향후 연구에서는 1) 성능 검증을 위한 대규모 실험 추가 진행, 2) IMU 센서 샘플링 속도 향상, 3) 임베디드 시스템 내 적용 후 안정화(온디바이스AI), 4) 발목 보조 로봇 제어 시 인식기로 활용 연구를 후속으로 진행하고자 한다.
Acknowledgments
This work was supported in part by the National Research Foundation of Korea (NRF) grant funded by the Korean government (MSIT) (No. RS-2023-00212372), in part by the Glocal University 30 Project Fund of Gyeongsang National University in 2024, and in part by the ‘Leaders in Industry-University Cooperation 3.0’ project funded by the Ministry of Education and the National Research Foundation of Korea.
References
-
C. Yang, L. Yu, L. Xu, Z. Yan, D. Hu, S. Zhang, and W. Yang, “Current developments of robotic hip exoskeleton toward sensing, decision, and actuation: A review,” Wearable Technologies, vol. 3, Jul., 2022.
[https://doi.org/10.1017/wtc.2022.11]
-
I. Kang, P. Kunapuli, and A. J. Young, “Real-Time Neural Network-Based Gait Phase Estimation Using a Robotic Hip Exoskeleton,” IEEE Transactions on Medical Robotics and Bionics, vol. 2, no. 1, pp. 28-37, Feb., 2020.
[https://doi.org/10.1109/TMRB.2019.2961749]
-
K. Seo, “Real-time estimation of walking speed and stride length using an IMU embedded in a robotic hip exoskeleton,” 2023 IEEE International Conference on Robotics and Automation (ICRA), London, United Kingdom, pp. 12665-12671, 2023.
[https://doi.org/10.1109/ICRA48891.2023.10160770]
-
L. Tang, M. Shushtari, and A. Arami, “IMU-Based Real-Time Estimation of Gait Phase Using Multi-Resolution Neural Networks,” Sensors, vol. 24, no. 8, Apr., 2024.
[https://doi.org/10.3390/s24082390]
-
K. Seo, Y. J. Park, J. Lee, S. Hyung, M. Lee, J. Kim, H. Choi, and Y. Shim, “RNN-based on-line continuous gait phase estimation from shank-mounted IMUs to control ankle exoskeletons,” 2019 IEEE 16th International Conference on Rehabilitation Robotics (ICORR), Toronto, Canada, pp. 809-815, 2019.
[https://doi.org/10.1109/ICORR.2019.8779554]
-
L. Lu, S. Liu, Z. Zhou, J. Sun, A. Melendez-Calderon, and Z. Guo, “Continuous Gait Phase Recognition and Prediction Using LSTM Network Across Walking Speeds and Inclinations,” 2022 International Conference on Advanced Robotics and Mechatronics (ICARM), Guilin, China, pp. 101-106, 2022.
[https://doi.org/10.1109/ICARM54641.2022.9959678]
-
C. F. Martindale, V. Christlein, P. Klumpp, and B. M. Eskofier, “Wearables-based multi-task gait and activity segmentation using recurrent neural networks,” Neurocomputing, vol. 432, pp. 250-261, Apr., 2021.
[https://doi.org/10.1016/j.neucom.2020.08.079]
-
J. Lee, W. Hong, and P. Hur, “Continuous Gait Phase Estimation Using LSTM for Robotic Transfemoral Prosthesis Across Walking Speeds,” IEEE Transactions on Neural Systems and Rehabilitation Engineering, vol. 29, pp. 1470-1477, 2021.
[https://doi.org/10.1109/TNSRE.2021.3098689]
-
B. C. Mateus, M. Mendes, J. T. Farinha, R. Assis, and A. M. Cardoso, “Comparing LSTM and GRU Models to Predict the Condition of a Pulp Paper Press,” Energies, vol. 14, no. 21, Oct., 2021.
[https://doi.org/10.3390/en14216958]
-
H. Ma, J. Cao, B. Mi, D. Huang, Y. Liu, and S. Li, “A GRU-Based Lightweight System for CAN Intrusion Detection in Real Time,” Security and Communication Networks, pp. 1-11, Jun., 2022.
[https://doi.org/10.1155/2022/5827056]
2022~현재 경상국립대학교 기계공학부 학사과정
관심분야: Human-Robot Interaction, Deep Learning, Haptic Device, Mechanism Design
2023 경상국립대학교 제어로봇공학과(학사)
2023~현재 경상국립대학교 제어로봇공학과 석사과정
관심분야: 인간-로봇 상호작용, 생체신호처리, 기계학습
2014 경상국립대학교 기계공학과(공학사)
2016 경상국립대학교 기계설계학과(공학석사)
2022 광주과학기술원 융합기술학제학부 지능로봇전공 (공학박사)
2023~현재 경상국립대학교 제어로봇공학과 조교수
관심분야: 보행 재활 로봇, 햅틱, 보행 인터페이스, 케이블 구동 병렬 로봇
2006 포항공과대학교 기계공학과/전자전기공학과 (학사)
2014 포항공과대학교 기계공학과 박사 (석박통합)
2014~2022 삼성전자 종합기술원 수석연구원
2022~현재 경상국립대학교 기계공학부 조교수
관심분야: Wearable Robot, Walking Assistance Device, Manipulator Force Control, Lab Automation