
로봇 자세 불확실성을 고려한 재투영 기반 AXB=YCZD 이중로봇 시스템 캘리브레이션
CopyrightⓒKROS
Abstract
Conventional dual-robot calibration methods typically ignore uncertainty in robot-pose measurements and suffer from degradation of calibration accuracy. To overcome these limitations, we present a reprojection-based calibration framework for dual robotic systems that explicitly models robot-pose uncertainty within the extended kinematic chain formulation AXB=YCZD. The method jointly estimates the unknown transforms X, Y, and Z, as well as the robot poses. Simulations show the proposed method consistently outperforms a Lie derivative-based method in calibration accuracy. Furthermore, separately estimating the per-robot variance components significantly improves robot-pose estimation accuracy, especially when their noise characteristics differ. Real-world experiments using a Franka Research 3 dual-robot system validate the method’s practical applicability. Our approach outperforms the Lie derivative-based baseline in translation, rotation and reprojection accuracy on both training and test sets. These results confirm that modeling robot-pose uncertainty enables robust dual-robot calibration.
Keywords:
Dual-Robot Calibration, Hand-Eye Calibration, Reprojection-Based Optimization, Robot Pose Uncertainty1. 서 론
다중 로봇 시스템(Multirobot system)이 단일 로봇 시스템과 비교하여 대규모 복잡 작업을 수행함에 효율성, 확장성, 유연성 등 여러 장점을 제공함[1,2]에 따라, 최근 로봇 분야에선 다중 로봇 시스템의 소문제로 볼 수 있는 이중로봇 시스템(Dual-robot system)에서의 로봇-로봇(Robot-Robot) 간 변환 및 센서(Sensor)-엔드이펙터(End effector) 간 변환 캘리브레이션(Calibration) 기법[3-7]이 연구되고 있다.
기존 이중로봇 캘리브레이션 연구는 대체로 주어진 로봇 자세 데이터의 불확실성을 고려하지 않으며, 두 로봇 각각에 부착된 센서와 캘리브레이션 타겟(Calibration target) 사이의 직접적인 관측이 가능한 최적의 팔 구성을 가정한다[3]. 일부 로봇에서 팔이 평행 배치되어 전통적인 캘리브레이션 방법이 데이터 수집이 불가능한 경우, 센서를 추가해 두 센서가 외부 캘리브레이션 타겟을 관측하도록 관측 자유도를 부여하기도 한다[8]. 그러나, 조립 오차와 센서 잡음 등으로 인해 필연적으로 발생하는 로봇 자세의 오차가 이중로봇 캘리브레이션 성능에 크게 영향을 미침에도[5], 로봇 자세의 정밀도에 관한 연구는 기구학적 캘리브레이션 연구[9]에서 주로 다뤄질 뿐 로봇 자세의 측정 불확실성을 고려한 이중로봇 캘리브레이션 연구는 활발히 이루어지지 않았다.
본 논문은 이러한 문제의식에서 출발하여 이중로봇 시스템에서의 재투영오차(Reprojection error) 최소화를 중심으로 한 불확실성 기반 캘리브레이션 프레임워크를 제안한다. 제안된 프레임워크의 핵심 아이디어는 확률모델을 통해 로봇의 불확실성을 모델링하고, 보정된 로봇 자세를 바탕으로 캘리브레이션 정확도를 향상시키는 데 있다. 또한 센서의 추가 도입으로 작업 환경에서 미리 알려진 변환 행렬을 캘리브레이션 체인에 추가하여 제한된 가시성 환경에서도 관측 자유도를 보장받을 수 있도록 하였다. 이때 추가된 변환 행렬은 본질적 기여가 아닌 가시성 제약을 완화하는 실용적 장치로 사용된다.
본 논문의 구성은 다음과 같다. 2절에서는 기존 이중로봇 캘리브레이션 기법의 연구동향을 소개하고, 3절에서는 제안한 방법의 캘리브레이션 모델과 추정 모델을 자세히 설명한다. 4절에서는 제안한 방법의 타당성을 검증하기 위한 시뮬레이션 및 현실에서의 실험 결과를 제시하며, 5절에서는 본 연구의 결론과 향후 연구 방향에 대해 논의한다.
2. 선행 연구
이중로봇 캘리브레이션은 두 로봇이 정밀한 협력 작업을 수행하기 위한 필수 과정으로, 최근까지 다양한 방법이 제안되고 있다. Wang[3]은 손-눈(Hand-Eye), 도구-플랜지(Tool-Flange), 로봇-로봇 간의 캘리브레이션을 동시에 해결하는 AXB=YCZ 문제를 제안하고, 선형 근사 반복법을 통해 미지 변환 X, Y, Z를 추정하였다. Fu[4]는 듀얼쿼터니언(Dual quaternion)을 활용하여 협력 작업 시 좌표 변환의 정확도를 높였으나 미지 변환을 순차적으로 추정하여 오차가 누적되는 한계가 있었으며, Jiang[5]은 SE(3) 공간에서 Lie 미분을 이용한 볼록 최적화 기법을 통해 미지 변환을 동시에 추정하며 안정성과 정확성을 향상시켰다. Ma[6]는 관측 데이터의 시간적 대응이 불확실한 경우에도 적용 가능한 확률적 방법을 제시하였다. Zheng[7]은 외부 센서 없이, 초음파 영상에서 얻을 수 있는 2D 도구 위치 정보만을 이용한 보정 알고리즘을 제안하였다. Jiang[8]은 작업 공간이 좁아 발생하는 기존 이중로봇 캘리브레이션 문제의 데이터 수집 문제를 보완하기 위해 센서 하나를 추가적으로 도입함으로써 측정되는 변환 D를 포함한 확장 체인 AXB=YCZD을 제안하였다.
기존 이중로봇 캘리브레이션 접근은 로봇 자세의 불확실성을 명시적으로 고려하지 않아 캘리브레이션 정확도가 잡음 수준에 민감하게 반응하는 한계를 드러낸다. 이에 반해 최근 단일 로봇의 손-눈 캘리브레이션 연구[10]에선 로봇 자세의 오차를 명시적으로 모델링하고 재투영오차 최소화를 중심으로 한 확률모델 기반의 프레임워크가 보고되어, 로봇 자세를 성공적으로 보정하며 정밀 캘리브레이션이 가능함을 보여주었다. 다만 이러한 결과는 단일 로봇에 초점이 맞춰져 있으며, 이중로봇 협업 시나리오에 대한 검증이 이뤄지지 않았다.
본 연구는 이러한 통찰을 이중로봇 시스템으로 확장한다. 핵심 기여는 비전 센서로부터 유도되는 재투영오차와 로봇 자세의 오차로 구성된 미지 변환 X, Y, Z를 동시에 추정하는 확률모델 기반의 프레임워크를 제안하는 것이며, 로봇 팔별 분산 성분을 독립적으로 반영하여 이중로봇 시스템에서의 수렴 정확도 상승 및 실질적인 로봇 자세 보정을 보인다. 시뮬레이션 실험을 통해 제안된 방법 하에 미지 변환 및 로봇 자세의 추정 정확도의 유의미한 향상을 확인하고, 양팔 시스템을 모사한 실제 실험에서도 로봇 불확실성 모델링 기반 접근의 효과를 검증한다. 더불어, 본 프레임워크는 기존 방법의 가시성 한계를 완화하는 AXB=YCZD 체인을 도입하여 검증하였으나 D가 없는 AXB=YCZ 문제에서도 자연스럽게 축소 적용될 수 있어, 기존 접근과의 통합이 용이하다.
3. 이중로봇 캘리브레이션 방법
3.1 이중로봇 캘리브레이션 모델
본 연구에서는 기존 AXB=YCZ 형태로 정의된 캘리브레이션 문제에 센서 하나를 추가로 도입하고 외부의 캘리브레이션 객체를 활용한 캘리브레이션 체인을 정의한다[8]. 이를 그림으로 나타내면 [Fig. 1]과 같으며, 파란색은 사전에 알고 있는 관측 변환, 빨간색은 캘리브레이션의 대상이 되는 미지 변환이고 식으로 나타내면 (1)과 같다.
| (1) |
미지 변환 는 로봇1의 엔드이펙터 E1에서 센서1 C1간의 동차 변환 행렬이고, 는 로봇1의 베이스 B1에서 로봇2의 베이스 B2간의 동차 변환 행렬이며, 는 로봇2의 엔드이펙터 E2에서 센서2 C2 간의 동차 변환 행렬이다. 측정 데이터 는 로봇1의 베이스 B1에서 로봇1의 엔드이펙터 E1간의 동차 변환 행렬이고, 는 센서1에서 관측한 캘리브레이션 객체 O의 자세이며, 는 로봇2의 베이스 B2에서 로봇2의 엔드이펙터 E2간의 동차 변환 행렬이고, 는 센서2 C2에서 관측한 캘리브레이션 객체 O의 자세이다. 이때 과 는 Perspective-n-Points (PnP) 알고리즘을 통해 계산된 값이며, 본 연구에선 알고리즘에서 발생하는 불확실성을 고려하지 않는다.
본 연구는 캘리브레이션 보드(Calibration board)를 활용한 타겟 기반의 캘리브레이션 방법을 다루며, 캘리브레이션 타겟 좌표계에서 정의된 3차원 점들을 로봇에 부착된 센서로 투영시키는 투영 함수를 이중로봇 시스템에서 구성한다. 캘리브레이션 데이터는 두 로봇의 서로 다른 nr개의 자세 쌍으로 취득되었으며 보드 좌표계(O) 위의 nw개의 3차원 보드 점들을 라 하고, 각 점이 이미지로 투영된 2차원 점들을 pj,k라 하면 로봇 자세 j에서 보드 좌표계에 존재하는 3차원 점의 센서1 이미지를 향한 투영 모델을 식 (2)와 같이 구성할 수 있다.
| (2) |
여기서 는 투영 연산을 의미하며 본 연구에선 핀홀(Pinhole) 모델[11]과 디비전 왜곡 모델(Division distortion model)[12]을 결합한 투영 모델을 사용하였다. 반대로 센서2 이미지를 향한 투영은 식 (3)과 같이 표현할 수 있다.
| (3) |
본 논문에선 기본적으로 를 관측으로 사용한다. 이후 추정 모델에서 각 동차 변환은 오일러(Euler) 각도로 표현된 회전 행렬 , 병진 벡터 와 함께 형식으로 파라미터화 된다. 파라미터화 된 캘리브레이션 데이터 쌍 를 각각 , 미지 변환 를 로 표기한다.
3.2 추정 모델
관측된 로봇 자세를 0-평균의 가우시안(Gaussian) 분포로 가정하여 확률모델을 통해 추정하는 것이 유효함이 보고되었다[10]. 본 절에선 이를 이중로봇 시스템으로 확장한 프레임워크를 제안하고자 하며 알고리즘의 전체 흐름은 [Fig. 2]에, 단계별 요약은 [Table 1]에 정리하였다. 로봇 자세의 불확실성을 고려한 가우스-마르코프(Gauss-Markov) 모델을 구성하는 아이디어는 로봇 자세를 관측이자 미지 변환으로 보는 가상 관측(Fictitious observation) 개념을 기반으로 한다. 식 (2)와 같이 정의된 이미지 픽셀 관측함수 이외에 를 항등함수로 두고, 센서로부터 측정된 로봇 자세 eA,j, eC,j는 확률모델의 관측 벡터에 eA,j = f(eA,j) 형태로 추가된다. 따라서 이중로봇 시스템에서의 관측 벡터 l의 구성은 투영된 이미지 픽셀, 로봇1의 자세, 로봇2의 자세로 확장되며 관측 벡터 l과 가중치 행렬 Qll은 식 (4), (5)와 같이 구성된다.
| (4) |
| (5) |
이때 ni는 투영된 픽셀의 수, 는 각 파라미터에 해당하는 분산 성분이며 rep(A, n) 표기는 A라는 요소가 n번 반복되어 대각 행렬의 성분을 구성함을 나타낸다. 이중로봇 시스템에 따라 각 로봇에 대해 개별적으로 분산을 설정하였는데, 이는 로봇의 반복 정밀도, 위치 정밀도 등의 성능에 따른 상대적인 가중치를 반영하기 위함이다. 로봇 자세가 가상 관측으로 추가된 최적화 파라미터 벡터 x는 식 (6)과 같이 구성된다. 본 논문에선 이중로봇 시스템의 미지 변환 X, Y, Z 그리고 각 로봇의 자세를 최적화 파라미터로 삼으며 왜곡 계수 및 카메라 계수를 포함하는 내부 파라미터 캘리브레이션에 대한 내용은 다루지 않는다.
| (6) |
이후 식 (7)과 같이 정의된 크기의 자코비안(Jacobian) A 행렬을 유도하게 되며, 가상 관측의 도입으로 재투영오차와 관련된 부분은 투영 모델의 연쇄법칙으로 유도되며, 로봇 자세의 오차와 관련된 부분은 단위행렬로 구성되어 있는 형태를 확인할 수 있다.
| (7) |
파라미터 추정 단계에선 확률 모델의 잔차(Residual)를 , 가중치 행렬을 라고 할 때, 식 (8)을 바탕으로 갱신된 을 얻을 수 있으며, 가 충분히 0에 가까워질 때까지 반복적으로 진행한다.
| (8) |
식 (2)에 정의된 투영 함수의 자코비안은 단계별 편미분을 연쇄법칙으로 결합하여 구성한다. 투영 체인이 확장됨에 따라 자코비안 유도 방식도 수정되었으며, 본 연구에선 좌표계 변환의 역방향(Inverse) 자코비안을 명시적으로 사용하는데, 이는 두 로봇 자세의 불확실성 모델을 동일 기준 프레임에서 일관되게 유지하기 위함이다. 상기 정의한 오일러 변환 순서에 대응되는 3차원 좌표 p의 좌표계 변환에 대한 정방향(Forward) 자코비안과 역방향 자코비안을 [Table 2]과 같이 정리할 수 있으며 이때 는 를 만족하는 스큐(Skew) 연산자를 의미한다. 이후 자코비안 구현 시 식 (2)에서 정의한 투영 체인의 변환 순서에 맞게 변환은 정방향 자코비안을, 변환은 역방향 자코비안을 통해 유도되며, 카메라 좌표계로 변환된 이후의 투영 과정에서의 자코비안 유도는 선행 연구[10]를 따라 전개되었다.
제안된 프레임워크는 각 그룹의 분산을 가중치로 활용한다. 그러나 단위가 서로 다른 각 관측 그룹의 분산을 단일 전역 분산 계수로 표현하는 것은 정확한 추정이 어렵다. 따라서 각 관측 그룹에 그룹별 분산을 추정을 위해 가우스-마르코프 모델에서 유도되는 리던던시 행렬(Redundancy matrix) 개념을 이용한 분산 성분 추정(Variance Component Estimation, VCE)[10]를 채택한다. 본 연구에선 이중로봇 시스템에서 로봇이 추가됨에 따라 두 로봇 자세의 분산 성분을 독립적으로 분리하여 각 로봇이 가지는 통계적 특성에 부합하는 분산을 추정할 수 있도록 유도하였다. 추정된 상태 에서의 잔차를 라고 할 때, 관측이 갖는 중복도를 정량화 하기 위해 리던던시 행렬 을 유도한다. 그룹 g에 속한 관측의 인덱스 집합이 Ig라고 할 때, 그룹별 중복도는 Rj를 j번째 열과 행의 대각 성분이라고 할 때 로 정의한다. 본 논문에서 사용하는 그룹은 로, 식 (10), (11)을 따라 각 그룹의 분산 을 보정 계수 를 곱하여 갱신한다.
| (9) |
| (10) |
| (11) |
여기에서 는 그룹 g에 해당하는 잔차의 부분 벡터, 는 동일 인덱스에 대응하는 부분 가중 행렬이다. 이중로봇 시스템에서는 독립적인 로봇 그룹이 추가됨에 따라 두 로봇 자세의 초기 분산 과 을 각 로봇의 성능을 반영한 상대적 크기로 설정할 필요가 있다. 본 연구에선 선행 연구[10]에 기반하여 두 로봇의 초기 분산 비율을 실험적으로 설정하였으며, 최적의 초기 분산 설계 방법을 제안하지는 않는다. 이후 로봇 별 개별 분산 추정 방법이 수렴 성능에 유의미한 영향을 미침을 4.2절의 시뮬레이션 실험을 통해 분석하였다.
분산 추정은 식 (8)로 유도되는 파라미터 추정이 수렴됐을 때 진행하며, 분산 추정으로 갱신된 , 을 사용해 파라미터 추정을 다시 반복한다. 각 그룹에 해당하는 보정 계수가 1.0에 충분히 근접하면 분산 성분 추정이 수렴한 것으로 간주한다.
4. 실험 결과
4.1 초기화 전략 및 비교 프레임워크
본 연구에서는 두 센서가 동일한 보드를 관측한다는 가정 하에 초기에 정의했던 문제를 AXBD-1=YCZ로 등가 변형할 수 있다는 점을 이용하여, 기존 이중로봇 캘리브레이션의 Kronecker 기반 초기화 절차를 채택한다[5]. 이렇게 얻은 초기 변환 X, Y, Z는 이후 모든 알고리즘에서 동일하게 사용된다. 성능 비교를 위해, 제안된 방법과 유사한 프레임워크를 지니며 이중로봇 캘리브레이션에서 높은 수준의 정확도를 보고하고 있는 Lie 미분 기반의 최적화 기법[5]을 동일 프레임워크에 맞춰 구현하고, 성능 비교를 진행하였다.
4.2 시뮬레이션 실험
본 연구에서는 시뮬레이션 기반 캘리브레이션을 위해 기준(ground truth) 변환 X, Y, Z를 임의로 설정하였으며 [Table 3]에 나타내었다. 또한 센서의 내부 파라미터는 사전 캘리브레이션 되어 고정된 것으로 가정하였으며, 설정 기준은 선행연구[10]를 참고하여 [Table 4]에 나타내었다.
이후 1m3 크기의 작업공간을 갖는 두 로봇에 대해 임의의 로봇 자세 를 생성하고, 임의 위치에 정의된 보드 좌표계를 기준으로 두 센서에서 보드까지의 변환 를 구성하였다. 생성된 변환에 대해 가시성 검사를 수행하여, 캘리브레이션 타겟의 모든 점이 이미지 프레임 내로 투영되는 경우에 한해 잡음이 없는 관측 데이터 쌍과 각 센서의 이미지 데이터를 수집하였다. 이후 실험에서 관측 데이터를 캘리브레이션에 사용할 땐 모든 잡음을 0-평균 정규분포로 가정하여 파라미터화 된 에는 와 σt = 1 mm의 잡음을 각 성분에 부여하였고, 이미지 측정치에는 σt = 0.1 px의 잡음을 부여하였다. 카메라와 보드 간의 변환 는 잡음이 추가된 이미지로부터 새롭게 추정하여 고정된 값으로 사용하였다.
제안된 방법의 유효성을 이중로봇 시스템에서 확인하기 위해, 4.1절의 비교 프레임워크 하에서 시뮬레이션에서 수렴 정확도를 평가하였다. 실험 데이터는 20개부터 50개까지 5개씩 늘려가며 실험을 진행했고, 각 조건을 25회 반복하여 평균을 나타내었다. 초기 가중치는 두 로봇에서 동일하게 회전 잡음 0.1°와 병진 잡음 1 mm를 가우시안 분포로 가정하였다. 회전 오차는 상대 변환 의 회전 부분 Rerr에 대해 로 정의하고, 병진 오차는 상대 오차의 병진 부분을 추출하여 로 정의하였으며, 이는 이후 모든 실험에서 동일하게 적용된다. 실험 결과는 [Fig. 3]에 그래프로 나타냈으며 제안된 방법은 UA-Dual, 4.1절에 기술된 초기 변환과 Lie 미분 기반 최적화 기법을 각각 Initial, Lie로 표기하였다. 결과를 분석하면 제안된 방법이 모든 구간에서 일관되게 좋은 수치를 보였으며, 특히 데이터가 50개인 구간에서 제안된 방법이 Lie 방법에 비해 회전과 병진에서 각각 평균적으로 15.7%, 7.5% 개선을 보였다. UA-Dual은 모든 데이터 구간에서 평균적으로 VCE 반복 2~3회 이내에서 수렴에 성공하였다. 모든 실험은 Intel Core i9-10900 CPU, 32GB RAM 데스크톱 환경에서 진행되었으며 데이터 개수가 50개인 경우 평균 수렴 시간은 14.05초가 소요되었다. 이는 제안된 방법의 실시간 적용을 위해서는 향후 연산 병렬화와 같은 추가적인 개선이 필요함을 의미한다.
Hand-eye calibration results with different amounts of data. Blue: Initial value. Green: Lie based method. Orange: proposed uncertainty aware dual method. Error bars indicate 95% confidence intervals
또한, 이중로봇 시스템에서 분리된 분산 추정 방법의 효과를 검증하기 위해 두 로봇의 분산을 달리하여 시뮬레이션 환경을 구성하고 실험을 진행하였고 결과를 [Fig. 4], [Fig. 5]에 나타내었다. 시뮬레이션 데이터 생성 시 로봇1은 회전 잡음 0.1°와 병진 잡음 1 mm를 가우시안 분포로, 로봇2는 회전 잡음 0.2°와 병진 잡음 2 mm를 가우시안 분포로 부여하였다. 두 로봇을 단일 그룹으로 묶어 초기 가중치 (0.1°, 1 mm)를 적용해 공동으로 추정했을 때를 UA-Dual(joint), 두 로봇의 그룹을 분리하여 로봇 별 초기 가중치 (0.1°, 1 mm)와 (0.2°, 2 mm)를 독립 적용한 분리 추정 방법을 UA-Dual로 표기하여 그 결과를 비교하였다.
Hand-eye calibration results with different amounts of data. Blue: Initial value. Orange: proposed uncertainty aware dual method. Magenta: uncertainty aware dual method with joint VCE. Error bars indicate 95% confidence intervals
Robot-pose calibration results with different amounts of data. Blue: Initial value. Orange: proposed uncertainty aware dual method. Magenta: uncertainty aware dual method with joint VCE. Error bars indicate 95% confidence intervals
수렴 이후 분리 추정은 미지 변환 X, Y, Z 추정 정확도에서 약 2% 정확도의 개선을 보였으며, 특히 로봇 자세 추정에서 두 로봇 모두 일관적인 개선을 보였다. 반면, 동시 추정 방법은 로봇1에서 초기값 대비 성능 저하가 관찰되었다. 이는 확장된 이중로봇 시스템에서 두 로봇의 분산을 동시 추정하게 되면 두 로봇이 가지는 잡음을 타협하는 지점으로 수렴하며 일부 로봇의 자세가 왜곡되는 반면, 독립적인 분산 성분을 추정, 적용하면 잡음 특성이 적절히 반영되어 각 로봇의 자세를 일관되게 복원할 수 있음을 시사한다. 이러한 결과는 제안된 프레임워크가 이중로봇 시스템에서 유효성을 가짐과 동시에 다중로봇 시스템으로의 확장 가능성을 뒷받침한다.
4.3 현실 실험
제안된 확장 모델의 실현 가능성을 평가하기 위해 현실 환경에서 이중로봇 시스템에 제안된 캘리브레이션 방법을 적용하여 실험을 수행하였다. 환경 구성에 사용된 로봇은 Franka Research 3(반복정밀도 0.1 mm)이며, 센서는 Microsoft Azure Kinect DK, 캘리브레이션 타겟으로는 차루코보드(ChArUco board)를 사용하였다. 실험 환경은 [Fig. 6]에 나타나 있다. 캘리브레이션 타겟은 로봇 외부에 고정하였고 로봇 자세를 다양하게 바꿔가며 로봇에 부착된 센서가 캘리브레이션 객체를 항상 바라보도록 유지하였다. 센서와 타겟 간 변환 데이터는 PnP 알고리즘을 통해 취득하였다. 총 70개의 데이터셋을 취득하였으며, 50개의 캘리브레이션 데이터셋, 20개의 테스트 데이터셋으로 구성된 현실 데이터셋을 구성하였다. 초기 가중치는 두 로봇에서 동일하게 (0.1°, 1 mm)를 적용하였다. 현실에서 구성된 환경은 기준 변환 X, Y, Z를 모르는 상황이므로 캘리브레이션 결과는 식 (13)과 식 (14)로 정의된 기하학적 오차로 표현한다. 또한 식 (2), (3)을 통해 유도된 두 센서의 예측 픽셀을 , 관측된 픽셀을 라고 할 때 평균 재투영오차를 Dual Reprojection Root Mean Square Error(DRRMSE)로 식 (15)와 같이 정의하여 평가 지표로 활용하였다.
| (12) |
| (13) |
| (14) |
| (15) |
실험 결과는 로봇 자세 캘리브레이션 결과를 함께 평가하기 위해 캘리브레이션에 사용된 캘리브레이션 데이터셋과 테스트 데이터셋에 대해 모두 검증되었으며 각 결과를 [Fig. 7]과 [Fig. 8]에 순서대로 나타내었다. 캘리브레이션 데이터에서 UA-Dual 방법은 회전 오차 0.22°, 병진 오차 2.95 mm, 평균 재투영오차 3.785 px로 초기값 대비 모든 지표에서 개선을 보였고, Lie 방법은 회전 오차는 0.677°로 증가하였으나, 병진 오차가 8.33 mm, 평균 재투영오차는 9.323 px로 개선되었다. 캘리브레이션 세트에서 나타난 큰 폭의 개선으로 보정된 로봇 자세가 전체 잔차 감소에 미친 영향을 확인할 수 있다. 테스트 세트에서 UA-Dual은 회전 오차는 0.582°로 증가되었으나, 병진 오차 7.206 mm, 평균 재투영오차 8.053 px로 초기값과 Lie 대비 더 낮은 수치를 기록하여 제안법이 캘리브레이션 데이터에 과적합 된 결과가 아닌 일반화된 최적화 성능을 보여주었다.
5. 결 론
본 연구는 확장된 체인 AXB=YCZD 하에서 로봇 자세의 불확실성의 확률적 모델링을 결합한 재투영오차 최소화 기반 이중로봇 캘리브레이션 프레임워크를 제안하였다. 제안법은 캘리브레이션 데이터의 잡음 영향을 완화하여 미지 변환 X, Y, Z 추정 정확도를 향상시켰다. 시뮬레이션에서 데이터 수를 변화시키며 기존 방법 대비 일관된 성능 개선을 확인하였고, 두 로봇의 잡음 특성이 다를 때 분산 성분을 독립 추정하는 전략이 이중로봇 시스템으로 확장된 프레임워크에서 로봇 자세 추정의 정확도를 유의미하게 높임을 보였다. 현실 환경 실험에서도 비교 기법 대비 회전, 병진, 재투영오차가 일관되게 낮은 결과를 보였으며 특히 보정된 로봇 자세를 포함했을 때 큰 폭의 개선이 관찰되어 로봇 자세 데이터의 잡음이 캘리브레이션 성능에 미치는 영향을 효과적으로 상쇄함을 보였다. 종합하면, 제안한 로봇 자세의 불확실성 모델링은 이중로봇 시스템 캘리브레이션의 취약점을 보강하여 정확도와 실용성을 동시에 달성하였다. 본 연구에선 PnP 알고리즘으로 추정된 자세의 불확실성을 명시적으로 고려하지 않았다. 이에 PnP 알고리즘의 추정 공분산을 통합하는 확장 프레임워크는 향후 연구 과제로 남긴다. 또한 제안된 방법이 내부 파라미터를 상수로 가정한 점은 본 연구의 한계점이나, 내부 파라미터 수렴이 보장된다면 다중 로봇‧센서 동시 최적화 프레임워크에도 자연스럽게 통합될 수 있을 것으로 기대된다.
Acknowledgments
This work was supported by the Technology Innovation Program 2410012091 (00443027, Development of a mobile manipulator robot system based on multi-collaboration for manipulating and assembling 500 kg large and heavy parts) funded By the Ministry of Trade Industry & Energy (MOTIE, Korea).
References
-
A. Khamis, A. Hussein, and A. Elmogy, “Multi-robot Task Allocation: A Review of the State-of-the-Art,” Studies in Computational Intelligence, vol. 604, no. 21, pp. 31-51.
[https://doi.org/10.1007/978-3-319-18299-5_2]
-
G. Wang, W. Li, C. Jiang, and H. Ding, “Machining Allowance Calculation for Robotic Edge Milling an Aircraft Skin Considering the Deformation of Assembly Process,” IEEE/ASME Transactions on Mechatronics, vol. 27, no. 5, pp. 3350-3361.
[https://doi.org/10.1109/TMECH.2021.3131309]
-
J. Wang, L. Wu, M. Q. H. Meng, and H. Ren, “Towards Simultaneous Coordinate Calibrations for Cooperative Multiple Robots,” IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), Chicago, USA, pp. 410-415, 2014.
[https://doi.org/10.1109/IROS.2014.6942592]
-
Z. Fu, J. Pan, E. Spyrakos-Papastavridis, X. Chen, and M. Li, “A Dual Quaternion-Based Approach for Coordinate Calibration of Dual Robots in Collaborative Motion,” IEEE Robotics and Automation Letters, vol. 5, no. 3, pp. 4086-4093.
[https://doi.org/10.1109/LRA.2020.2988407]
-
C. Jiang, W. Li, W. Li, D. Wang, L. Zhu, W. Xu, H. Zhao, and H. Ding, “A Novel Dual-Robot Accurate Calibration Method Using Convex Optimization and Lie Derivative,” IEEE Transactions on Robotics, vol. 40, pp. 960-977.
[https://doi.org/10.1109/TRO.2023.3344025]
-
Q. Ma, Z. Goh, S. Ruan, and G. S. Chirikjian, “Probabilistic Approaches to the AXB = YCZ calibration Problem in multi-robot systems,” Autonomous Robots, vol. 42, no. 7, pp. 1497-1520.
[https://doi.org/10.1007/s10514-018-9744-3]
-
G. Zheng, X. Zhao, T. Chen, Q. Ling, B. Tao, and H. Ding, “A Simultaneous Ultrasound-Robot Calibration Approach for Dual-Robot Intervention by Solving the AXP = YCQ Problem,” IEEE Transactions on Instrumentation and Measurement, vol. 73, pp. 1-10.
[https://doi.org/10.1109/TIM.2024.3369147]
-
J. Jiang, X. Luo, S. Xu, Q. Luo, and M. Li, “Hand-Eye Calibration of EOD Robot by Solving the AXB = YCZD Problem,” IEEE Access, vol. 10, no. 15, pp. 3415-3429.
[https://doi.org/10.1109/ACCESS.2021.3136850]
-
S. Ryu and H. Moon, “Industrial manipulator calibration with geometric and non-geometric parameters for the enhanced positioning accuracy,” Journal of Mechanical Science and Technology, vol. 37, no. 6, pp. 3103-3112.
[https://doi.org/10.1007/s12206-023-0535-1]
-
M. Ulrich and M. Hillemann, “Uncertainty-Aware Hand-Eye Calibration,” IEEE Transactions on Robotics, vol. 40, pp. 573-591.
[https://doi.org/10.1109/TRO.2023.3330609]
- C. Steger, M. Ulrich, and C. Wiedemann, 2018, March, 19, Machine Vision Algorithms and Applications (Second, Completely Revised and Enlarged Edition), [Online], https://books.google.com/books?id=tppFDwAAQBAJ, .
-
R. Lenz and D. Fritsch, “Accuracy of Videometry with CCD sensors,” ISPRS Journal of Photogrammetry and Remote Sensing, vol. 45, no. 2, pp. 90-110, 1990.
[https://doi.org/10.1016/0924-2716(90)90095-S]
2024 성균관대학교 기계공학과(학사)
2024~현재 성균관대학교 지능형로봇학과(석사)
관심분야: Vision, 6D-pose localization, Robot calibration
1996 포항공과대학교 기계공학과(공학사)
1998 포항공과대학교 기계공학과(공학석사)
2005 Michigan 대학교 기계공학과(공학박사)
2008~현재 성균관대학교 교수
관심분야: Robotics manipulation, Autonomous and Mobile Robots, Visual Sensing, Intelligent Robots

![[Fig. 1] [Fig. 1]](/xml/48722/JKROS_2026_v21n1_74_f001.jpg)
![[Fig. 2] [Fig. 2]](/xml/48722/JKROS_2026_v21n1_74_f002.jpg)
![[Table 1]](../img/npr_tablethum.jpg)
![[Fig. 6] [Fig. 6]](/xml/48722/JKROS_2026_v21n1_74_f006.jpg)
![[Fig. 7] [Fig. 7]](/xml/48722/JKROS_2026_v21n1_74_f007.jpg)
![[Fig. 8] [Fig. 8]](/xml/48722/JKROS_2026_v21n1_74_f008.jpg)