Current Issue

Journal of Korea Robotics Society - Vol. 19 , No. 1

[ ARTICLE ]
The Journal of Korea Robotics Society - Vol. 17, No. 1, pp. 8-15
Abbreviation: J. Korea Robot. Soc.
ISSN: 1975-6291 (Print) 2287-3961 (Online)
Print publication date 28 Feb 2022
Received 14 Oct 2021 Revised 25 Nov 2021 Accepted 06 Dec 2021
DOI: https://doi.org/10.7746/jkros.2022.17.1.008

척추 융합술에서 수술 계획을 재현하기 위한 가상현실 기반 수술 내비게이션 방법
송찬호1 ; 손재범2 ; 정의성2 ; 이호열3 ; 박영상1 ; 정유수

The Method of Virtual Reality-based Surgical Navigation to Reproduce the Surgical Plan in Spinal Fusion Surgery
Chanho Song1 ; Jaebum Son2 ; Euisung Jung2 ; Hoyul Lee3 ; Young-Sang Park1 ; Yoosoo Jeong
1Researcher, DGMIF, Daegu, Korea (chsong@dgmif.re.kr)(yspark@dgmif.re.kr)
2Principal Researcher, DGMIF, Daegu, Korea (jaebum@dgmif.re.kr)(esjung@dgmif.re.kr)
3Senior Researcher, DGMIF, Daegu, Korea (hoyul.cre@gmail.com)
Correspondence to : Senior Researcher, Corresponding author: DGMIF, Daegu, Korea (sysjeong@dgmif.re.kr)


CopyrightⓒKROS
Funding Information ▼

Abstract

In this paper, we proposed the method of virtual reality-based surgical navigation to reproduce the pre-planned position and angle of the pedicle screw in spinal fusion surgery. The goal of the proposed method is to quantitatively save the surgical plan by applying a virtual guide coordinate system and reproduce it in the surgical process through virtual reality. In the surgical planning step, the insertion position and angle of the pedicle screw are planned and stored based on the virtual guide coordinate system. To implement the virtual reality-based surgical navigation, a vision tracking system is applied to set the patient coordinate system and paired point-based patient-to-image registration is performed. In the surgical navigation step, the surgical plan is reproduced by quantitatively visualizing the pre-planned insertion position and angle of the pedicle screw using a virtual guide coordinate system. We conducted phantom experiment to verify the error between the surgical plan and the surgical navigation, the experimental result showed that target registration error was average 1.47 ± 0.64 mm when using the proposed method. We believe that our method can be used to accurately reproduce a pre-established surgical plan in spinal fusion surgery.


Keywords: Surgical Planner, Surgical Navigation, Virtual Reality (VR)

1. 서 론

척추 융합술(Spinal fusion surgery)은 골절, 종양 및 퇴행성질환과 같은 척추 질환의 치료과정에서 질환이 발생한 척추와 척추 사이에 척추경 나사못(Pedicle screw)을 삽입하여 생체역학적으로 고정하는 수술적 치료 방법이다[1,2]. 척추 융합술에서 척추경 나사못의 배치는 신경학적 후유증이나 혈관 손상과 같은 잠재적 합병증을 야기할 수 있기 때문에 정확한 나사못 삽입은 척추융합술에서 중요한 문제이다[3,4].

오늘날 의료 영상, 수술 내비게이션 및 수술 로봇 등 수술을 보조할 수 있는 의료기술이 발달함에 따라, 척추 융합술은 삽입 정확도를 높임과 동시에 출혈, 근육 손상 등 부수적인 위험요인을 감소시키기위한 방향으로 발전되어 왔다.

일반적인 절개 수술은 인체의 해부학적 특징점(Anatomical landmarks)을 바탕으로 나사못을 삽입하여 수술의 정확도가 의사의 숙련도에 영향을 받으며, 선행 연구에 따르면 숙련도에 따라 최대 40%의 오배치가 나타나는 것으로 보고되고 있다[5].

컴퓨터 단층 촬영(Computer tomography, CT), 자기 공명 영상법(Magnetic resonance imaging, MRI) 및 2D/3D 형광 투시법(fluoroscopy) 등 현대 의료영상 기술의 발전과 함께 환자의 의료 영상을 활용하여 수술 부위의 구조적 특징을 파악하고 수술 계획을 수립하여 나사못 삽입을 보조하는 기술들이 연구되었지만, 수술 계획을 수술에 직접 적용하지 못한다는 점과 의사와 환자에게 방사선 노출이 지속된다는 한계점이 있다[6-8].

컴퓨터 보조 수술(Computer-assisted surgery, CAS)의 발전과 함께 광학식 추적 장치(Optical tracking system, OTS) 기반의 수술 내비게이션 기술들이 연구되었고, 사전에 수립된 수술 계획과 수술 수행 간 직접적인 연결을 위한 연구가 수행되어 왔다[7,9,10]. Schlenzka[7]는 광학식 추적 장치를 적용한 척추 수술 내비게이션을 제안하여 임상 검증을 수행하였다. 그가 제안한 수술 내비게이션은 환자의 의료영상을 3차원으로 재구성하여 수술 계획을 수립하고, 환자-영상 간 영상 정합을 통해 사전에 수립된 척추경 나사못의 삽입 경로를 시각화하여 수술을 보조한다. 임상 환경에서 30명 환자를 대상으로 95.7%의 삽입 정확도가 보고된 바 있다.

Nolte[8]는 C-arm 장비의 X-ray 형광투시법을 적용한 수술 내비게이션 기술을 제안하였다. 해당 연구에서는 C-arm 캘리브레이션 및 3D-2D 영상 정합을 적용, 수술 중 획득한 X-ray 형광 투시 영상을 자동 변환하여 나사못 삽입 과정을 보조한다. C-arm 기반 수술 내비게이션은 환자-영상 정합이 자동으로 수행되는 이점이 있지만, C-arm 좌표계 포함하여 시스템 구성이 복잡하고 X-ray 영상에 대한 한계로 깊이 정보 제공이 불가하다는 한계점이 있다[8,11].

Elmi-Terander[12]는 하이브리드 수술실(hybrid operating rooms, H-OR)에서 2D/3D Cone beam CT (CBCT)와 비전 기반 추적 시스템을 통합한 척추 수술 내비게이션을 제안하였다. 제안된 시스템은 CBCT 패널에 비전 추적 카메라 모듈을 통합하여 자동으로 환자에 부착된 마커를 추적하고 영상 정합을 진행하여 척추경 나사못의 삽입 경로를 증강현실로 시각화 한다. C-arm 기반 척추 수술 내비게이션 대비 영상 추적을 위한 방사선 노출이 감소되고, 피부 부착형 마커를 적용하여 최소침습 수술이 가능하다는 이점이 보고되었다[12-15].

척추 수술을 보조하기 위하여 다양한 의료영상 기법과 수술 내비게이션 기술이 연구되어왔다. 수술 보조 기술의 발전에 따라 척추융합술에서 수술 정확도가 비약적으로 향상되어왔지만, C-arm, CBCT 및 H-OR의 적용에 따른 시스템 복잡도 또한 함께 증가하였다.

본 연구에서는 시스템 복잡도를 줄이기 위해 단일 카메라 기반의 비전 추적 시스템을 적용한 척추 수술 계획 및 내비게이션 방법을 제안한다. 제안하는 방법은 가이드 좌표계를 적용하여 척추경 나사못의 삽입 위치 및 각도를 정량적으로 저장하고, 비전 기반 추적 장비를 적용하여 수술실 내에서 사전에 계획된 척추경 나사못의 위치 및 각도를 가상현실로 표현하여 수술을 보조한다. 제안하는 방법을 검증하기 위하여 척추 모형을 활용하여 수술 계획 및 수술 내비게이션간 오차 검증 실험을 진행하였고 평균 1.47 ± 0.64 mm의 오차를 확인할 수 있었다.

본 논문의 구성은 다음과 같다. 2장에서는 제안하는 수술 플래닝과 수술 내비게이션의 전체 시스템 개요에 대하여 설명하고, 3장에서는 수술 플래닝과 수술 내비게이션 방법론을 설명한다. 4장에서는 제안하는 방법을 검증하기 위한 실험에 대하여 다루고 5장에서는 결론을 정리하며 논문을 마친다.


2. 시스템 개요

본 연구에서는 수술 계획을 재현하기 위한 척추 수술 내비게이션 방법을 제안한다. 제안하는 방법은 척추경 나사못의 삽입 위치 및 각도를 계획하여 가이드 좌표계(Guide coordinates)를 기준으로 저장하고, 환자-영상 정합을 통해 저장된 가이드 좌표계와 나사못 위치 및 각도를 가상현실로 표현하여 사전에 설정된 수술 계획을 수술실 내에서 재현할 수 있도록 한다.

제안하는 방법은 수술 계획(Surgical planning), 환자-영상 정합(Patient-to-image registration) 및 수술 내비게이션(Surgical navigation)의 과정으로 구성되며 전체 구성도는 [Fig. 1]과 같다. 수술 계획 단계에서는 환자 의료영상을 바탕으로 척추경 나사못 삽입을 시뮬레이션하여 최종적으로 검토된 삽입 위치 및 각도를 가이드 좌표계를 기준으로 저장한다. 환자-영상 정합 단계에서는 비전 기반 추적 시스템을 바탕으로 환자 좌표계를 설정하고, 포인트 기반 정합(Paired point registration, PPR)을 적용하여 영상 좌표계에서 환자 좌표계로의 변환관계(Homogeneous transformation)를 도출한다. 수술 내비게이션 단계에서는 도출된 변환관계를 적용하여 영상 좌표계의 수술 정보 가 환자 좌표계를 통해 시각화 된다. 이 때, 수술 도구의 현재 위치 및 각도를 실시간 추적하여 함께 시각화함으로써 계획된 수술을 재현한다.


[Fig. 1] 
Schematic diagram of the workflow in compliance with the proposed surgical planning-navigation method and the conventional method


3. 방 법
3.1 척추 수술 플래닝

척추경 나사못의 삽입 계획을 수립하기 위한 수술 플래닝 과정은 [Fig. 2]와 같다. 가상 공간 내에서 수술을 모사하여 수술 계획을 수립하기 위해서는 환자의 의료영상을 3차원으로 재구성하여 수술 도구와 함께 렌더링하는 과정과 수술 도구를 이동 및 회전시켜 수술을 모사하고 저장하는 과정이 필요하다.


[Fig. 2] 
Conceptual diagram of spine surgical planning for the pedicle screw insertion

본 연구에서는 가상 공간 내에서 수술 계획을 수립할 수 있도록 CT 의료영상을 3차원으로 재구성하여 척추경 나사못과 함께 렌더링하였다. 척추경 나사못의 이동을 모사하기 위해서 3차원 회전 및 이동이 가능한 3D 마우스(Spacemouse enterprise, 3DCONNEXION, Munich, Germany)를 적용하여 가상공간 내에서 척추경 나사못의 이동 및 회전이 가능하도록 하였다.

일반적으로 대부분의 가상현실 기반 수술 계획 및 내비게이션 연구들은 시각적 정보를 바탕으로 수술을 보조하기 때문에, 정량적인 수술 정보를 제공하기에 한계가 있다[7,9,11,12]. 본 연구에서는 수술 플래닝 과정을 정량적으로 저장 및 재현하기 위하여 가이드 좌표계를 고안하였다. 가이드 좌표계는 가상의 좌표계로써, 척추경 나사못의 끝단을 기준으로 정의된다. 척추경 나사못의 끝단을 원점으로 x, y, z축으로의 3개 점을 생성하여 가상의 좌표계를 설정하고, 좌표계를 기준으로 각도를 계산함으로써 나사못의 위치 및 각도를 정량적으로 저장할 수 있다.

가이드 좌표계는 영상 좌표계의 4개 점으로 구성되므로 환자-영상 정합을 거쳐 수술 내비게이션이 구현되면 환자 좌표계를 통해 표시되어 함께 저장된 나사못의 위치 및 각도를 정량적으로 나타낼 수 있다. 본 과정을 통해 수술 계획이 완료되면 최종적으로 검토된 나사못의 위치, 각도 및 가이드 좌표계를 저장하여 내비게이션 구현이 가능하도록 한다.

3.2 환자-영상 정합
3.2.1 비전 기반 추적 시스템

가상현실 수술 내비게이션은 영상 정합을 바탕으로 영상 좌표계의 의료 정보를 환자 좌표계를 통해 시각화하여 수술에 필요한 정보를 제공한다. 여기에서 환자 좌표계는 추적 시스템을 통해 환자를 기준으로 설정하는 좌표계를 의미한다. 본 연구에서는 단일 카메라(Logitech BRIO, Logitech, Lausanne, Switzerland) 기반의 비전 추적 시스템을 적용하여 환자 좌표계를 설정하였다. 적용된 추적 시스템은 OpenCV (Open source computer vision)의 ARUCO 모듈을 적용하여 단일 카메라에서 마커의 3차원 위치를 실시간 추적한다.

적용된 ARUCO 모듈은 다중 마커 추적, 오류 보정의 기능을 제공하여 성능과 알고리즘의 강인성 면에서 우수한 특징이 있다[16]. ARUCO 모듈을 활용한 추적 시스템은 마커의 구성, 동시 인식 개수에 따라 정확도가 상이할 수 있으나 다중 마커의 인식이 보장되는 환경에서는 1 mm 이하의 정확도를 나타낸다[17,18]. 본 연구에서는 정육면체 형태의 마커를 제작하여 다중 마커가 동시에 인식되도록 함으로써 추적 정확도를 높이도록 시스템을 구성하였다.

본 연구에서 적용한 비전 추적 시스템의 구성도는 [Fig. 3]과 같다. 환자 좌표계를 {PM}, 카메라 좌표계를 {C}, 수술 도구 좌표계를 {TM}, 수술 도구 끝단 좌표계를 {P}라 할 때, 환자 좌표계에서 수술 도구 끝단까지의 변환관계는 식 (1)과 같이 정의된다.

TCPMTTMCTPTM=TPPM(1) 

[Fig. 3] 
Schematic diagram of vision tracking system

여기에서 TCPM은 환자 좌표계 {PM}에서 카메라 좌표계 {C}로의 변환관계를 나타낸다. 카메라 좌표계 {C}에서 수술 도구 좌표계 {TM}까지의 변환관계는 TTMC, 수술 도구 좌표계 {TM}에서 수술 도구 끝단 좌표계 {P}까지의 변환관계는 TPTM으로 나타낸다. 일련의 변환관계를 적용하여 환자 좌표계 {PM}을 기준으로 수술 도구 끝단 좌표계 {P}까지의 변환관계인 TPTM가 도출된다. 따라서, 도출된 변환관계 TPTM을 적용하여 환자 좌표계를 설정하고, 환자 좌표계를 기준으로 수술 도구 끝단의 위치를 실시간 추적할 수 있다.

3.2.2 포인트 기반 정합

영상 좌표계에서 환자 좌표계로의 변환관계를 도출하기 위해서는 환자-영상 정합(Patient-to-image registration) 과정이 필요하다. 본 연구에서는 포인트 기반 정합(Paired point registration) [19,20]을 적용하여 영상 좌표계에서 환자 좌표계로의 변환관계를 계산하였다.

[Fig. 4]는 제시된 방법에서 적용한 환자-영상 정합과정을 나타낸다. 환자-영상 정합을 위해는 의료 영상의 영상 좌표계와 추적 시스템의 환자 좌표계에서 각각 동일한 위치에 포인트 쌍(Paired-point)을 획득하여야 한다. 일반적으로 포인트 선정을 위해서는 수술 전 영상 좌표계에서 포인트 쌍을 선정하고, 수술 준비 과정에서 추적 시스템을 통해 환자 좌표계를 설정 한 다음 환자 좌표계의 포인트 쌍을 획득하여 수술 내비게이션을 구현한다.


[Fig. 4] 
Conceptual diagram of patient-to-image registration

본 연구에서는 수술 계획 과정에서 영상 좌표계의 포인트 쌍을 선정하였고 수술 내비게이션 구현 과정에서 환자 좌표계 설정을 통해 환자 좌표계의 포인트 쌍을 획득하였으며, 척추 수술과정에서 노출되는 척추의 해부학적 특징점을 고려하여 7개의 포인트 쌍을 영상 좌표계 및 환자 좌표계에서 각각 획득하였다. 획득된 포인트 쌍을 통한 포인트 기반 정합의 과정은 다음과 같다.

A=ρ1PM-ρPM¯,,ρnPM-ρPM¯(2) 
B=ρ1V-ρV¯,,ρnV-ρV¯(3) 

여기에서 ρPM은 환자 좌표계 기준 포인트를 나타내고, ρV는 영상 좌표계 기준 포인트를 나타내며, ρPM¯, ρV¯는 포인트의 위치 평균을 나타낸다. 각 포인트들의 공분산 행렬에 특이값 분해(Singular value decomposition, SVD)를 적용하면 다음과 같다.

UΣVT=BAT(4) 

여기에서 U, VT는 직교 회전 행렬을 나타내며, Σ는 스케일링 행렬을 나타낸다. 따라서, 다음과 같이 회전행렬 R과 병진벡터 t를 도출할 수 있다.

R=UVT(5) 
t=y¯-Rx¯(6) 

도출된 회전행렬과 병진벡터를 통해 서로 다른 좌표계간의 변환관계를 계산할 수 있다.

포인트 기반 정합 결과, 영상 좌표계 {V}에서 환자 좌표계 {PM}으로의 변환관계 TPMV이 도출된다. 도출된 변환관계를 적용하는 과정은 다음과 같다.

ρV=TPMVρPM(7) 

변환관계를 적용함으로써 환자 좌표계 기준의 포인트 ρPM이 영상 좌표계 기준의 포인트 ρV로 변환된다. 결론적으로, 영상 좌표계의 정보들이 환자 좌표계를 통하여 시각화 된다.

3.3 척추 수술 내비게이션

환자-영상 정합 결과로 도출된 변환관계 TPMV는 좌표계 측면에서 볼 때 영상 좌표계에서 환자 좌표계로의 방향을 나타내지만, 좌표계의 정보는 환자 좌표계 기준에서 영상 좌표계 기준으로 변환됨을 알 수 있다. 따라서, 가상현실 수술 내비게이션을 구현하기 위해서는 환자 좌표계 기준의 수술 도구 좌표계를 영상 좌표계 기준으로 변환해야 한다. 이를 수식으로 나타내면 다음과 같다.

TPMVTCPMTTMCTPTM=TPV(8) 

여기에서 TCPMTTMCTPTM는 환자 좌표계 {PM}에서 수술 도구 끝단 좌표계 {P}로의 변환관계이고, TPMV는 영상 좌표계 {V}에서 환자 좌표계 {PM}으로의 변환관계이다. 일련의 변환관계를 적용하면 영상 좌표계 {V}에서 수술 도구 끝단 좌표계{P}로의 변환관계 TPV가 도출된다. 따라서 도출된 변환관계 TPV를 적용하면 환자 좌표계 기준의 수술 도구 위치가 영상 좌표계 기준으로 변환되므로, 척추경 나사못 위치, 각도 및 가이드 좌표계의 영상 좌표계 정보와 수술 도구의 현재 위치가 영상 좌표계를 기준으로 함께 시각화된다.

수술 계획 수립, 환자 추적, 환자-영상 정합을 통해 구현된 가상현실 척추 수술내비게이션은 [Fig. 5]와 같다. 가상현실을 통해 척추경 나사못의 삽입 위치 및 각도와 현재 수술 도구의 위치 및 각도가 함께 시각화된다. 또한, 가이드 좌표계를 통해 삽입 위치 및 각도가 정량적으로 표시되고, 수술 도구와의 오차가 함께 시각화 되므로, 이를 통해 사전에 계획된 수술 계획을 정량적으로 재현할 수 있다.


[Fig. 5] 
Spine surgical navigation display during pedicle screw insertion


4. 결 과

제안하는 척추 수술 계획 및 내비게이션 방법을 증명하기 위하여 척추 모형을 제작하여 수술 계획과 내비게이션간 오차 비교 실험을 진행하였다. 실험을 위하여 비전 추적 시스템을 수직으로 설치하였고 수술도구 마커와 환자 마커가 동시에 추적되도록 카메라의 높이 및 시야각(Field of view)을 설정하였다. 제작된 척추 모형을 바탕으로 수술 계획을 사전에 수립하고 환자-영상 정합을 통해 척추 수술 내비게이션을 구현하여 계획된 수술도구의 위치를 재현함으로써 수술 계획과 내비게이션간 오차를 비교하였다. 수술 계획 수립, 환자-영상 정합 및 수술 내비게이션 구현의 과정을 각각 2회 수행하여 실험을 진행하였다.

[Fig. 6]는 수술 내비게이션을 구현하여 계획된 수술 도구의 위치를 재현하는 과정을 나타낸다. 그림에서 적색 및 녹색의 포인트들은 각각 영상 좌표계와 환자 좌표계에서 설정된 포인트 정보를 나타낸다. 영상 정합 전(Before registration)의 각 좌표계에 위치한 포인트 정보들이 영상 정합 후(After registration)에는 좌표계 변환을 통해 중첩되어 나타남을 알 수 있다. 본 논문에서 제시하는 가이드 좌표계 기반의 수술 내비게이션을 구현하여 수술도구의 위치를 재현한 결과(Navigation results), 사전에 설정된 적색 선분의 수술계획 위치 및 황색의 가상좌표계를 바탕으로 녹색 선분의 수술도구 위치가 재현되어 나타난다.


[Fig. 6] 
Experimental results of spine surgical navigation

수술 내비게이션 구현 과정의 오차를 측정하기 위하여 환자-영상 정합 오차인 Fiducial registration error (FRE)를 계산하였고, 수술 계획 결과와 수술 내비게이션 결과의 오차를 비교하기 위한 Target registration error (TRE)를 계산하였다. 실험 결과는 [Table 1]과 같이 나타내었다.

[Table 1] 
Result of phantom study
FRE (mm) TRE (mm) Angle of error (°)
#1 1.34 1.02 x 0.33
y 1.71
z 1.70
#2 1.65 1.92 x 0.63
y 0.27
z 0.24

FRE를 계산하기 위하여 환자-영상 정합에 사용된 영상 좌표계 기준 포인트와 환자 좌표계 기준 포인트간 정합 이후의 RMS 오차를 계산하였다. TRE는 수술 플래닝 과정의 척추경 나사못의 위치 및 각도와 수술 내비게이션을 통해 설정한 척추경 나사못의 위치 및 각도의 RMS 오차를 계산하였다.

실험결과 평균 1.49 ± 0.22 mm의 FRE를 확인하였고, 평균 1.47 ± 0.64 mm의 TRE를 확인하였다. 실험을 통하여 수술 계획 과정의 나사못 삽입 위치와 수술 내비게이션의 나사못 삽입 위치를 비교였을 때 2 mm 이내의 오차로 수술 재현이 가능함을 확인할 수 있었다.


5. 결 론

본 논문에서는 비전 기반 추적 시스템을 적용한 척추 수술 계획 및 내비게이션 방법을 제안하였다. 제안하는 방법은 가이드 좌표계를 적용하여 척추경 나사못의 삽입 위치 및 각도를 정량적으로 계획하고 가상현실로 시각화 하여 수술실 내에서 수술 계획을 재현한다. 또한, 단일 카메라 기반의 추적 시스템을 적용하여 상용 의료장비(C-arm, CBCT 및 H-OR) 기반의 선행연구 대비 비용 효율을 높였고, 수술 과정에서의 방사선 노출을 감소시킬 수 있었다.

척추 모형을 제작하여 수술 내비게이션의 오차를 검증하기 위한 실험을 진행하였고, 평균 2 mm 이내의 오차로 수술 재현이 가능함을 확인하였다. 기존 임상 연구 결과에 따르면 일반적으로 척추경 나사못 삽입에서 요구되는 안전 범위(safe area)는 2 mm 이내이며[5,9], 척추경 나사못 삽입 정확도 평가를 위해 사용되는 Gertzbein grading 기준에서 가장 높은 정확도인 Grade 0는 3.5-4.5 mm의 나사못 직경(pedicle diameter) 내 삽입을 기준으로 한다[12,13]. 따라서 수행된 실험 결과를 통해 제시된 방법이 척추경 나사못의 안전 범위를 충족함을 알 수 있다.

본 연구의 목표는 수술 계획을 정량적으로 저장하였다가 가상현실 수술 내비게이션을 통해 수술실 내에서 수술계획을 재현하는 것이다. 이를 위한 수술 내비게이션 구현 과정에서 추적 시스템이 적용되어야 하고, 전체 시스템의 정확도는 적용된 추적 시스템의 정확도에 영향을 받게 된다. 제시된 방법에서는 비용 효율성 측면을 고려하여 자체 개발한 비전 기반의 추적 시스템을 적용하였고, 단일 카메라와 ARUCO 모듈을 적용하여 제안하는 방법이 척추 수술에서 허용하는 오차 범위를 충족함을 확인하였다. 개발된 비전 추적 시스템은 상업용 광학식 추적 시스템과 비교하였을 때, 저가의 단일 카메라와 제작 가능한 마커를 사용하여 비용효율 측면은 뛰어나지만 시스템 정확도 및 정밀도 측면에서는 분명 한계점이 있다. 본 연구에서는 제한된 자원으로 인하여 상용 추적 시스템 적용에 한계가 있었으나, 후속 연구를 통해 광학식 추적 시스템과 같은 상용 추적 시스템의 적용을 검토할 계획이다.

향후 연구에서는 동물 실험을 진행하여 실제 수술에서의 적용 가능성을 검증할 계획이다. 제안된 수술 내비게이션 방법은 수술 도구의 위치 및 각도를 계획하여 저장하고 가상현실을 통해 계획된 수술 도구의 위치 및 각도를 재현하는 것을 목표로 한다. 따라서 본 논문에서 적용된 척추 융합술 뿐만 아니라 계획된 수술 도구의 자세를 수술실 내에서 재현하기 위한 다른 수술 분야에도 적용될 수 있을 것으로 기대한다.


Acknowledgments

This research was supported by a grant of the Daegu-Gyeong buk/Osong Medical Cluster R&D Project funded by the Ministry of Science and ICT, the Ministry of Trade, Industry and Energy, the Ministry of Health & Welfare, Republic of Korea (HI19C0760)


References
1. R. Roy-Camille, G. Saillant, and C. Mazel, “Internal fixation of the lumbar spine with pedicle screw plating,” Clinical Orthopaedics and Related Research, no. 203, pp. 7-17, Feb, 1986, [Online], https://europepmc.org/article/med/3955999.
2. S. D. Gertzbein and S. E. Robbins, “Accuracy of pedicular screw placement in vivo,” Spine, vol. 15, no. 1, pp. 11-14, Jan, 1990.
3. J. D. Coe, V. Arlet, W. Donaldson, S. Berven, D. S. Hanson, R. Mudiyam, J. H. Perra, H. Joseph, and C. I. Shaffrey, “Complications in spinal fusion for adolescent idiopathic scoliosis in the new millennium. A report of the Scoliosis Research Society Morbidity and Mortality Committee,” Spine, vol. 31, no. 3, pp. 345-349, Feb, 2006.
4. P. Jutte and R. Castelein, “Complications of pedicle screws in lumbar and lumbosacral fusions in 105 consecutive primary operations,” European Spine Journal, vol. 11, no. 6, pp. 594-598, Dec, 2002.
5. W. H. Castro, H. Halm, J. Jerosch, J. Malms, J. Steinbeck, and S. Blasius, “Accuracy of pedicle screw placement in lumbar vertebrae,” Spine, vol. 21, no. 11, pp. 1320-1324, Jun, 1996.
6. G. M. Malham and T. Wells-Quinn, “What should my hospital buy next?—guidelines for the acquisition and application of imaging, navigation, and robotics for spine surgery,” Journal of Spine Surgery, vol. 5, no. 1, p. 155, Mar, 2019.
7. D. Schlenzka, T. Laine, and T. Lund, “Computer-assisted spine surgery,” European Spine Journal, vol. 9, no. 1, pp. S057-S064, Feb, 2000.
8. L.-P. Nolte, M. A. Slomczykowski, U. Berlemann, M. J. Strauss, R. Hofstetter, D. Schlenzka, T. Laine, and T. Lund, “A new approach to computer-aided spine surgery: fluoroscopy-based surgical navigation,” European Spine Journal, vol. 9, no. 1, pp. S078-S088, Feb, 2000.
9. T. Laine, D. Schlenzka, K. Mäkitalo, K. Tallroth, L.-P. Nolte, and H. Visarius, “Improved accuracy of pedicle screw insertion with computer-assisted surgery: A prospective clinical trial of 30 patients,” Spine, vol. 22, no. 11, pp. 1254-1258, Jun, 1997.
10. D. Schlenzka and T. Laine, “Computer-assisted pedicle screw insertion. First clinical experience,” Computer assisted orthopedic surgery (CAOS), Hogrefe & Huber, Seattle Toronto Bern, pp. 99-103, 1999, [Online], https://caos-international.org/.
11. R. Hofstetter, M. Slomczykowski, M. Sati, and L.-P. Nolte, “Fluoroscopy as an imaging means for computer-assisted surgical navigation,” Computer Aided Surgery, vol. 4, no. 2, pp. 65-76, May, 1999.
12. A. Elmi-Terander, H. Skulason, M. Söderman, J. Racadio, R. Homan, D. Babic, N. van der Vaart, and R. Nachabe, “Surgical navigation technology based on augmented reality and integrated 3D intraoperative imaging: a spine cadaveric feasibility and accuracy study,” Spine, vol. 41, no. 21, p. E1303, Nov, 2016.
13. A. Elmi-Terander, R. Nachabe, H. Skulason, K. Pedersen, M. Söderman, J. Racadio, D. Babic, P. Gerdhem, and E. Edström, “Feasibility and accuracy of thoracolumbar minimally invasive pedicle screw placement with augmented reality navigation technology,” Spine, vol. 43, no. 14, pp. 1018-1023, Jul, 2018.
14. P. Auloge, R. L. Cazzato, N. Ramamurthy, P. de Marini, C. Rousseau, J. Garnon, Y. P. Charles, and J.-P. Steib, and A. Gangi, “Augmented reality and artificial intelligence-based navigation during percutaneous vertebroplasty: a pilot randomised clinical trial,” European Spine Journal, vol. 29, no. 7, pp. 1580-1589, Jul, 2020.
15. E. Edström, G. Burström, R. Nachabe, P. Gerdhem, and A. Elmi Terander, “A novel augmented-reality-based surgical navigation system for spine surgery in a hybrid operating room: design, workflow, and clinical applications,” Operative Neurosurgery, vol. 18, no. 5, pp. 496-502, May, 2020.
16. S. Garrido-Jurado, R. Munoz-Salinas, F. J. Madrid-Cuevas, and M. J. Marin-Jimenez, “Automatic generation and detection of highly reliable fiducial markers under occlusion,” Pattern Recognition, vol. 47, no. 6, pp. 2280-2292, Jun, 2014.
17. F. J. Romero-Ramirez, R. Munoz-Salinas, and R. Medina-Carnicer, “Speeded up detection of squared fiducial markers,” Image and vision Computing, vol. 76, pp. 38-47, Aug, 2018.
18. F. P. Villani, M. D. Cosmo, A B. Simonetti, E. Frontoni, and S. Moccia, “Development of an Augmented Reality system based on marker tracking for robotic assisted minimally invasive spine surgery,” International Conference on Pattern Recognition, pp. 461-475, Feb, 2021.
19. K. S. Arun, T. S. Huang, and S. D. Blostein, “Least-squares fitting of two 3-D point sets,” IEEE Transactions on pattern analysis and machine intelligence, no. 5, pp. 698-700, May, 1987.
20. B. K. P. Horn, “Closed-form solution of absolute orientation using unit quaternions,” Journal of the Optical Society of America A, vol. 4, no. 4, pp. 629-642, Apr, 1987.

송 찬 호

2017 대구경북과학기술원 로봇공학(공학석사)

2018 대구경북과학기술원 미래자동차융합연구센터(연구원)

2018~현재 대구경북첨단의료산업진흥재단(연구원)

관심분야: Visual odometry, Robot vision, Augmented-reality

손 재 범

1993 KAIST 정밀공학과(공학사)

1996 포항공과대학교 기계공학과(공학석사)

2006 Mechanical Engineering, University of Michigan, Ann Arbor.(공학박사)

2018~현재 대구경북첨단의료산업진흥재단(책임연구원)

관심분야: Medical robotics and devices, cyber-physical system, situation recognition, rehabilitation

정 의 성

2011 경북대학교 대학원 전자공학과 졸업(공학 박사)

2015~2021 대구경북첨단의료산업진흥재단(선임연구원)

2021~현재 대구경북첨단의료산업진흥재단(책임연구원)

관심분야: Bio-signal processing, Medical audio processor, Medical implant

이 호 열

2012 한양대학교 전기전자제어계측공학과(공학 박사)

2017~현재 대구경북첨단의료산업진흥재단(선임연구원)

관심분야: Robotics, Surgical Robot, Rehabilitation Robot

박 영 상

2016 금오공과대학교 IT융복합공학(공학석사)

2016~현재 대구경북첨단의료산업진흥재단(연구원)

관심분야: Bio-signal processing, Rehabilitation engineering

정 유 수

2019 경북대학교 전자공학부 졸업(공학박사)

2019~현재 대구경북첨단의료산업진흥재단(선임연구원)

관심분야: Image processing, Machine learning