YTN 사이언스

위로 가기

[과학의달인] 나와 똑같이 행동하는 '아바타 로봇'

2023년 02월 23일 16시 58분
■ 배준범 / 울산과학기술원(UNIST) 기계공학과 교수

[앵커]
멀리 떨어져 있는 로봇이 내가 움직이는 동작을 그대로 똑같이 한다면 얼마나 신기할까요. 영화에서 본 아바타를 어쩌면 현실 속에서 만날 날이 머지않은 것 같습니다. 우리 연구진이 아바타 로봇을 개발해 세계대회에서 아시아 팀 가운데 1위를 차지했는데요, 그 주인공인 울산과학기술원, UNIST 기계공학과 배준범 교수님을 오늘 '과학의 달인'으로 모셨습니다. 어서 오세요.

[인터뷰]
안녕하세요.

[앵커]
'아바타 로봇' 어떤 것인지 전반적으로 소개를 좀 해주실까요?

[인터뷰]
최근에 2편을 개봉하기도 했던 영화‘아바타’를 생각하시면 이해가 쉬울 것 같은데, 그 개념은 유사합니다. 영화에서 보면 아바타를 조종하는 사람이, 사람의 생체 신호를 측정하는 어떤 시스템과 연결이 되고, 그 사람과 연결된 아바타는 조종하는 사람의 생각대로 움직이고, 조종자는 아바타와 같은 감각을 느끼며, 마치 그곳에 있는 것처럼 행동하고, 생각하고, 느끼게 됩니다.

이런 것을 저희는 로봇을 통해 연구하고 있는데, 사람의 골격 구조와 유사하게 설계된 로봇을, 조종하는 사람과는 멀리 떨어진 곳에서 원격 조종하게 되고, 조종자의 움직임을 측정하여 조종자가 움직이는 대로 로봇이 움직이게 되고, 로봇 주변의 다양한 정보들, 예를 들어, 시각, 청각, 또는 로봇이 물체를 들 때 느끼는 무게 등의 정보를 사람에게 전달하여 사람이 마치 그곳에 있는 것처럼 느끼고 행동할 수 있게 만드는 ‘원격 존재’를 구현하는 것이라고 보시면 됩니다.

[앵커]
그러니까 조이스틱이 아니라 조종자의 동작을 로봇이 그대로 따라 한다는 건데요. 어떤 수준의 동작을 어떻게 재현할 수 있나요?

[인터뷰]
저희 로봇은 사람의 팔, 손가락, 목, 허리 움직임을 따라 할 수 있습니다. 예를 들어, 조종자가 어떤 방향을 보기 위해 얼굴을 돌린다면 목이 움직여야 하는데, 그 움직임을 측정하고 로봇에 전달하게 되어, 로봇은 사람이 보는 방향으로 얼굴을 움직이게 됩니다. 또는, 사람이 어떠한 물건을 잡을 때 손가락을 움직여야 하는데, 그러한 움직임 역시 측정되어 로봇의 손가락도 사람과 같은 정도로 움직일 수 있습니다.

로봇의 얼굴은 조종자의 얼굴을 그대로 보여줄 수도 있지만, 현재 저희 로봇은 로봇의 느낌을 좀 살리기 위해서 눈이 깜박이고, 사람이 말하는 소리에 맞춰 입을 움직이는 정도의 친근한 모습을 보여주도록 구현되어 있습니다.

[앵커]
조금 전에 화면에서 모습을 봤지만, 상당히 좀 귀엽게 생겼다는 생각이 드는데요. 그런데 이렇게 완벽하게 떨어져 있는 로봇이 조종자의 동작을 거의 똑같이 할 수 있는 원리는 뭔가요?

[인터뷰]
로봇이 사람의 움직임을 잘 따라 하기 위해서는 두 가지 조건이 필요한데요, 첫 번째는 사람의 움직임을 정확하게 측정할 수 있어야 하고, 두 번째는 측정된 사람의 움직임을 이용하여 로봇이 사람처럼 움직일 수 있도록 로봇이 사람과 유사한 구조로 개발되어야 합니다.

먼저, 사람의 다양한 움직임을 측정하기 위해 여러 센서가 조종석에 설치되고, 이를 이용하여 움직임을 측정합니다. 팔, 머리, 몸통의 움직임은 적외선 카메라를 이용하여 측정하고, 각 관절의 움직임을 사람과 로봇의 기구학적 모델을 이용하여 각도로 계산하고 로봇에게 전달하여 로봇의 해당 관절이 움직이게 됩니다. 손가락은 저희가 제작한 장갑, 또는 상용 장갑을 이용하여 손가락 움직임을 측정하여 로봇의 손가락 관절에 전달합니다.

그리고 전달된 움직임을 로봇이 사람처럼 재현하기 위해서는 당연하게도 로봇이 사람처럼 움직일 수 있어야 합니다. 사람과는 다른 형태의 로봇이라면 사람과 같은 동작을 하기 어려울 테니까요. 이를 위해 사람의 골격 구조와 최대한 유사하게 로봇을 설계하였습니다. 예를 들어, 팔꿈치 관절은 쉽게 하나의 구동기로 따라 할 수 있겠지만, 어깨 관절의 움직임은 많은 뼈과 근육이 연관되어 있어 상당히 복잡하기 때문에, 저희 로봇에서는 여러 개의 구동기와 복잡한 구조를 이용하여 어깨 움직임을 만들어 내고 있습니다.

[앵커]
저희 움직임은 수많은 관절이 이루어내는 건데, 사람의 관절의 움직임을 각도로 계산했다는 게 굉장히 인상적이었습니다. 그러면 이 로봇이 매우 정밀한 동작, 예를 들어 저희처럼 연필을 쥐고 글씨를 쓰는 이런 것도 따라 할 수 있을까요?

[인터뷰]
예, 여러분 스스로의 손에서 아실 수 있는 것처럼 사람의 손은 많은 뼈, 근육, 감각기를 갖고 있기 때문에, 매우 정밀한 감각 측정도 가능하고, 정교한 움직임도 가능합니다. 현재 인류의 기술로 사람의 손처럼 정교하게 움직이고 정밀한 감각 측정이 가능한 로봇 손은 아직 만들지 못했다고 말할 수 있을 정도입니다. 따라서 말씀하신 연필 같은 것을 쥐고 간단한 글을 쓰거나 그림을 그리는 것 정도는 가능하겠지만, 사람처럼 연필을 손가락으로 복잡하게 돌리거나 글씨를 아주 예쁘게 쓰는 것까지 따라 하기는 아직은 조금 어렵습니다.

[앵커]
조금 더 발전한다면 그것도 가능해질 것으로 보이는데요. 그리고 조금 전에 움직임을 따라 하는 것뿐만 아니라 감각을 그대로 조종자가 느낄 수 있게끔 한다고 말씀해주셨는데 이걸 생각해 보니까 만약에 사람이 컵을 쥔 다음에 강하게 쥐어버린다 하면은 그 컵이 깨져버리는 일도 발생할 수 있을 거 같거든요. 이런 것도 예방할 수 있나요?

[인터뷰]
예, 맞습니다. 단순히 사람의 움직임을 측정하고 로봇이 이를 따라 하기만 한다면 말씀하신 상황이 발생할 수 있습니다. 예를 들어, 로봇이 무거운 물체를 들거나, 어딘가에 부딪혔는데, 조종자는 그 상황을 못 느끼고 무거운 물체를 계속 들려고 한다거나, 그 방향으로 계속 움직이려고 한다면 물체나 로봇 둘 중 하나는 망가지겠죠.

저희 아바타 시스템의 핵심은, 단순히 사람의 움직임을 이용하여 움직인다는 것이 아니라, 로봇이 보고 느끼는 정보를 사람에게 직접 전달하여, 사람이 그것을 같이 느끼게 한다는 데에 있습니다. 저희 조종 인터페이스에는 로봇이 물건을 들었을 때 팔에 느껴지는 물체의 무게를 느끼게 해줄 수 있는 힘 전달 시스템이 있고, 물체를 만졌을 때 손가락에 느껴지는 반발력을 전달해줄 수 있는 시스템이 있습니다. 다양한 상황에서 손이나 발 등에 진동을 전달해주는 것도 가능합니다. 따라서 이런 감각 전달을 통해 로봇의 상황을 직접 알 수 있기 때문에 말씀하신 문제가 발생할 확률은 매우 적습니다.

[앵커]
그렇다면 실제 로봇이 받는 무게나 압력 등을 조종자가 느낄 수 있게 하는 기술, 조금 더 자세히 설명해주시죠.

[인터뷰]
사람이 어떠한 물체를 들게 되면 중력에 의해 지면 방향으로의 힘이 느껴지게 되고, 이것이 바로 무게죠, 그 무게에 해당하는 힘만큼을 지면 방향으로 밀어주게 되면 팔에서 무게를 느낄 수 있습니다. 물론, 사람이 어떠한 물체를 잡았을 때 무게를 느끼는 과정은, 단순히 지면 방향으로의 힘을 느끼는 것뿐만 아니라, 피부의 눌림 등의 감각도 같이 느끼는 복잡한 것이긴 합니다.

하지만 이런 방식을 통해 지면 방향으로의 누르는 힘, 무게를 유사하게 느끼게 해줄 수 있습니다. 손가락에 가해지는 힘도 유사한 원리인데, 물체를 잡을 때 손가락 접촉면의 수직 방향으로 적절한 반발력을 손가락에 주게 되면 물건의 딱딱하고 물렁한 정도도 알 수 있습니다.

[앵커]
들을수록 정말 신기한데요. 그런데 최근 아바타 로봇 대회가 있는데, ANA Avatar XPRIZE라는 대회가 있더라고요. 여기서 세계 6위의 아주 준수한 성적을 거두셨다고 들었는데, 이 대회는 어떤 대회고 이번에 거두신 성과는 어떤 의미가 있는지도 설명해주시죠.

[인터뷰]
XPRIZE 재단은 인류가 갖고 있는 다양한 미래 문제들을 해결하기 위해 많은 상금을 건 대회를 열어 솔루션을 제시하려 하는 재단입니다. 아바타 로봇도 선정된 미래 문제 중 하나였고, ANA라는 일본 항공사가 후원을 하며 총상금 1,000만 달러, 한화로 약 130억 규모의 대회가 2018년 3월부터 시작되었습니다.

전 세계 100여 개 팀이 실제 등록하였고, 코로나 때문에 대회 방식이 온라인으로 조금 바뀌긴 했지만, 다양한 검증을 통해 19개국의 77개 팀을 1차 선발했고, 15개국의 37개 팀을 준결승 팀으로 선발되었습니다. 준결승은 2021년 9월에 미국 마이애미에서 있었고, 이 결과를 통해 11개국의 20개 팀이 결승에 진출하여 작년 11월 미국 로스앤젤레스에서 결승전을 치렀습니다. 저희는 이 대회에서 최종 6위, 아시아 팀 중에서는 1위를 했습니다.

결승전에서는 아바타 로봇의 다양한 성능을 볼 수 있는 다양한 미션이 준비되었는데, 당연히 로봇은 조종자와 떨어져 있는 상태에서, 로봇이 스위치를 올리거나, 겉모습은 같지만, 무게가 다른 캔을 구별하여 특정 위치에 넣어야 한다거나, 드릴을 들고 벽의 볼트를 풀어야 한다거나, 실제로 눈이 안 보이는 곳에 손을 넣고 거칠기가 다른 돌을 구별해야 하는 등의 매우 도전적인 일을 수행했어야 했습니다.

[앵커]
일단 늦었지만 축하드립니다. 이 아바타 로봇 기술이 완성되면 공간적 제약도 사라져서 활용도가 매우 많을 것 같은데요. 가장 유용한 용도가 어떤 게 있을까요?

[인터뷰]
원격 조종 로봇 기술은 사람이 직접 접근하기 어려운 재난 현장이나 더 나아가서는 심해, 우주 등에 로봇을 보내기 위해 오랜 시간 연구되었습니다. 하지만 기존에 많이 사용되던 조이스틱이나 키보드 정도의 입력 인터페이스만으로는 예상하기 어려운 비정형의 환경에 대응하기 어려웠고, 복잡한 작업을 하기도 어려웠습니다. 방금 질문에서 답변드렸던 XPRIZE 결승전에서의 미션들도 로봇이 느끼는 것을 조종자가 같이 느낄 수 있는 아바타 로봇 기술이 없다면 할 수 없는 것들입니다.

[앵커]
이렇게 유용하게 사용되기 위해서는 앞으로 넘어야 할 산, 또 풀어야 할 과제들이 많을 거 같은데, 기술적이나 제도적으로 남아 있는 것들이 어떤 게 있을까요?

[인터뷰]
기술적으로는 해야 할 것들이 매우 많이 남아있습니다. 현재의 아바타 시스템은 주로 사람의 움직임을 측정하고 신체 외부에서 피드백을 주게 되는데, 사람의 근육 신호라든가, 최근 영화에서 나왔던 것처럼 뇌 신호를 이용하게 된다면 현재 사람이 느끼는 수준보다 훨씬 더 높은 수준의 직관적인 상호작용이 가능할 것입니다.

또한, 아바타 로봇이 재난 현장 같은 곳에서 실제로 사용되기 위해서는 신뢰성 높은 로봇의 제작이나 이동 방식도 연구가 필요하고, 현재는 로봇이 사람의 움직임에 의해서만 움직이지만, 최근 급격히 발전하고 있는 머신러닝 인공지능기술을 활용하여 약간의 인공지능을 넣어 사람과 협업하게 할 수도 있습니다. 그리고 다수의 아바타 로봇이 실제 현장에서 협업하는 것도 새로운 연구가 될 것 같습니다.

[앵커]
네, 앞서 말씀하신 것처럼 아바타 로봇이 다양한 산업 현장은 물론이고 재난 현장에도 큰 도움이 될 것 같은데요. 시간은 물론 공간의 제약을 넘어선, 영화 같은 날이 빨리 왔으면 좋겠습니다. unist 기계공학과 배준범 교수와 함께했습니다. 고맙습니다.


YTN 사이언스 김기봉 (kgb@ytn.co.kr)

거의모든것의과학