[연구그림] 개발된 인공지능 모델과 기존 모델의 예측 결과 비교 /UNIST 제공


카메라 기반 자율주행차가 주변 환경을 더 정확하게 볼 수 있게 하는 인공지능 기술이 나왔다. 그림에 원근감을 부여하는 기하학적 장치인 ‘소실점’을 활용한 기술이다.

UNIST 인공지능대학원 주경돈 교수팀은 카메라를 통해 입력된 정보의 원근 왜곡 문제를 보완하는 인공지능 모델인 ‘VPOcc’를 개발했다고 15일 밝혔다.

자율주행차와 로봇의 인공지능은 카메라나 라이다(LiDAR) 센서로 주변을 인식한다. 카메라는 라이다보다 저렴하고 가벼우며 색·형태 등 풍부한 정보를 제공하지만, 3차원 공간을 2차원 이미지로 표현하기 때문에 거리에 따른 크기 왜곡이 크다. 가까운 물체는 더 크게, 먼 물체는 더 작게 보이면서 멀리 있는 사물을 놓치거나 가까운 영역만 강조되는 오류가 생긴다.

연구팀은 인공지능이 소실점을 기준으로 정보를 재구성하도록 설계해 이 문제를 해결했다. 소실점은 르네상스 시대 화가들이 정립해 내려온 원근감 부여 기법으로, 차선이나 철로 같이 실제로는 평행한 선들이 멀리서는 맞닿는 것처럼 보이는 지점을 말한다. 사람이 화폭 위의 소실점을 보고 평면에서 깊이감을 느끼는 것처럼, 개발된 인공지능 모델은 소실점을 기준으로 삼아 카메라 영상 속에서 깊이와 거리를 더 정확히 복원하게 된다.

이 모델은 크게 세 가지 모듈로 구성돼 있다. 소실점을 기준으로 영상을 보정해 원근 왜곡을 줄이는 모듈(VPZoomer), 멀고 가까운 영역에서 균형 잡힌 정보를 추출하는 모듈(VPCA), 그리고 원본과 보정 영상을 합쳐 서로의 약점을 보완하는 모듈(SVF)이다.

실험 결과, VPOcc은 여러 벤치마크에서 공간 이해 능력(mIoU)과 복원 능력(IoU) 모두에서 기존 모델을 뛰어넘는 성능을 보였다. 특히 자율주행에 중요한 도로 환경에서 멀리 있는 객체를 선명하게 예측하고, 겹쳐 있는 객체를 더 정확히 구분했다.

이번 연구는 UNIST 김준수 연구원이 제1저자로 주도했으며, 이준희 연구원(UNIST)과 미국 카네기멜론대학교 연구진이 참여했다.

김준수 연구원은 “사람이 공간을 인식하는 방식을 인공지능에 접목하면 3차원 공간을 더욱 효과적으로 이해할 것이라 생각해 연구를 시작했다”며 “라이더센서보다 가격 경쟁력과 경량화 측면에서 유리한 카메라 센서의 활용성을 극대화할 수 있는 성과”라고 설명했다.

주경돈 교수는 “개발된 기술은 로봇, 자율주행 시스템 뿐만 아니라 증강현실(AR) 지도 제작 등 다양한 분야로 응용될 수 있을 것”이라고 기대했다.

연구 성과는 지난 3월 제31회 삼성휴먼테크논문대상에서 은상을 수상했으며, 지능형 로봇 분야 권위 학회인 IROS(International Conference on Intelligent Robots and Systems) 2025 채택됐다. 올해 학회는 오는 19일부터 25일까지 중국 항저우에서 열린다.

연구 수행은 과학기술정보통신부와 한국연구재단의 지원을 받아 이뤄졌다.