위치 추정과 지도 작성은 인지( perception )라는 영역의 각각 내부적 및 외부적 방향으로 볼 수 있다. 로봇은 내부적으로는 자신의 상태( 즉, 위치 )와 동시에 외부적으로는 주변 환경( 즉, 지도 )을 이해해야 한다.
—
관성 측정 장치( Inertial Measurement Unit, IMU )와 같은 로봇 본체에 운반되는 센서는 일반적으로 직접 위치 데이터가 아닌 간접 물리적 양을 측정한다.
예를들어, 휠 엔코더는 바퀴의 회전 각도를 측정하고 IMU는 움직임의 각속도와 가속도를 측정하여 카메라와 레이저 센서는 외부 환경을 이미지나 포인트 클라우드와 같은 특정 형태로 관측한다.
—
Visual Odometry ( VO, 프런트엔드 ) :
시각적 주행거리 측정이라고도 하는데 인접한 이미지 사이의 카메라 움직임을 추정하고 대강의 로컬 맵을 생성하는 것이며 프런트엔드( Frontend )라고도 한다.
Filters Optimization ( 백엔드 ) :
비선형 최적화 과정으로 서로 다른 시간에 VO로 측정한 카메라 포즈와 루프 백 감지 정보를 받아들이고 최적화하여 전역적으로 일관된 궤적과 지도를 얻는 것을 말한다. VO 뒤에 연결되기 때문에 백엔드( Backend )라고도 한다.
*카메라 포즈 : 카메라의 위치와 방향을 의미, 로봇이 환경을 탐색하면서 카메라가 어디에 있었는지를 추적하는 것
*VO( Visual Odometry ) : 카메라의 이미지 데이터를 사용하여 카메라의 이동 경로를 추정하는 방법. 즉, 시간에 따라 카메라가 어떻게 움직였는지를 계산한다.
*루프 백 감지 : 로봇이 이미 지나온 경로를 다시 인식하는 과정. 이를 통해 로봇은 자신의 위치를 재확인, 이전에 얻은 정보와 현재 정보를 통합할 수 있음.
*비선형 최적화: 수집된 포즈 정보와 루프 백 감지 정보를 바탕으로, 로봇의 전체 경로( 궤적 )와 환경 지도를 전역적으로 일관성 있게 조정한다. 여러 포즈 간의 관계를 고려하여 최적의 경로를 찾아내는 것으로, 로봇이 이동한 경로를 부드럽고 일관되게 만드는 것이다.
이는 LiDAR에서도 동일하게 적용되며, LiDAR 센서가 레이저 빔을 발사하여 주변 물체에 반사된 신호를 수신하고, 이 데이터를 통해 3D 포인트 클라우드를 생성하고, 환경 내 물체의 거리와 위치를 측정한다.