카테고리 없음

[Paper Review(작성중)] KISS-ICP: In Defense of Point-to-Point ICP –Simple, Accurate, and Robust Registration If Done the Right Way

숑지(shhy01) 2024. 4. 1. 19:21

이 글의 작성자는 학부생이며, 학습의 용도로 작성되었습니다.

본문에서, 오타나 바로잡을 사항이 있으다면 언제든 코멘트는 환영입니다.

My Motivation

GPS 음영 구역에서는 로봇의 위치를 어떻게 구할 수 있을까에 대한 질문을 하던 중이었다.

여러 방법이 있지만, 현재 진행중인 대회에서 쓰는 센서인 3D LiDAR와 GPS만으로 해결할 수 있는 방법을 생각해보았고, LiDAR를 이용한 Odometry중에서도 최근 많이 들어본 'KISS-ICP'가 가볍고, IMU를 사용하지 않으면서, 오픈소스라는 점에서 쉽게 접근하기 좋을거란 생각에 살펴보게 되었다.

 

 

(논문) https://www.ipb.uni-bonn.de/wp-content/papercite-data/pdf/vizzo2023ral.pdf

(오픈소스) https://github.com/PRBonn/kiss-icp


0. Abrstract

아직 입니다 ^__^

1. Introduction

Odometry 추정은 미지의 환경에서의 autonomously navigate를 필요로하는 자율주행 로봇에서 필수 building block이다.

LiDAR sensing domain에서, odometry 파이프라인은 전형적으로 interactive closet point(ICP) 형태를 사용한다.

현재 시스템의 설계는 일반적으로 정확하고 견고한 alignment 결과를 얻기 위해, 'robot motion' 및 'sturcture of the environment'에 대한 가정과 결합되어 있다.

 

기존의 3D LiDAR 오도메트리 접근 방식은 파라미터 튜닝이 없으며, 임의의 LiDAR 센서를 사용하여 다양한 모션 프로파일을 지원하고 결과적으로 지상 및 공중 로봇과 같은 로봇 유형을 사용하여 다양한 시나리오에서 즉시 작동합니다.

 

ICP의 뿌리인 classical point-to-point ICP(Besl과 McKay)로 돌아가면,

우리는 LiDAR odometry systems을 순차적으로 작동하는 고유한 문제를 해결하는 것을 목표로 한다. -> 현재 접근 방식의 단일 구성을 사용하여 다양한 환경, 센서 해상도 및 모션 프로파일로 일반화되는 LiDAR odometry systems을 방지하겠다!

 

[제시]

1. 단순하면서도, 효과적인 robot kinematics(로봇 운동학) and LiDAR data가 모바일 플랫폼에 기록되는 sequential way(순차적인 방법)에 대한 reasoning(추론)

2. parameter tuning의 필요성을 최소화할 수 있는 효과적인 다운샘플링 포인트 클라우드 표현

 

 

hand-tuned & 최적화된 기존 SLAM(동시 위치 파악 및 매핑) 시스템에 도전한다.

우리는 sophisticated feature extraction techniques, learning methods,loop closures 사용하지 않는다.

동일한 parameter set은 다양한 까다로운 시나리오에서 작동된다.(highway drives of robot cars with many dynamic objects, drone flights, handheld devices, segways, and more.)

 

즉, 우리는 LiDAR odometry 관련 mainstream에서 한발 물러나, 구성 요소를 필수 요소로 줄이는 데 중점을 둔다.

이를 통해 우리 시스템은 다양한 실제 시나리오에서 탁월한 성능을 발휘한다.(아래 Fig.1 참조).

여러 환경에서도 동일한 파라미터로 진행 결과 (automotive, drone, segway, handheld Livox LiDAR)

 

이 논문의 main contribution은 a simple yet highly effective approach for building LiDAR odometry system이며, 이는 robot이 환경을 탐색하는 동안 online으로 로봇의 pose를 정확하게 계산할 수 있다는 것이다.

 

우리는 핵심 구성 요소를 식별하고 다양한 모듈이 해당 시스템에 미치는 영향을 적절하게 평가합니다. 우리는 시스템의 물리학과 센서 데이터의 특성에 대한 기본 추론을 기반으로 하는 ICP의 적절한 사용을 통해 경쟁력 있는 주행 거리 측정법을 얻을 수 있음을 보여줍니다. 동작 예측, 공간 스캔 다운샘플링 및 강력한 커널 외에도 로봇 동작 추정의 맥락에서 ICP에 대한 적응형 임계값 접근 방식을 도입하여 접근 방식을 효과적으로 만들고 동시에 쉽게 일반화합니다.

우리는 세 가지 주요 주장을 합니다.

 

본 논문의 point-to--point ICP를 활용하는 "keep it small and simple" 접근 방식은

(i) state-of-the-art(최첨단) odometry system과 동등하며 (on par with ~)

(ii) 동일한 시스템 구성으로 다양한 environments와 motion profiles을 제공하며, 로봇의 odometry를 한번에 정확하게 계산할 수 있다.

(iii) IMU 또는 wheel odometers에 의존하지 않고 motion distortion에 대한 효과적인 솔루션을 제공한다.

요약하면, "good old point-to-point ICP"는 놀랍도록 강력한 도구이며, 기본 구성 요소가 잘 수행되면 더 정교한 접근 방식으로 이동할 필요가 거의 없다.

 

2. Related Work

아직 입니다 ^__^

3. Method : KISS-ICP - Keep It Small and Simple

아직 입니다 ^__^

 

우리는 스캐너에 의해 기록된 point cloud를 sequentially registering함으로써, 움직이는 LiDAR 센서의 trajectory를 incrementally 계산하는 것이 목표이다.

effective, accurate, robust, and still reasonably simple LiDAR odometry system을 만들기 위해, 최소한의 세트로 구성 요소를 줄였다.

A. Step 1 : Motion Prediction and Scan Deskewing

 

B. Step 2 : Point Cloud Subsampling

C. Step 3: Local Map and Correspondence Estimation

D. Adaptive Threshold for Data Association

E. Step 4: Alignment Through Robust Optimization

F. Paramters

 

4. Experimental Evaluation

아직 입니다 ^__^

dd

 

5. Conclusion

LiDAR odometry에 대한 접근을 간단하지만 매우 효율적으로 제시하며, point-to-point ICP 작업이 잘 되는 것을 보였다.. - 적절히 사용했을 경우.

이 논문은 오직 point clouds로 동작하며, IMU를 요구하지 않는다. - 심지어 high-frequency driving profiles를 다룰 때도!

 

이 논문은 클래식한 point-to-point ICP를 exploit(활용)

-> highway runs, handheld devices, segway, drones와 같은 챌린징한 상황에서도 generic한 odometry system을 만들었다.

게다가, 다른 range-sensing 기술과 scanning patterns에도 사용할 수 있다.

 

오직 'point clouds는 로봇이 환경을 따라 움직이면서 sequentially 생성된다'는 가정이다.


정교한 최첨단 LiDAR odometry 시스템이지만 몇 가지 매개 변수에만 의존하며, 동일한 매개 변수를 가진 상태에서 서로 다른 조건의 다양한 datasets에 잘 작동된다.

마지막으로, 이 시스템은 제시된 모든 datasets에 대하여 센서 프레임보다 빠르게 작동한다.


6. My Opinion (future direction, research area, etc.)

아직 입니다 ^__^