다른 추가적인 정보 없이 왼쪽의 사진만으로 생성해낸 3D 모델입니다.
해상력이 매우 뛰어납니다.
앞모습만 보고 뒷모습까지 유추해 냅니다.
소스가 영상이라도 문제가 없습니다.
라이다도 쓰지 않습니다. 사진 한장이 전부입니다.
라이다로는 저 정도 샘플링 빈도와 해상도를 동시에 만족시키는게 불가능하다고 생각됩니다.
현재 실시간 컴퓨터 비전은 라이다가 주가 되기보다는 카메라를 통해 인간 수준의 인지 능력을 추구하는 방향으로 가고 있는것 같습니다.
라이다는 정밀도를 보정하는 보조 용도로만 쓰이고요.
라이다가 아무리 발전해도 감지할수 없는 부분까지 예측하는건 불가능하기 때문에
결국 비전처리 모델이 인간수준의 인지 능력을 갖추는것이 중요해 보입니다.
아래는 애플의 Depth API가 그리는 깊이 맵입니다.
(카메라 + 라이다)
카메라와 라이다 둘다 사용해 얻어낸 깊이 맵입니다. 가까울수록 진한 색으로 표현됩니다.
(카메라X + 라이다)
카메라만 가리자 해상력이 급격히 떨어지는것을 볼 수 있습니다.
그만큼 카메라에 의존한다는 의미입니다.
현재 스마트폰에 들어가는 라이다 해상도는 생각보다 매우 낮습니다.
(카메라 + 라이다X)
반대로 라이다만 가리자 해상력이 돌아옵니다.
즉, 카메라 이미지만으로 사람처럼 어느정도 깊이를 인지할 수 있습니다
물론 라이다를 병용하면 어둡거나, 먼 거리, 시각 정보 만으로 판단하기 어려운 상황에서도 정밀한 결과물을 얻지만 주 역할은 카메라가 합니다.
+ 구글의 Depth API는 라이다를 사용하지 않고 단일 카메라만으로 깊이를 인지합니다.
+ 테슬라도 카메라만으로 깊이 매핑을 합니다. 이런걸 Pseudo-Lidar라고 합니다. (예전에 소개된 글 링크)
대신 3세대가 연산량이 많은지 더 뜨겁다고 하던.....