미국 MIT가 짙은 안개 속에서도 물체를 인식할 수 있는 이미지 처리 기술을 발표했습니다. 자율 운전 차량 내비게이션 시스템은 진은 안개가 껴서 시야가 나빠질 때 인식 정확도가 떨어진다는 단점이 있는데, 이를 해결할 수 있을 방법으로 기대됩니다.
이 시스템은 심도 측정 대상에 빛을 쬐어 반사돼 돌아올 때까지의 시간을 측정해 농도를 파악하는 Time of Flight 방식의 카메라를 사용합니다. 자율 주행 차량에 많이 쓰는 LIDAR도 적외선 레이저 펄스를 쬐는 ToF 중 하나입니다. 이 방식은 맑은 날에는 물체가 레이저에 반사돼 돌아오는 시간이 정확해 거리 측정이 빠르고 정확하나, 안개가 끼면 빛이 산란하거나 무작위로 반사되고, 비가 내릴 땐 레이저의 대부분이 물방울에 반사되는 등 날씨의 영향을 많이 받습니다.
연구진은 안개에서 반사광 생성 패턴이 안개의 밀도에 따라 달라지고, 반사광의 도착 시간은 감마 분포로 알려진 통계적 패턴을 따른다는 것을 발견, 감마 분포 변수의 값을 추정해 센서에 입력된 값에서 그 패턴을 빼는 방법을 도입해 문제를 해결했습니다. 이 시스템의 핵심은 1024픽셀마다 다른 감마 분포를 계산하는 것으로, 길이 1m의 상자 안에서 사람은 36cm까지만 물체를 인식하는데 이 시스템은 57cm까지 측정 가능했다고 합니다.