기글 하드웨어 디지털 카메라 포럼
요즘 휴대폰 카메라들을 보면 안에 들어간 센서가 천만화소가 넘어가는 단위를 찍고 있습니다. 그 조그마한 곳에 그만한 화소를 눌러넣는다는건 놀랍습니다만, 과연 그렇게 화소를 늘릴 가치는 있는가는 한번 생각해볼 필요가 있는 부분입니다.
일단 아시다시피 카메라 렌즈에서 화질이 저하되는 요소는 여러가지가 있습니다. 보통 다른 문제가 더 영향이 큽니다만, 다른 문제들을 잘 억제해도 회절은 어쩔 수가 없는 경우가 많습니다.
아시다시피 빛은 파동성을 가지고, 이 영향으로 조그마한 조리개를 통과한 후에는 회절이 일어나게 됩니다. 따라서 렌즈를 통해 빛이 들어온 경우 깔끔하게 한 점으로 들어오는 게 아니라 이런 형태를 띄게 됩니다.
사진 - Spencer Bliven, Wikipedia (http://commons.wikimedia.org/wiki/File:Airy_disk_spacing_near_Rayleigh_criterion.png)
이 이미지에서는 밑으로 갈 수록 빛의 거리가 가까워지고 있습니다. 보시다시피 너무 거리가 가까운 경우 실질적으로 구분이 힘듭니다. 이러한 해상력은 렌즈의 조리개값에 영향을 받게 되는데, 렌즈의 조리개값이 낮을수록(조리개가 크게 열려있을 수록) 더 세밀하게 구별할 수 있게 됩니다. 센서의 경우 이 값에 직접적인 영향을 끼치진 않으나 픽셀이 더 작아질수록 더 세밀한 해상력을 렌즈에 요구하게 되기 때문에 결과적으로 작은 센서에 많은 픽셀들을 눌러넣은 경우 회절에 의한 영향이 커지게 됩니다.
빛의 파동은 길이가 짧기 때문에 (수백 나노미터 가량) 센서가 덜 정밀했거나 더 큼직했거나 아니면 조리개의 크기가 더 큼직했다거나 하면 별 걱정할 게 아니었을 수 있습니다만, 요즘 카메라는 수천만 화소를 눈꼽만한 크기에다 눌러넣고 있으니 문제가 안 될수가 없습니다.
그럼 이 해상력을 어떻게 계산하느냐 하면 -
이미지 - Wikipedia (http://en.wikipedia.org/wiki/Angular_resolution)
이렇게 계산합니다. (오브젝트가 아닌 이미지 기준.) 여기서 Δl은 이미지 안에서 구분 가능한 점 간의 최소 거리이며 f/D는 흔히 카메라 사용자들이 말하는 조리개값(f값), λ는 빛의 파장입니다. 빛의 파장은 대략 400nm에서 700nm사이에서 분포합니다.
그럼 여기서 계산을 해 봅시다. 요즘 폰카에 좀 투자한다는 회사면 역시 노키아입니다. gsmarena에 따르면 nokia 1520의 센서는 1.12μm의 픽셀 사이즈를 가집니다.(http://www.gsmarena.com/nokia_lumia_1520-5760.php) 조리개값은 2.4입니다. 이것을 공식에 대입해 보면-
(1.22 * 2.4 * 550*10^-9) = 1.61μm
즉, 1.12μm보다 더 큰 값이 나옵니다.
하지만 여기서 간과한 게 있는데, 이게 디지털 센서라는 것입니다. 이는 두 가지를 뜻하는데,
1.실제론 네 개의 픽셀이 하나의 색을 표현한다
2.센서이므로 r값이 아닌 d값을 찾아야 한다 (위에 계산한 Δl는 radius 기준입니다.)
이 두가지입니다.
일단 첫번째 문제입니다.
이미지- CC BY 위키피디아 en:User:Cburnett (http://en.wikipedia.org/wiki/Bayer_filter#mediaviewer/File:Bayer_pattern_on_sensor.svg)
카메라 센서는 보통 이렇게 생겼습니다. 저렇게 센서 픽셀마다 받는 색깔이 다른데,저걸 전부 다른 픽셀로 세어버립니다. (예전에 들은 건데 제가 알기론 아직도 그럴 겁니다.) 이는 즉 실제론 포베온같이 특이한 센서가 달린 카메라를 사지라도 않는 이상은 광고한 픽셀 갯수보다 센서의 해상력이 떨어진다는 말이 됩니다. 실제로는 그래도 절반이나 그 이상은 나온다곤 하지만, 여기선 좀 관대하게 봐줘서 더 낮게(..) 잡아줍시다. 그래야 오히려 회절의 영향이 적은 것처럼 보일테니까요. 네 화소가 결과물의 한 픽셀에 대응한다고 칩시다. 그렇게 되면 1.12μm * 2 = 2.24μm 픽셀 사이즈가 나옵니다.
그럼 그 다음 문제. 센서 기준으로 볼 때는 Δl이 radius값이 아닌 diameter값이 되어야 한다는 점입니다.
그럼 계산해 봅시다. 1.61μm * 2 = 3.22μm. (녹색 기준. 전체 범위는 빨간색부터 보라색까지 2.34um~ 4.1μm가 나옵니다.)
..즉, 센서의 픽셀 갯수를 1/4로 나눠줘도 실제로는 최대 개방에서조차 2.24μm vs 3.22μm로 회절의 영향으로 내장된 화소들을 100% 활용하지 못한다는 이야기가 됩니다. 실제로는 1/4로 나눌 정도로 베이어 필터가 센서를 깎아먹진 않고 저 계산도 angular resolution만 고려해서 상당히 관대하게 한 것이라 회절에 의한 영향은 그것보다 더 커집니다. 물론 보라색에 가까워질수록 이런 영향은 작아집니다만, 아무튼 요즘 폰카의 화소수가 과한 수준으로 늘어났다는 것은 틀림이 없을 것입니다. 회절 뿐이 아니라 실제로는 다른 광학적 문제로 인해 의한 화질저하가 더 크다는 점도 간과할 수 없습니다. 쓰지도 못하는 픽셀수만 늘어난 거지요. 물론 여전히 노키아의 폰카는 다른 광학적인 면 등에서 최상위급이긴 합니다. 또한 다른 제조사들도 비슷한 문제에 해당되는 경우가 늘어나고 있으니 딱히 노키아가 이상한 건 아닙니다. 그냥 저 픽셀들이 전부 쓸모있는 픽셀은 아니라는 거지요.
개인적으론 이래서 슬슬 폰카들은 픽셀 경쟁은 접고 다른 면에서 개선을 시도해야 한다고 봅니다. 뭐,실제로는 픽셀수를 늘리는 게 광고하기 가장 좋겠지만요.
관련 글 : http://www.cambridgeincolour.com/tutorials/diffraction-photography.htm
http://petavoxel.wordpress.com/2010/01/19/diffraction-fraud/
데세랄 쪽에서도 더 이상의 화소 수 증가는 별 의미가 없다 이런 분위기다가 요샌 다시 올라갔는데, 뭐 데세랄 정도 크기의 센서와 폰카 센서를 비교하는 건 말이 안되지만요.
그럼 남은 대안은 울트라픽셀 뭐 그런것이되려나.. 근데 걔도 숫자로 밀리는데다 요새 다른 최신 카메라랑 비교해 보면 딱히 장점이 두드러지는 것 같지도 않네요.
aps규격에서는 억단위까지만 안 찍으면 수천만 단위의 픽셀에서는 회절로 인한 문제가 아직 적기 때문에 렌즈만 좋아지면 센서 개선에 의한 화질 이득이 있습니다. 물론 실제로는 다른 광학적 문제때문에 dslr도 이미 한계에 가깝습니다만.. 폰카는 워낙 작아서 그런 다른 광학적 문제는 커녕 근본적인 회절이 해결이 안됩니다. (위에 쭈쀼쭈쀼님 말씀처럼 기존 한계를 벗어나려는 시도 자체는 있습니다만 아직 양산품에 적용된 건 없을겁니다.)
울트라픽셀은 사실 회절을 계산해도 거기까지 줄일 필요는 없어보이는데 (..) 뭐, 다른 광학적인 장점이 있으면 되는데 다른 센서보다 그만큼 뛰어난 면이 있는지가 문제군요.
센서의 픽셀 크기를 좀 키웠으면 하기는 한데… 포베온 같은 다층 센서가 폰카에도 적용되면 조금 나아지려나요?
뭐, 어떤 곳에서는 기존 광학의 한계를 뛰어넘는 초해상도를 구현하는 방법을 연구하고 있다고도 하니, 지켜볼 일입니다.