요즘 휴대폰 카메라들을 보면 안에 들어간 센서가 천만화소가 넘어가는 단위를 찍고 있습니다. 그 조그마한 곳에 그만한 화소를 눌러넣는다는건 놀랍습니다만, 과연 그렇게 화소를 늘릴 가치는 있는가는 한번 생각해볼 필요가 있는 부분입니다.


일단 아시다시피 카메라 렌즈에서 화질이 저하되는 요소는 여러가지가 있습니다. 보통 다른 문제가 더 영향이 큽니다만, 다른 문제들을 잘 억제해도 회절은 어쩔 수가 없는 경우가 많습니다.


아시다시피 빛은 파동성을 가지고, 이 영향으로 조그마한 조리개를 통과한 후에는 회절이 일어나게 됩니다. 따라서 렌즈를 통해 빛이 들어온 경우 깔끔하게 한 점으로 들어오는 게 아니라 이런 형태를 띄게 됩니다.

Airy_disk_spacing_near_Rayleigh_criterion.png

사진 - Spencer Bliven, Wikipedia (http://commons.wikimedia.org/wiki/File:Airy_disk_spacing_near_Rayleigh_criterion.png)


이 이미지에서는 밑으로 갈 수록 빛의 거리가 가까워지고 있습니다. 보시다시피 너무 거리가 가까운 경우 실질적으로 구분이 힘듭니다. 이러한 해상력은 렌즈의 조리개값에 영향을 받게 되는데, 렌즈의 조리개값이 낮을수록(조리개가 크게 열려있을 수록) 더 세밀하게 구별할 수 있게 됩니다. 센서의 경우 이 값에 직접적인 영향을 끼치진 않으나 픽셀이 더 작아질수록 더 세밀한 해상력을 렌즈에 요구하게 되기 때문에 결과적으로 작은 센서에 많은 픽셀들을 눌러넣은 경우 회절에 의한 영향이 커지게 됩니다.


빛의 파동은 길이가 짧기 때문에 (수백 나노미터 가량) 센서가 덜 정밀했거나 더 큼직했거나 아니면 조리개의 크기가 더 큼직했다거나 하면 별 걱정할 게 아니었을 수 있습니다만, 요즘 카메라는 수천만 화소를 눈꼽만한 크기에다 눌러넣고 있으니 문제가 안 될수가 없습니다.


그럼 이 해상력을 어떻게 계산하느냐 하면 -

60edb77ba9f819ad30942fd1fc410b57.png

이미지 - Wikipedia (http://en.wikipedia.org/wiki/Angular_resolution)

 

이렇게 계산합니다. (오브젝트가 아닌 이미지 기준.) 여기서 Δl은 이미지 안에서 구분 가능한 점 간의 최소 거리이며 f/D는 흔히 카메라 사용자들이 말하는 조리개값(f값), λ는 빛의 파장입니다. 빛의 파장은 대략 400nm에서 700nm사이에서 분포합니다.


그럼 여기서 계산을 해 봅시다. 요즘 폰카에 좀 투자한다는 회사면 역시 노키아입니다. gsmarena에 따르면 nokia 1520의 센서는 1.12μm의 픽셀 사이즈를 가집니다.(http://www.gsmarena.com/nokia_lumia_1520-5760.php) 조리개값은 2.4입니다. 이것을 공식에 대입해 보면-


(1.22 * 2.4 * 550*10^-9) = 1.61μm


즉, 1.12μm보다 더 큰 값이 나옵니다.

하지만 여기서 간과한 게 있는데, 이게 디지털 센서라는 것입니다. 이는 두 가지를 뜻하는데,

1.실제론 네 개의 픽셀이 하나의 색을 표현한다

2.센서이므로 r값이 아닌 d값을 찾아야 한다 (위에 계산한 Δl는 radius 기준입니다.)


이 두가지입니다.


일단 첫번째 문제입니다.

700px-Bayer_pattern_on_sensor.svg.png

이미지- CC BY 위키피디아 en:User:Cburnett (http://en.wikipedia.org/wiki/Bayer_filter#mediaviewer/File:Bayer_pattern_on_sensor.svg)

 

카메라 센서는 보통 이렇게 생겼습니다. 저렇게 센서 픽셀마다 받는 색깔이 다른데,저걸 전부 다른 픽셀로 세어버립니다. (예전에 들은 건데 제가 알기론 아직도 그럴 겁니다.) 이는 즉 실제론 포베온같이 특이한 센서가 달린 카메라를 사지라도 않는 이상은 광고한 픽셀 갯수보다 센서의 해상력이 떨어진다는 말이 됩니다. 실제로는 그래도 절반이나 그 이상은 나온다곤 하지만, 여기선 좀 관대하게 봐줘서 더 낮게(..) 잡아줍시다. 그래야 오히려 회절의 영향이 적은 것처럼 보일테니까요. 네 화소가 결과물의 한 픽셀에 대응한다고 칩시다. 그렇게 되면 1.12μm * 2 = 2.24μm 픽셀 사이즈가 나옵니다.


그럼 그 다음 문제. 센서 기준으로 볼 때는 Δl이 radius값이 아닌 diameter값이 되어야 한다는 점입니다.

그럼 계산해 봅시다. 1.61μm * 2 = 3.22μm. (녹색 기준. 전체 범위는 빨간색부터 보라색까지 2.34um~ 4.1μm가 나옵니다.)


..즉, 센서의 픽셀 갯수를 1/4로 나눠줘도 실제로는 최대 개방에서조차 2.24μm vs 3.22μm로 회절의 영향으로 내장된 화소들을 100% 활용하지 못한다는 이야기가 됩니다. 실제로는 1/4로 나눌 정도로 베이어 필터가 센서를 깎아먹진 않고 저 계산도 angular resolution만 고려해서 상당히 관대하게 한 것이라 회절에 의한 영향은 그것보다 더 커집니다. 물론 보라색에 가까워질수록 이런 영향은 작아집니다만, 아무튼 요즘 폰카의 화소수가 과한 수준으로 늘어났다는 것은 틀림이 없을 것입니다. 회절 뿐이 아니라 실제로는 다른 광학적 문제로 인해 의한 화질저하가 더 크다는 점도 간과할 수 없습니다. 쓰지도 못하는 픽셀수만 늘어난 거지요. 물론 여전히 노키아의 폰카는 다른 광학적인 면 등에서 최상위급이긴 합니다. 또한 다른 제조사들도 비슷한 문제에 해당되는 경우가 늘어나고 있으니 딱히 노키아가 이상한 건 아닙니다. 그냥 저 픽셀들이 전부 쓸모있는 픽셀은 아니라는 거지요.


개인적으론 이래서 슬슬 폰카들은 픽셀 경쟁은 접고 다른 면에서 개선을 시도해야 한다고 봅니다. 뭐,실제로는 픽셀수를 늘리는 게 광고하기 가장 좋겠지만요.


관련 글 : http://www.cambridgeincolour.com/tutorials/diffraction-photography.htm

http://petavoxel.wordpress.com/2010/01/19/diffraction-fraud/