11.png

 일반적인 카메라 센서 rgb구성이 이렇다고 알고 있습니다. 저 네모 하나하나가 한 픽셀이고요. 동영상의 경우 4픽셀을 하나로 쳐서 1픽셀을 구성하기도 하고 일반 사진도 그렇게 할 수 있다고 알고 있습니다. 그리고 저 하나의 픽셀이 주변컬러값을 전해받아 보간법?으로 저렇게 rgb위치가 각각임에도 4픽셀을 만들어 낸다고.


그런데 저 그림의 픽셀을 빨간색부터 시계방향으로 1,2,3,4의 번호를 부여하고 생각해 봤는데


1=R+(G1+G2)/2+B

2=R+G1+B

3=R+(G1+G2)/2+B

4=R+G2+B


1, 3이 같으니 이것은 아닌 것 같고. 해당 픽셀의 위 아래로 다른 픽셀이 존재하고 설령 가장 구석의 픽셀이라 하더라도 8방中3방의 픽셀이 존재하니 그것을 이용하는 것 같기도 하고.


 수정됨_20160530_215914.jpg


차라리 저 화소 4개가 하나의 픽셀을 구성하는 거라면 이해하기 쉬울 것 같은데 보간법으로 각 화소가 하나의 픽셀을 가진다고 하더라구요. DSLR부터 스마트폰 카메라까지 서로 비슷비슷 할텐데 각 화소의 컬러값(R) 외의 색값(G,B)는 어떤 방식으로 산출해 내나요?


색 외에 밝기 값의 차이일까요? 그런데 빨간색 화소에 가장 밝으면 Red 가장 어두우면 Black이 되는데 색값 외에 밝기 값이 진짜 따로 있나 싶기도 하지만 같은 이미지와 영상이라도 백라이트 밝기에 따라 달라보이니 무슨 밝기가 알파채널 개념인가 싶기도 하지만..


빨간색 화소의 픽셀을 구성할때 파란색 화소의 정보를 가져올때 빨간색 화소의 밝기가 더 밝았으면 비율에 맞춰 가져온 파란색 화소의 밝기를 더 올리는 걸까요? rgb 255:255:255 같은식으로 머리에 그려보는데 방법이 잘못되었나 싶기도 하고.


그냥 해당 화소의 맞닿아 잇는 각 컬러픽셀의 값을 합치고 참고한 화소 수 만큼 나누서어서 평균값을 내리는 걸까요?

사이드에 있지 않는한 R의 경우 언제나 주변에 G,B화소가 4개씩 있고 G도 마찬가지로 상하좌우로 RB화소가 존재하니 좌우R,상하B의 값을 합치고 2로 나눠서 해당 픽셀의 RGB값을 구현하는 것도 같은데 그냥 뇌내 망상 수준이라 RGGB로 구성되는 카메라 센서에서 픽셀의 컬러값을 어떻게 산출하는지 하루종일 생각해 봐도 모르겠습니다ㅜㅜ