파나소닉이 4월에 발매한 마이크로 포서드 카메라 LUMIX DMC-GH4는 세계 최초로 4K 동영상 촬영 기능을 갖춰 화제를 불러 일으킨 것 외에도, 공간 인식 기술을 새로 탑재해 기존보다 더 빠른 AF를 가능하게 했습니다. 여기에선 이 공간 인식 기술을 사용한 AF가 무엇인지를 인터뷰했습니다.

 

1.jpg

 

인터뷰에 참여한 사람들. 파나소닉 주식회사 AVC 네트워크사 이미징 네트워크 사업부 상품 기술 그룹 화질 제어 설계팀 팀장인 토모아키(뒷줄 왼쪽. 화상 처리를 담당). 이미징 네트워크 사업부 상품 기획 그룹 제1상품 기획팀 주임인 카야마 사노리(뒷줄 오른쪽. 상품 기획을 담당). 이미징 네트워크 사업부 상품 기술 그룹 렌즈 제어 설계팀 주임 기사인 시부노 고오지(앞줄 왼쪽. AF 제어 기술을 담당). AVC 네트워크사 AVC 기술 개발 센터 코어 기술 개발 2그룹 개발 1팀 팀장인 가와무라 가쿠(앞줄 오른쪽. 공간 인식 기술을 담당)

 

 

4K 동영상 최대의 문제는 발열

 

― ― LUMIX DMC-GH4는 고객들에게서 매우 좋은 평가를 받고 있습니다. 이 카메라를 기획한 배경과 컨셉을 알려 주세요.

 

2.jpg

 

LUMIX DMC-GH4

 

카야마: GH 시리즈는 파나소닉의 렌즈 교환식 카메라인 LUMIX G 시리즈 중에서도 하이엔드에 위치합니다. 2009년에 나온 DMC-GH1 부터 계속해서 제품명에 들어간 H가 의미하는 High Definition(고해상도)와 Hybrid(융합)이라는 키워드를 내세워, 사진과 동영상을 모두 높은 차원에서 융합시키는 걸 목표로 발전해 왔습니다.

 

이후 DMC-GH2를 거쳐 DMC-GH3에서는 고객층을 프로 사진사나 영상 제작자로 확장하면서, 기존의 컨셉에 추가로 보다 본격적인 촬영 현장에서의 사용을 염두에 둔 카메라를 목표로 했습니다. 덕분에 GH3은 여러 방면에서 매우 높은 평가를 받는 것과 동시에 다양한 의견을 들을 수 있었으며, 이번 GH4는 그런 고객의 소리를 받아들여 진화시킨 모델이 됩니다.

 

구체적으로 GH4는 우선 반응 속도를 크게 향상시켰습니다. 예를 들어 AF 속도는 공간 인식 기술을 도입해 기존보다 고속화했으며, 연속 촬영 속도는 2배가 됐습니다. 또 미러리스 카메라로는 세계 최초로 4K 동영상 촬영 기능도 실현했습니다. 4K 동영상을 그대로 정지 화면으로 바꾸면 일반적인 용도로 쓰기에 충분한 8백만 화소가 되기에, 동영상 촬영을 하면서 고화질 정지 화면도 얻어낼 수 있어, 지금까지 없던 사용법도 제안할 수 있게 됐습니다.

 

3.jpg

 

상품 기획을 담당한 카야마 사노리

 

― ― 미러리스 카메라면서 DSLR 스타일의 디자인을 채용하는 이유는 무엇인가요?

 

카야마: 그것은 GH3에서도 마찬가지였지만, 이 디자인을 쓸 때 그립이 어떤지를 먼저 생각했습니다. 뷰파인더를 본다는 것을 전제로 그립과 형태, 배치를 생각하고 손의 크기도 고려하면 잡기 쉬운 그립의 크기와 모양이 결정됩니다.

 

여기에 기존부터 카메라를 사용해 온 고객들도 위화감 없이 조작을 실현할 수 있도록 한다는 목표를 따르다 보면, 역시 지금과 같은 디자인이 쓰기 쉽고 잘 어울린다는 결론이 나오게 됩니다.

 

물론 충분한 견고함이나 방진/방적 기능을 홥고하고, 미러리스의 장점을 살려 같은 기능의 DSLR보다 작고 가볍게 만들 수 있다고 생각합니다.

 

― ― 크기보다 도구로서 편의성을 우선한다는 것이군요. 이번의 GH4에는 4K 동영상 촬영 기능이 핵심인데, 파나소닉의 캠코더보다 먼저 디지털 카메라인 GH4에 최초로 4K 동영상 기능을 탑재한 것은 왜인가요?

 

카야마: 아시다시피 파나소닉은 전문 작업용부터 홈 카메라까지 더해 LUMIX 시리즈를 포함하는 폭넓은 상품 라인업에서 고객의 필요에 따라 동영상 촬영용 카메라를 쓸 수 있도록 지원하고 있습니다.

 

그 중에서도 동영상 작품을 찍는 하이 아마추어나 업무용 고객들은 대형 이미지 센서를 채용하고 렌즈 교환까지 가능한 GH 시리즈를 매우 높게 평하고 있습니다. 또한 4K 동영상을 찾는 고객 층은 GH 시리즈의 손님층과 거의 겹치기에 고객들에게 빠르게 4K 영상을 보급하자는 의미에서 우선 GH4에 탑재하게 됐습니다.

 

예전부터 4K 동영상을 상정한 개발 체제를 취하고 있었으며 이미지 센서와 이미지 프로세싱 엔진의 개발 상황에 따라 비교적 부드럽게 개발이 진전됐다는 점도 있습니다.

 

4.jpg

 

파나소닉의 TV 비에라에 DMC-GH4의 4K 동영상을 표시

 

― ― 4K 동영상의 도입에서 기술적인 장멱은 있었나요?

 

카야마: 발열을 어떻게 억제하는지가 가장 큰 과제였습니다. 대부분의 LUMIX 시리즈는 메모리카드나 배터리가 다 될때까지 무제한으로 동영상을 촬영할 수 있는 무제한 연속 기록을 큰 특징으로 삼았지만, 기존보대 4배의 화소 수와 고속 처리를 필요로 하면 발열은 기하급수적으로 늘어나게 됩니다.

 

GH3의 개발 단계에서 발열을 줄이도록 노력했지만, GH4에선 내부의 열 배출 구조를 튜닝하는 것이 부품 검토에서 가장 어려운 점이었습니다. 이걸 해결하면서 4K 동영상에서도 무제한 연속 기록을 달성할 수 있었습니다.

 

― ― 외부의 온도가 올라가면 오버 히트해 멈추진 않습니까?

 

카야마: 권장 사용 온도는 0~40도니까 이 범위에선 무제한으로 연속 촬영이 가능합니다.

 

 

왜 광학 로우패스 필터를 제거하지 않았는가

 

― ― 이미지 프로세싱 엔진은 4 CPU라 하는데 그럼 4개의 칩이 따로 있는 것입니까?

 

시부노: 비너스 엔진 칩은 1개이며 내부가 4코어로 구성되어 있습니다.

 

5.jpg

 

비너스 엔진 칩

 

― ― 이미지 프로세서가 영상 데이터의 한 장면을 4개로 분할해서 병렬 처리합니까?

 

시부노: 이미지 프로세싱 엔진이 다양한 처리를 수행하지만 4개의 코어는 병렬로 동작하는 게 아니라 각각 다른 처리를 담당합니다. 이미지 처리도 1장의 영상을 4개로 분할해 병렬 처리하는 것이 아니라 1장의 영상을 처리해야 하는 내용을 각각의 코어가 나눠 처리해 속도를 높이는 것입니다.

 

― ― 다이내믹 레인지 성능이 25% 확장됐다는 건 센서 자체의 다이나믹 레인지가 25% 올랐다는 건가요?

 

토모아키: GH4의 새 이미지 센서는 센서 자체의 다이내믹 레인지 스펙은 GH3와 거의 같으나, GH3에선 다이내믹 레인지에 약간의 여유가 있어 영상을 만들 때 채 활용하지 못한 부분이 있었습니다.

 

그러나 GH4는 제조 공정에서 조정을 통해 센서의 다이내믹 레인지를 최대한 활용할 수 있게 되었습니다. 실제 촬영에서도 약 25% 정도 다이내믹 레인지가 커졌음을 실감하실 수 있으리라 봅니다.

 

6.jpg

 

DMC-GH4의 이미지 센서

 

― ― 하이라이트와 쉐도우가 각각 몇 스탑씩 확장됐으려나요?

 

토모아키: 하이라이트가 약 1/3스탑 정도 확장됐습니다.

 

― ― 새로 추가된 멀티 프로세스 NR은 무엇입니까? 기존 처리와 차이점은요?

 

토모아키: 노이즈에도 여러 질감이 있다고 생각합니다. 예를 들어 필름처럼 입자감이 있는 노이즈는 그리 나쁘다고 느끼진 않지요. 그래서 고주파로 섬세한 노이즈를 남기는 방향으로 해서 디테일은 유지하고,서 저주파에서 입자가 굵은 노이즈는 되도록 눈에 띄지 않는 하는 처리를 수행하고 있습니다.

 

카야마: 기존에는 화면 전체에 일관되게 노이즈 리덕션 처리를 수행했으나, 노이즈의 주파수 대역에 따라 고주파는 남기고 저주파는 중점적으로 처리하는 것입니다.

 

― ― 그렇다면 피사체의 소실은 최소한으로 줄이고 거슬리는 노이즈를 처리할 수 있겠군요. 광대역 윤곽 강조 처리란 무엇인가요? 

 

토모야키: 테두리 부분이 굵은 윤곽이 생기게 되면 좋은 느낌을 받을 수 없기에, 윤곽을 가늘게 처리하고 세세한 디테일 부분에만 효과적으로 윤곽을 강조하도록 처리한 것입니다. 단적으로는 최대 해상도의 콘트라스트를 올리는 필터라고 보셔도 되겠습니다.

 

― ― 다른 회사의 카메라에선 로우패스 필터를 빼버리는 구조가 확산되고 있는데 파나소닉에선 도입하지 않았네요

 

카야마: 로우패스 필터가 없는 구조를 원한다는 수요는 인식하고 있으나, 동영상 촬영 시 이미지 프로세스에서 커버할 수 없는 모아레 발생 등을 고려했을 때, 종합적으로 현 시점에서 이 기종에 로우패스 필터는 필요하다고 판단했습니다. 앞으로 도입을 생각지 않는다는 건 아닙니다.

 

― ― 3차원 색 컨트롤이란 어떤 기술입니까?

 

토모야키: 예를 들면 피부색과 빨간색은 색상 자체는 비슷하나 채도가 다르기에 일반적으로는 다른 색으로 인식하고 있습니다. 이 상황에서 보다 바람직한 색 재현을 위해 살색의 컬러를 조절하면 붉은색상까지 바뀌게 된다는 문제가 있었습니다.

 

그래서 피부와 붉은 색조, 푸른 녹색, 푸른 하늘처럼 피사체가 지닌 그라데이션의 분위기를 충실히 재현하기 위해 미묘한 채도, 색상, 채도의 차이를 파악하여 제어할 수 있도록 한 기술이 3차원 색 컨트롤입니다. GH4는 기존보다 30% 정도 색 보정 정확도를 향상시켰습니다.

 

7.jpg

 

이미지 처리를 담당한 토모아키

 

 

2장의 사진으로 렌즈 데이터를 활용하는 공간 인식 AF

 

― ― 이번 가장 화제가 된 신기술인 공간 인식 AF는 어떤 것입니까?

 

카와무라: 공간 인식 AF는 DFD(Depth From Defocus)라는 기술에 근거한 것으로, 간단히 설명하면  말씀 드리면 흐려진 부분에서 피사체까지의 거리를 포착해 내는 기술로서 1990년대 초부터 이미 확에에서 크게 발표됐던 기술이 되겠습니다.

 

그 기술을 이제 카메라에 탑재할 수 있게 된 건 프로세서의 처리 능력이 향상되면서 복잡한 계산을 순식간에 처리 가능하게 된 것과, DFD의 구체적인 활용 상황에 맞는 실용적 측면에서의 기술적인 목표가 세워졌다는 게 큽니다.

 

구체적으로 콘트라스트 AF는 매우 정확하게 초점을 맞추는 게 특징이지만 피사체의 초점이 완전히 어긋나 매우 심하게 흐려졌을 경우 어느 방향으로 렌즈를 움직일지 알기 어렵다는 단점이 있습니다. 그걸 보완하기 위해 이번 DFD의 기술을 응용했습니다.

 

DFD는 라이브뷰 영상에서 다른 데에 초점이 맞는 2장의 영상(경우에 따라서는 2장 이상)을 취득해 렌즈의 광학 데이터를 참조 및 분석해서 초점이 맞은 곳에서 앞에 있는 것과(파란색) 초점이 맞은 곳에 있는 것과(녹색) 초점이 맞은 곳 너머에 있는(빨간색) 피사체를 거리별로 나눌 수 있습니다. 즉 초점이 맞지 않은 상태에서도 피사체까지의 대략적인 거리와 초점을 맞추는 방향을 파악할 수 있다는 것입니다.

 

8.jpg

 

공간 인식 AF의 설명도. 카메라의 앵글을 바꾸거나 프레이밍을 바꾸는 등, 화면 구성이 달라져도 라이브뷰 영상에서 공간 인식 AF(DFD)에 의해 화면 내의 모든 피사체까지의 거리 정보를 취득하고 있습니다.

 

― ― 콘트라스트 AF와 어떻게 다릅니까?

 

시부노: 아까 말한대로 콘트라스트 AF는 크게 흐려진 화면에서 초점을 맞추는 방향을 빠르게 판단할 수 없지만, DFD가 초점이 서로 다른 데 맞은 2장의 영상을 통해 연산함으로서 화면 안의 모든 피사체 거리 정보와 초점을 이동시킬 방향, 대략적인 이동량을 순식간에 파악할 수 있다는 게 큰 변화입니다.

 

2장의 초점이 맞지 않은 이미지로 거리를 산출해 내는 구조

 

9.jpg

 

여기서 잠깐 공간 인식 AF의 핵심 기술에 대해 자세히 보고 갑시다. 위 그림에 나온대로 카메라에는 각각의 렌즈마다 특정 초점 위치에서 이미지가 어떻게 흐려지는지를 알려주는 렌즈 데이터가 내장돼 있습니다.

 

첫번째 이미지는 초점 위치가 피사체보다 가까운 곳에 있어 피사체가 크게 흐려진 상태를 나타냅니다. 두번째 이미지는 초점을 맞춘 위치를 조금 멀리 움직여 피사체가 흐려진 정도가 조금 작아진 상태를 나타냅니다. 

여기에서 첫번째 이미지와 두번째 이미지가 초점이 맞지 않았다는 건 알고 있고, 각각 거리에서 첫번째와 두번째 이미지가 어떻게 흐려지는지도 알 수 있습니다. 여기에서 첫번째와 두번째 이미지, 영상이 흐려진 정보를 매칭해서 확실한 거리를 검출해 낼 수 있게 됩니다.


이를 직감적으로 이해하기 위해 다른 시각에서 생각해 봅시다. 첫번째 이미지의 흐려진 영상이 두번째 이미지보다 더 크다면 그쪽 방향에 따라 5~8번 중 하나에 초점이 맞았다는 것이고, 반대로 두번재 이미지가 첫번째 이미지보다 흐려진 영상이 더 크다면 반대로 1~4번 중 하나에 초점이 맞아야 한다는 이야기가 됩니다. 

그 중 정확한 거리를 골라내기 위해선 영상이 흐려진 정도를 특정할 필요가 있습니다. 여기서 초점이 정확히 맞았을 때 어떤 모양으로 찍히는지를 모르면 정확한 거리도 구할 수 없습니다. 그래서 모양과 거리의 2가지를 동시에 추정해 계산함으로서 가장 정확한 거리를 골라내는 것입니다.

 

 ― ― 2장의 영상을 쓴다고 하셨는데 1장의 영상으론 판단할 수 없습니까?

 

카와무라: 1장의 영상만으론 판단할 수 없습니다. 영상이 2장이 있으면 흐려지는 방식의 차이에 따라 그게 앞인지 뒤인지 어느 쪽으로 흐려졌는지를 알 수 있습니다.

 

― ― 렌즈의 광학 데이터란 무엇인가요? 초점이 맞은 곳에 이상적인 결과가 있었을 경우 초점이 맞은 부분에서의 거리에 따라 이미지가 흐려진 크기가 어떻게 변화하는지를 저장한 데이터 같은 건가요? 

 

카와무라: 그렇군요. 그런 이미지입니다.

 

― ― 그럼 다른 곳에 초점이 맞은 2장의 영상이 있다면, 그 초점이 맞지 않은 흐린 부분의 크기로 초점의 이동 방향을 알 수 있으며, 초점이 맞은 위치로부터 거리도 알 수 있다고 이해하면 될까요? 

 

카와무라: 말씀하신 대로입니다.

 

10.jpg

 

공간 인식 기술을 담당한 카와무라 타케시

 

― ― 렌즈는 중앙과 주변에서 영상이 흐려진 형태가 다른데, 화면 위치에 따라 서로 다른 흐림 데이터도 가지고 있습니까?

 

카와무라: 자세히는 대답할 수 없지만 마지막 단계에선 고정밀 콘트라스트 AF로 초점을 조정하기에 DFD 기술은 어디까지나 콘트라스트 AF에서 알 수 없는, 초점을 움직이는 방향과 대략적인 이동 범위를 검지하는 용도로 특화된 것입니다. 즉 커다란 배경 흐림의 변화를 파악하는 데 필요한 정보를 갖고 있습니다.

 

― ― DFD만으로 초점을 맞출 수 있나요?

 

시부노: 방향 판정해내는 속도와 초점의 정확도는 서로 반대됩니다. GH4는 처음에 방향을 판정할 때 DFD를 이용하며 최종적인 초점은 콘트라스트 AF에서 실시하는 알고리즘을 채용합니다. 다만 DFD의 기술이 진화하고 여러 문제가 해결되면 앞으로 DFD만으로 초점을 맞추는 것도 가능해질 것입니다.

 

11.jpg

 

공간 인식 AF에 의한 초점 맞추기. 콘트라스트 AF는 마지막 미세조정에만 사용해 AF 시간을 줄여줍니다.

 

― ― 항상 고속으로 공간을 인식하지만, 그것 외에 AF를 계속해서 잡고 있다는 것인가요?

 

시부노: AF를 항상 작동한다는 게 아니라, 피사체가 움직이거나 상황이 바뀌었다고 카메라가 판단했을 때만 DFD가 작동해 거리 정보를 취득합니다.

 

― ― 카메라를 켠 직후에 AF를 잡았을 때도 0.07초만에 초점이 맞나요? 

 

시부노: 켜자마자 바로 DFD에서 거리 정보를 취득하기에 AF에 걸리는시간은 바뀌지 않습니다.

 

― ―  AF 시간은 어떻게 측정하셨습니까?

 

시부노: LUMIX G VARIO 14-140mm F3.5-5.6 ASPH. POWER OIS 렌즈의 광각단에서 CIPA기준에 준거한 테스트 방법으로 측정했습니다.

 

― ― 라이브뷰에서 조리개 값은 어떻게 됩니까?

 

시부노: 기본적으로 최대 개방이지만 피사체가 밝을 땐 조금 좁히는 경우도 있습니다. 조리개를 최대 개방했을 때 피사계 심도가 가장 얕아 초점 조작이 쉽습니다.

 

― ― 최대 개방에서 콘트라스트 AF를 한다면, 조리개를 조였을 때 초점 이동이 문제가 되진 않나요?

 

시부노: 그런 수차 변동에 의한 초점 이동도 자동으로 보정할 수 있습니다.

 

― ― AF 판독 속도는 기존과 같은 240fps입니까?

 

시부노: 네. GH4도 240fps이고 AF를 위한 데이터가 들어갑니다.

 

― ― AF는 모든 화소에서 읽어 낸 영상을 이용합니까?

 

시부노: 아니오. 모든 화소가 아니라 AF 용으로 줄인 화소를 처리하고 있습니다.

 

― ― 이미 초점이 맞은 상황에서 반셔터를 누르면 초점이 움직이나요?

 

시부노: 네. 초점이 맞은 것과는 관계 없이 초점을 맞추는 동작은 꼭 수행하게 됩니다. 초점을 더 맞출 필요는 없지만 초점을 맞추는 과정이 빠지면 촬영의 리듬이 떨어질 수 있으니 이 부분은 꼭 넣고 있습니다.

 

12.jpg

 

AF 제어 기술을 담당한 시부노 고오지

 

― ― AF 추적 연사가 GH4는 7장/초인데요. 기계식 셔터가 12장/초, 전자식 셔터가 40장/초인 것과 비교하면 추적 연사 속도가 떨어지는 건 무슨 이유인가요? 

 

시부노: 12장/초로 연사할 때는 기계식 셔터가 최대한으로 동작하면서 연속 촬영하기에 AF를 위해 셔터를 개방할 수가 없습니다. AF를 실시하기 위해선 셔터가 개방되는 시간이 필요하기 때문에 동체 추적 시 AF 연사는 7장/초가 됩니다.

 

― ― AF 추적 7장/초로 찍을 수 있는 피사체의 속도는 어떻게 되나요?

 

시부노: 기본 렌즈의 망원단인 140mm(35mm 환산 280mm)을 사용했을 경우 대략 200km/h로 달리는 열차에서도 화면 전체에서 추적할 수 있었습니다. 기존의 GH3와 비교하면 약 3배 빠른 피사체를 따라갈 수 있는 AF 성능을 목표로 설계했습니다. 실제로 시험해 본 결과 일반적인 전철이라면 AF 추적을 할 수 없는 장면은 없었습니다.

 

― ― 대단합닏. 콘트라스트 AF 기종에선 볼 수 없는 속도군요.

 

시부노: 콘트라스트 AF 기종 중에선 최고의 AF 추적 성능이라고 자부하고 있습니다.

 

― ― 그럼 동체 추적 AF시 DFD가 작동하는 거죠?

 

시부노: 작동합니다. 컨트라스트 AF에서 따라올 수 없는 고속의 피사체는 DFD에서 얻은 거리 정보를 이용하고 있습니다.

 

― ― 초점을 우선하면 연사 속도가 떨어지지 않을까요?

 

시부노: GH4에선 초점이 빗나간 상황에서도 DFD로 커버할 수 있기에 연사 속도는 떨어지지 않습니다.

 

― ― 1개의 측거 영역 안에서 피사체의 거리가 차이가 날 경우 어디에 초점을 맞춥니까?

 

시부노: 피사체의 조건에 따라 다르지만 측거점 중앙에 가깝고 카메라에 가장 가까운 피사체에 초점이 맞도록 튜닝했습니다.

 

― ― 다른 회사에서 제조한 마이크로 포서드용 렌즈의 경우 DFD를 쓸 수 있나요? 

 

시부노: 다른 회사에서 만든 렌즈의 DFD용 데이터는 없기에 이 경우 콘트라스트 AF만 쓸 수 있습니다. DFD는 파나소닉의 모든 마이크로 포서드 마운트용 렌즈에서 쓸 수 있습니다.

 

 

촬상면 위상차 AF를 사용하지 않는 이유

 

― ― 촬상면 위상차 AF를 사용하지 않고 DFD을 고집하는 이유는 무엇인가요?

 

카야마: 촬상면 위상차 AF를 도입하면 위상차 전용 화소가 들어간 부분의 화소 결손을 보완 처리해야 하다보니 화질에 영향을 줄 수밖에 없다고 생각합니다. 특히 4K 동영상의 경우 모든 화소를 사용하기에 영향이 큽니다.

 

시부노: 4K 동영상은 촬영 영역 안의 모든 화소를 기록하기에 화소 결손을 용납할 수 없습니다. 4K 영상을 넣어가면 촬상면 위상차 AF는 쓰기 어렵습니다.

 

카와무라: 화소를 2분할하는 상면 위상차 방식의 제안도 있었습니다. 이 경우는 화소 결손이 화질에 미치는 영향은 없다고 하네요. 하지만 4K 동영상처럼 모든 화소를 쓴다고 가정했을 경우 단순 계산으로도 읽어들이는 화소 수가 4K의 4배가 되니까 데이터 처리와 이미지 프로세스 등에서 어려운 점이 있습니다.

 

시부노: 기존의 콘트라스트 AF는 초점이 정확하다는 점에서 위상차 AF에 비해 큰 장점이 있었으나, 처음으로 초점을 맞출 때 어느 방향으로 갈 지를 모른다는 점이나 AF 동체 추적 성능이 떨어진다는 단점이 있었습니다. 그러나 이번에 DFD 기술의 도입에 의해 위상차 AF와 거의 같은 수준의 동체 추적 AF를 실현될 수 있었습니다.

 

당연히 우리도 촬상면 위상차 AF에 대해서 연구를 하고 있습니다. 촬상면 위상차 AF는 동체 추적 AF 성능이 뛰어나다는 장점이 있지만 처리 속도나 AF의 정확도, 저광량에서 성능 등의 단점도 있습니다. 최고 화질의 4K 동영상을 제공하는 GH4는 DFD 기술을 이용해 콘트라스트 AF를 진화시키는 방법을 선택했습니다.

 

― ― 새로운 기술에만 달려드는 게 아니라 기존 기술의 노하우를 살리면서 새로운 기술도 도입한 것이군요. 앞서 시장의 인기가 좋다고 말씀드렸는데 실제 판매 결과는 어떻습니까? 

 

카야마: 고객 여러분들의 관심 덕분에 4K 동영상이 촬영한 기기를 저렴한 가격에 드릴 수 있어 좋은 평가를 받고 있고, 예상을 웃도는 판매량을 기록하고 있습니다.

 

지금은 주문이 넘쳐서 생산 물량이 부족한 상황입니다. 예약하신 분들은 더 기다리셔야 할 듯 합니다.

 

 

인터뷰를 마치고

 

GH4는 렌즈 교환식 디지털 카메라로서 세계 최초의 4K 동영상 촬영을 실현했습니다. 한세대 전인 GH3의 단계에서 4K 동영상을 상정한 개발이 이루어졌으며 발열 처리가 가장 큰 과제였다는 건 흥미로웠습니다. 다른 회사의 카메라는 풀 HD 동영상 촬영에도 시간 제한을 두거나, 발열 때문에 촬영이 중단되는 카메라도 있었음을 생각하면 일찌기 동영상의 발열 처리에 신경써 가장 먼저 4K 동영상을 실현했을 뿐만 아니라, 무제한 연속 촬영까지 가능한 파나소닉의 기술 노하우는 상당한 수준이라 할 수 있겠습니다. 다른 제조사가 쉽게 따라갈 수 없는 이유가 바로 이것입니다.

 

한면 GH4의 4K 동영상은 사진 촬영 스타일을 바꾸는 계기가 될 가능성도 있습니다. 4K 동영상은 한 장면의 화소 수가 대략 800만 화소로 정지 영상의 화질로서도 충분한 수준으로 30장/초의 연속 촬영을 하는 것과 같습니다. 즉 4K 동영상을 일시정지해 저장하면 그걸 그대로 정지 영상으로도 쓸 수 있다는 것이 됩니다. 물론 동영상에서 가져온 영상은 CMOS 센서 특유의 롤링 변형 같은 문제도 있고 기계식 셔터를 쓰는 정지 영상과 똑같은 화질을 얻을 수 있는 건 아니지만, 인터넷 뉴스나 보도 등의 분야에선 지금까지보다 더더욱 크게 동영상과 정지 영상을 함께 쓰는 것이 가능해질 것입니다.

 

또 사진사의 기술로 셔터 찬스를 포착하는 것이 아니라 나중에 영상을 돌려보면서 포착하는 식으로 바뀔 수도 있습니다. 이것은 이전부터 4K/8K 영상의 시대가 되면 생길 것이라고 예상했던 일이기도 합니다.

 

이번에 기술적으로 궁금했던 것은 공간 인식 AF(DFD)였습니다. 설명에 따르면 DFD의 원리는 먼저 거리별로 렌즈의 배경 흐림 데이터를 구축한 상황에서, 2개의 다른 위치에서 초점을 잡은 영상을 가지고 흐림 데이터를 비교해 화면 안의 모든 피사체의 거리를 알 수 있다는 것인데, 이 기술의 특징은 위상차 AF처럼 렌즈의 최초 구동방향을 순간적으로 판단할 수 있다는 점입니다.

 
인터뷰에서 시속 200km/h로 주행하는 열차에서도 AF 추적이 가능하다고 했으니, 이제 동체 추적 AF는 위상차 AF만의 특권이라고 할 수는 없을 것입니다.

 

이 성능이 사실이라면 많은 카메라 업체들이 미러리스 시대의 고속 AF 방식으로 촬상면 위상차 AF를 도입하고 있는 것과 달리, 파나소닉은 냉정하게 기술을 파악하고 콘트라스트 AF라는 기존 기술과 DFD라는 새 기술을 조합해, 지난 수십년 동안 가장 빠른 AF 방식으로 군림해 온 위상차 AF에 필적하는 AF 방식을 실현한 것이니 칭찬할 만 하다고 생각합니다.

 

13.jpg

 

 

소스: http://dc.watch.impress.co.jp/docs/news/interview/20140530_649605.html

기글하드웨어(http://gigglehd.com/zbxe)에 올라온 모든 뉴스와 정보 글은 다른 곳으로 퍼가실 때 작성자의 허락을 받아야 합니다. 번역한 뉴스와 정보 글을 작성자 동의 없이 무단 전재와 무단 수정하는 행위를 금지합니다.