Camera Pixel Format(Bit Depth)
보통 더 좋은 이미지를 얻기 위해서는 Pixel format(Bit Depth)이 더 높은 것을 사용해야 한다 생각을 합니다. 이 생각이 항상 맞을까요?
구글링으로 Pixel format을 검색할 시 아래와 같은 이미지를 쉽게 찾을 수 있습니다. 더 높은 Pixel format이 더 많은 신호를 표현할 수 있다고 해석이 가능합니다.

이 기본 생각을 카메라 센서로 가져가 봅니다. OnSemi 29M 동일 센서를 사용하는 2대의 카메라가 있습니다. A 카메라는 12-bit까지 지원합니다. B 카메라는 14-bit 까지 지원합니다. 이 조건에서 B 카메라의 이미지 퀄리티가 더 좋다고 말 할 수 있을까요?
기본적으로 출력 ADC의 Bit depth는 카메라(센서)의 모든 이미지 신호를 표현 할 수 있어야 합니다. 이 모든 범위의 이미지 신호가 즉 카메라의 Dynamic range입니다. 위 예에서 사용 된 29M 센서의 Dynamic range는 약 64dB입니다.

64dB를 표현하기 위해서는 몇 Bit의 Depth가 필요할까요?

29M 센서인 경우 12-bit(72dB > 64dB) 만으로 센서의 모든 신호를 충분히 표현 할 수 있습니다. 그렇다면 이 조건에서 14-bit 출력은 무엇을 의미할까요? 14-bit의 하위 2-bit는 의미 없는 Noise를 의미합니다. 14-bit Bit depth의 사용은 Signal 측면에서는 이점이 전혀 없습니다. 출력 Dynamic range는 센서의 Dynamic range 보다 절대 커질 수는 없기 때문입니다. 즉, 센서의 성능을 초과한 높은 출력 Bit depth는 항상 더 좋은 신호를 의미하지는 않습니다.
최근에 Vieworks에서는 101M와 151M의 초고해상도 카메라를 출시했습니다. 이 2개의 제품은 14-bit 와 16-bit Pixel format을 지원합니다. 이 제품에서 사용한 센서의 Dynamic range는 약 84dB로 14-bit Pixel format이 표현을 할 수 있습니다. 하지만, 출력 ADC의 허용오차를 고려하면 16-bit Bit depth가 센서의 최대 성능을 표현 할 수 있습니다.
101M와 151M 제품에 대한 자세한 정보는 아래 페이지에서 확인 가능합니다.
Comments are closed.