[ garbages ] in KIDS 글 쓴 이(By): limelite (a drifter) 날 짜 (Date): 2012년 09월 30일 (일) 오후 04시 45분 18초 제 목(Title): Re: 우주셀카 - 배경에 별 없음 -_-; thanks님이 자꾸 이야기하시니까, 디카 이미지의 blur 요인에 대해서 살펴보죠. 모든 blur 요인을 모두 다 살펴볼 수는 없으므로, 일반인이 일반적인 상황에서 디카로 별을 사진 찍는 경우에 고려해야 할 blur 요인만 다루겠습니다. (왜 이 쓰레드에 이걸 적는지는 이 글 맨 마지막에 있음. 적다보니 길어져서 -_-;) - 천체 사진 중에서 예를 들어 추석 보름달을 찍는다고 했을 때, 보름달은 상당히 밝아서 셔터속도를 충분히 확보할 수 있으므로(기억에 1/500s 이상이었던 듯?) blur에 둔감한 편입니다. 그러나, 그냥 보름달이 아니라 달의 분화구라도 보이는 사진을 찍고 싶어서 고배율 망원렌즈를 사용해 찍는 경우는 삼각대를 이용해야 겠죠. 달보다 훨씬 어두운 별을 사진에 담으려면 최소한 수초에서 몇십초 이상의 셔터속도를 확보애햐 하므로 삼각대 사용은 필수입니다. - 그럼 삼각대만 사용하면 별 사진을 깔끔하게 찍을 수 있느냐... 별로 그렇지 않다는 게 문제죠. 일단 DSLR 같은 SLR = Single Lens Reflex 카메라의 경우, 그 reflex를 만들기 위해 mirror 거울을 사용하고, 사진 찍을 때 이 거울이 빠른 속도로 움직이다가 카메라 몸체에 부딪혀 멈추는 과정이 있는데, 이 때 mirror shock이라는 것이 발생합니다. 천체사진 뿐 아니라 정교한 사진 촬영에서 mirror shock은 상당히 큰 blur 요인입니다. 삼각대로 고정해도 막을 수 없고, 특히 느린 셔터속도에서 상당히 크게 보입니다. 때문에 대부분의 DSLR 카메라는 거울의 움직임과 충격이 멈춘 후에 촬영할 수 있는 옵션을 내장하고 있습니다. 달을 고배율로 사진 찍는 경우나 별을 찍는 경우라면 이런 옵션 등을 이용해 mirror shock이 없는 상태에서 촬영하는 것이 필수죠. 엄밀하게는 셔터막이 움직이는 것도 충격을 만들어 blur를 만들 수 있는데요. 그러나 shutter shock은 극도로 민감한 환경이 아니라면 대부분 삼각대로 고정하는 정도로 막을 수 있습니다. - 움직이는 피사체를 촬영하는 경우 카메라가 움직이지 않더라도 피사체가 흐른 것처럼 사진에 찍히는 motion blur가 발생하는데요. motion blur를 없애기 위해서는... 뭐 별 수 있나요? 피사체의 motion을 충분히 정밀하게 tracking해야 합니다. 별 사진을 찍기위해 셔터속도를 수초에서 수십초로 맞추고 촬영하는 경우, 지구의 자전 때문에 하늘에서 별이 움직이므로 motion blur가 발생합니다. 당연히 삼각대로 고정? 이런 것으로는 이 blur를 없앨 수 없고, 전문 천체 tracking 장비를 사용해야 합니다. 일반인들이 이런 전문 장비가 있을 리가 없으니, 일반인들이 찍는 별 사진에서는 별이 흐르는 걸 막을 수 없다고 보면 됩니다. 다른 대안으로... 요새 고감도 저노이즈 DSLR들이 많이 발매되고 있는데 고감도 설정으로 셔터속도를 충분히 확보하고 찍으면 별이 많이 흐르지 않게 찍을 수도 있습니다. 여기까지 정리하면... 일반인들이 별 사진을 찍을 때 삼각대로 카메라를 고정 하더라도 1) SLR 구조 카메라의 경우 mirror shock에 의한 blur 2) 지구 자전에 의한 별의 motion blur가 발생하는데, 1)의 경우는 mirror shock을 없애는 옵션을 사용하거나, mirror shock이 없는 종류의 카메라를 사용하는 해결책이 있지만, 2)는 전문 천체 tracking 장비를 사용하거나, 고감도 저노이즈로 충분히 빠른 셔터속도로 밤하늘의 별을 촬영할 수 있는 최신의 카메라를 이용하지 않는 한 없앨 수 없습니다. 이 두가지가 일반인이 일반 카메라로 별 사진을 찍을 때 가장 큰 blur 요인입니다. thanks님은 여기서 더 나아가 카메라가 가지는 해상력의 극단까지 가서, 카메라 구조 자체가 가지는 blur 요인에 대해서 이야기하시는데요. 이것은 사진을 극단까지 확대하거나 하는 경우에 문제가 되고, 일반적인 상황에서는 위 두가지 요인보다 작은 영향을 끼칩니다. - 렌즈 해상력... 우리가 사용하는 렌즈가 ideal lens가 아니기 때문에 여러 종류의 수차가 있어 상을 왜곡하며, 당연히 해상도에도 한계가 있습니다. 그런데 여태까지는 대체로 카메라 해상력에 맞는 렌즈를 사용했기 때문에 별 문제가 없었죠. 저급의 해상도 낮은 카메라에는 저급 렌즈를, 고급의 해상도 높은 카메라에는 고급렌즈를 사용하는 방식으로요. 근데 최근에 2000만 화소를 넘은 카메라들이 발매되자 슬슬 고급렌즈도 카메라 해상도를 따라가기 버거운 상황이 되었습니다. 결국은, 3600만 화소를 자랑하는 DSLR인 니콘의 D800, 그 중에서도 선예도가 특히 높은 모델인 D800E 모델에는 고급렌즈 중에서도 최신의 해상력 높은 렌즈를 사용하라는 권고사항이 붙게 되었죠. 이걸 다르게 해석하면, 자기 카메라가 극도로 해상도 높은 카메라가 아니라면 자기 카메라 등급에 맞는 렌즈를 사용했을 때 렌즈 해상력이 크게 문제 되지 않는다는 의미가 됩니다. - 이 쓰레드에서 보간법 얘기가 자꾸 나오는 것은 이미지센서의 화소 배치 구조와 관련 있습니다. 좀 더 상세한 설명은 도면 등이 나와있는 아래 위키항목 참조... http://en.wikipedia.org/wiki/Image_sensor 이 쓰레드에 맞게 정리하면... 일반적인 디카에서 이미지센서를 실제로 구성하는 포토셀은 광자의 주파수 즉 색깔을 판별하는 기능이 없습니다. (위 위키항목에는 Foveon X3라는 컬러필름의 구조를 본따서 만든 예외적인 image sensor가 나와 있는데 널리 쓰이지는 않음) "그럼 어떻게 컬러 이미지를 만드남?" 이 문제를 해결하기 위해 각 포토셀 앞에 컬러필터를 만들어 붙입니다. 3천만 화소라면 3천만개에 일일이 -_-; 인간의 색감 기능과 비슷하게 Red-Green-Blue 컬러필터를 부착하는 거죠. (비슷한 원리의 약간 다른 방법도 있는데 설명 간략화를 위해 여기서는 생략) 그러니까 포토셀 앞에 붙인 필터의 색깔에 따라 어떤 포토셀은 빨강색만 전문으로 감지하고, 어떤 포토셀은 녹색만 전문으로, 어떤 건 파란색만... 이렇게 감지합니다. "디카 이미지를 받아보면 각 화소마다 RGB 값이 할당되어 있은데 이건 어케 된 것임?" 이게 그니까... R포토셀, G포토셀, B포토셀을 적당히 잘 -_-; 배치를 한 다음, 적당히 잘 -_-; 소프트웨어적으로 처리해서, 적당히 그럴 듯하게 -_-; RGB 값을 배정하는 겁니다. 물론 이 "적당히 잘"은 아무렇게나 한다는 뜻이 아니라 이론적인 근거가 있고, 경험적인 데이터도 적용됩니다. 그래서, 이미지센서를 제작하는 회사마다 컬러필터의 특성, RGB포토셀의 배치 특성이 달라 색감이 달라집니다. 마치 필름시대에 필름회사마다 색감이 다르 듯이요. 또한, 같은 이미지센서를 가지고도 디카를 만드는 카메라회사마다 소프트웨어 적으로 처리하는 과정에서 색감이 달라집니다. 이것은 필름현상소의 특성에 따라 색감이 달라지는 것과 비교될 수 있으려나요. 이렇게 이미지센서 상에서는 R-G-B 포토셀이 물리적으로는 분리되어 있는데, 이것을 소프트웨어적으로 처리해 하나의 RGB 화소를 만드는 과정에서 여러가지 보간법이 사용되고, 이 과정에서 약간의 blur가 발생합니다. - low-pass filter에 의한 blur... 디카에서는 자연스러운 영상을 격자무늬로 배치된 포토셀로 감지하는 과정에서 일종의 aliasing이 발생합니다. 특히 컬러필터 배치가 자연스러운 형태가 아니기 때문에 aliasing을 일으킵니다. 이 때문에 결과물인 사진에 실제 영상에는 없던 울긋불긋한 패턴이 발생하는 경우가 있는데, 이것을 모아레 패턴(Moire pattern)이라고 합니다. 아래 사진이 그 예이고요. http://cfile296.uf.daum.net/image/11790B0E49F583FA98A5B1 아래 위키항목에 이론적인 설명이 나와 있습니다. http://en.wikipedia.org/wiki/Moire 모아레 현상을 막기 위해 일반적으로 쓰는 방법이 이미지센서 앞에서 상을 살짝 흐리게 만드는 필터(low-pass filter)를 붙이는 방법입니다. 디카로 감지한 이미지에 선명하게 격자 무늬가 적용되어서 모아레가 발생하니까 일부러 이미지를 덜 선명하게 만들어서 격자 무늬도 약화시키자는 발상이죠. 이 때문에 디카 이미지를 극단적으로 확대해서 보면 선이나 점이 선명하지 않고 약간의 blur가 발생합니다. 위에서 선예도가 특히 높은 디카로 예를 들었던 니콘의 D800E 모델은 image sensor 앞단의 low-pass filter를 제거한 모델입니다. 모아레의 위험을 안는 대신 선명도를 높이는 선택을 한 것이죠. "이런 선택은 왜 좋은가?" 모아레가 발생하지 않는 경우 선명한 이미지를 얻을 수 있고요. 모아레가 발생했다고 하더라도 사진의 모든 영역에서 나타나는 경우는 드물기 때문에, 사용자가 포토샵 같은 프로그램을 이용해서 사진의 일부 영역만 선택적으로 모아레를 없앨 수 있습니다. 사진의 다른 영역은 선명도를 유지할 수 있는 거죠. 그래서, low-pass filter를 장착해 모든 이미지의 모든 영역을 무차별적으로 흐리게 만드는 것보다 사용자 선택의 폭이 넓어지는 것입니다. 단점이야 사용자 선택이 폭이 넓어지는 만큼 사용자가 수동으로 해야하는 처리가 늘어난다... 일반적이지 않은 구성의 디카라 가격도 높아진다... 이런 것이 있겠네요. 으~ 적다보니 무쟈게 길어졌어요 ㅠ.ㅠ 정리하면... 이 쓰레드의 위 글에서 항성은 거의 대부분의 촬영환경에서 점광원이라고 했는데, 이런 여러가지 요인들 때문에 디카로 촬영하는 과정 중에 blur가 일어나서 실제 디카로 촬영한 항성의 이미지는 완전한 점이 아니고 약간 번진 모습으로 나타납니다. 그러나 그런 blur는 이 쓰레드의 주제 "사진에 찍히는 밝은 항성과 찍히지 않는 어두운 항성이 존재하는가"와는 별개의 문제입니다. blur가 생기건 생기지 않건, 광원 자체가 밝다/어둡다와는 다른 문제이니까요. ............................................................................... a drifter off to see the world there's such a lot of world to see |