¿Qué es la luz?
Cuando realizas una fotografía, no estás capturando un momento. Tal vez si lo estés haciendo si lo piensas de manera poética, pero en realidad
estás capturando luz. La principal herramienta del fotógrafo no es la cámara, ni su modelo, ni su objeto, ni si siquiera su talento; la verdadera herramienta prima, el verdadero material que hace a una fotografía es la luz. La luz es todo en lo que debes pensar. Es lo que hace a la fotografía. Además te hace ver como una persona muy entendida del tema al decir que no tomas fotografías, sino que
pintas con luz.
Pero, ¿qué es la luz en si misma? Es aquello que nos permite ver, que nos permite tomar, justamente, fotografías. Entonces,
¿de qué se compone? Hablemos un poco acerca de la luz y cómo se comporta en nuestra cámara.
La luz es una
radiación electromagnética. Técnicamente toda radiación electromagnética es luz, pero a fines prácticos solo se suele hablar de la luz que el ojo humano puede detectar, denominándola luz visible. La fotografía infrarroja es un buen ejemplo de como la luz excede nuestra propia capacidad de verla ya que grafica parte del espectro que a nuestros ojos es invisible, representándola en intensidades —sin color— yendo desde el negro en uno de sus extremos hasta el blanco que muestra la parte cercana a la porción que si podemos ver.
Origen
Fuera de la parte teórica, la luz se divide en dos grandes grupos:
natural y artificial. La luz natural esta englobada casi por completo por la luz del sol. A pesar de estar a millones de kilómetros de distancia, su radiación electromagnética es la principal forma de iluminar una escena además de, claro,
sustentar toda la vida en este planeta. Existen otras fuentes de luces naturales, aunque son bastante raras y jamás las he visto ser utilizadas en aplicaciones fotográficas, como insectos o plantas luminiscentes.
Del lado artificial se encuentra la parte más interesante: es toda la luz creada por el hombre. Flashes, lámparas y LEDs son algunas de las aplicaciones humanas que crean luz y debido a que no están lejos de este —y no lo derretirían al instante durante su contacto— son manipulables y permiten crear escenas e iluminaciones a gusto.
Características
La principal característica de la luz es
el color, lo que define la temperatura de color de la fotografía. Expresada en grados kelvin, la luz puede tener una temperatura cálida o una temperatura fría. Dentro de los grados bajos tenemos la gama fría y dentro de los grados altos está la gama cálida. En el punto 5500º se encuentra la luz blanca neutral, que es justamente la que producen los flashes, debido a que no se encuentra "contaminada" con algo de temperatura, lo que permite al fotógrafo desviarla hacia cualquier extremo con el uso de geles o planchas de papel coloreado.
Otro factor muy importante es
su intensidad. La luz puede tener una intensidad muy grande y causar sombras muy marcadas, o una intensidad suave, lo que produce sombras muy difuminadas. La intensidad en la luz natural es fácil de detectar. En un día despejado al mediodía, el sol se encuentra en su punto medio del cielo, lo que hace que recibamos su máxima intensidad. Allí es normal ver como las personas, los autos y los arboles crean una copia exacta de su silueta en el piso. Esta luz es muy intensa y crea sombras muy marcadas.
En los días nublados o en las primeras y últimas horas del día, la luz debe atravesar la atmósfera o las nubes, lo cual altera su intensidad lo que crea sombras
más vagas, que son una silueta muy difuminada de lo que es su objeto madre. En este caso podemos ver como la intensidad es baja, creando sombras que no delatan en que horario fueron tomadas, por ejemplo.
Hasta aquí la luz como cuestión ajena a la cámara. Veremos en la próxima entrega que sucede cuando la luz alcanza la lente y posteriormente
el sensor.
Foto:
Lucia Whittaker |
wolfgangfoto
Fuente:
http://altfoto.com/2013/10/que-es-la-luz
¿Cómo llega la luz al sensor?
A todos nos gusta tomar fotografías y muchos entendemos cómo funciona una cámara. Pero ¿realmente sabes que sucede con al luz al llegar al sensor? La luz atraviesa varios filtros y dispositivos antes de alcanzar al sensor y aun allí es modificada. Veamos todo lo que sufre la luz antes de convertirse
en bits y bytes.
La semana pasada hablamos acerca de
la luz. Cómo se comporta, qué la afecta y cuáles son sus principales características. Hemos entendido que no tomamos fotografías, sino que
pintamos con luz. Pero toda esta luz tiene que ser interpretada; de alguna manera tiene que capturarse y convertirse en un formato que pueda transmitirse de manera digital. Veamos entonces cómo se comporta la luz una vez que alcanza
el sensor.
Finalizado el viaje a través de la lente, la luz todavía sufre
varias modificaciones. Vamos a hablar del viaje promedio que realiza, el que la luz debe atravesar en la mayoría de las cámaras comunes de hoy en día, por lo que el proceso será similar a todos los casos posibles pero no igual en ciertos sensores o configuraciones.
Filtro de paso bajo
El primer paso que debe realizar la luz es atravesar el
filtro de paso bajo. Este filtro es una fina lamina que se encuentra por sobre el sensor —el mismo que limpias al “limpiar el sensor” ya que no estás tocando el sensor propiamente dicho, sino el filtro de paso bajo— que “prepara” la luz para que esta sea interpretada de la mejor manera posible por la cámara. Este filtro usualmente lo que hace es reducir el
efecto muaré que se presenta cómo olas u ondas en zonas de la imagen con patrones repetitivos. Claro que cualquier filtro por delante de la luz reduce la calidad de ésta, introduciendo problemas y desenfoques, pero usualmente el beneficio que traen es mucho más superior que los problemas que introducen.
En algunos tipos de fotografía estos ajustes que realiza el filtro son tan críticos que se comercializan ciertas cámaras que deshabilitan a pedido o directamente carecen la acción de este. La Nikon
D800E es un claro ejemplo: directamente
no trae este filtro, sino que su sensor es impactado directamente. Esto obliga al usuario a lidiar con problemas de patrones muaré en la postproducción, pero le permite tener fotografías de una acutancia muy, muy alta.
Filtro Bayer
El segundo filtro que debe atravesar la luz es el filtro Bayer (cuyo inventor
murió el año pasado). Este filtro es el
más agresivo de todos, ya que altera profundamente la luz y la “clasifica” en cierta manera, en pos de solucionar ciertos problemas nativos de todos los sensores comunes.
El filtro Bayer es una
matriz de mosaicos verdes, rojos y azules qué, obviamente, representan los colores primarios. Cuando la luz atraviesa uno de estos mosaicos, solo al color correspondiente al mosaico se le permite el paso mientras que resto del espectro es absorbido. Los mosaicos verdes solo permiten las tonalidades verdes, los mosaicos rojos las tonalidades rojas y la misma historia con las azules. Estos rayos filtrados alcanzan cada fotodiodo de la cámara y estos almacenan la luz como una carga eléctrica.
Pensándolo un poco te darás cuenta que en este caso, cada pixel del sensor almacenaría solo una tonalidad de color, en vez del rango de tres colores a los que estamos acostumbrados y que representan todas las imágenes que vimos y veremos. Y esto es así, por qué los pixeles de la cámara “ven” en blanco y negro.
Así es, el sensor en realidad no detecta colores, sino intensidades. Cuando un rayo de luz impacta un fotodiodo, este no analiza su temperatura o parte del espectro de luz, sino que detecta tan solo que tan intenso es.
Entonces, una vez filtrada la luz en sus respectivos
colores primarios la imagen debería verse, justamente, como ese filtro de colores. Y previamente a que la imagen sea guardada, esto es verdad.
Como se puede ver en la imagen de arriba, la fotografía antes de ser procesada
se ve así. Es un enorme mosaico de colores que poco se corresponden con la vista que tuvimos a través de la lente. Lo que se hace para que la fotografía final se parezca a la vida real es
interpolar la información. La interpolación es un tema que va y viene en este blog, siempre polémico y siempre se presta para el debate. Funciona de manera muy sencilla: estimando la información que falta.
Digamos que tenemos varios pixeles verdes y muy pocos azules y rojos. Nuestra grilla producida por el filtro Bayer mostraría intensidades muy altas en las secciones verdes y muy bajas en las otras dos. La interpolación, simplificando el asunto, estima cuales serían las intensidades basándose en la información que tiene alrededor y en nuestro ejemplo calcularía los espacios rojos y azules como verdes. En cierta manera, esta función
“inventa” la información de color que no tiene y produce una imagen final más fiel que la que otorga el filtro Bayer. Y aunque parezca un pésimo método, es el mismo que venimos utilizando hace más de una década. Obviamente la interpolación produce problemas de acutancia y pérdida de nitidez, pero aún hoy sigue siendo el mejor método para volver a obtener la información que el filtro Bayer elimina.
Finalizada la captura de luz, los fotodiodos que fueron impactados almacenan la luz como una carga eléctrica que se le asigna un valor
entre 0 y 255, siendo 0 la completa falta de luz y 255 el punto máximo donde el fotodiodo puede ser excitado. Esta carga es leída línea por línea por el controlador de la cámara, comenzando desde la parte de abajo del sensor hasta arriba —ya que la lente “da vuelta” la luz al atravesarla, dejando la parte superior de la imagen en la inferior y viceversa. Esta lectura línea por línea es la que introduce el efecto gelatina o
rolling shutter al grabar video, ya que cuando se lee la última línea ha pasado un tiempo considerable de cuando se leyó la primera.
Estos datos se guardan se codifican a bits, se le aplican ciertos filtros digitales que varían con cada fabricante y se envían a la tarjeta SD. Luego tú la publicas en tu red social favorita y recibe unos cuantos
likes. Tremendo viaje,
¿verdad?
Foto:
Carlos Sancho |
Wikipedia |
Cambridge in Colour
Fuente:
http://altfoto.com/2013/10/como-llega-luz-sensor
La luz en el sensor: profundidad de bits
En esta tercera entrega hablaremos de cómo la luz deja de ser una cuestión física para pasar a ser algo electrónico. Veremos qué relación hay entre la luz recibida y la profundidad de bits o
bit depth.
La semana pasada estuvimos hablando del
paso de la luz a través de la lente y los filtros del sensor, donde pudimos ver que la luz que recibe este último no es una primera versión, sino más bien que sufre un
manoseo importante que la prepara y la separa para que su grabación sea lo más correcta posible, al menos con el paradigma de sensores que tenemos hoy en día. Esta vez veremos qué sucede luego de que la luz ya fue filtrada y analizada, por lo que recorreremos un concepto muy importante a nivel técnico: el
bit depth o
profundidad de bits.
Retomando lo último que habíamos aprendido, habíamos concluido que, luego de atravesar los filtros, la luz llegaba a los fotodiodos y...
Finalizada la captura de luz, los fotodiodos que fueron impactados almacenan la luz como una carga eléctrica que se le asigna un valor entre 0 y 255, siendo 0 la completa falta de luz y 255 el punto máximo donde el fotodiodo puede ser excitado. Esta carga es leída línea por línea por el controlador de la cámara, comenzando desde la parte de abajo del sensor hasta arriba —ya que la lente “da vuelta” la luz al atravesarla, dejando la parte superior de la imagen en la inferior y viceversa.
Hasta aquí es sencillo pero se complejiza si lo analizas. En primer lugar: ¿Cómo puede ser que cada celda almacene valores
de 0 a 255? Quienes hayan trabajado con Photoshop, habrán notado que las imágenes con tan poca profundidad de color —16, 64, 255 o similares— tienen grandes saltos en la trama y plenos muy intensos, que demuestran un corte fuerte entre degrade y degrade.
Aquí es donde la profundidad de bits entra en juego. Es cierto que cada celda puede almacenar una intensidad de 0 a 255 (8 bits u 2 elevado a la potencia de 8), pero debes recordar que cada celda funciona
en grupos de cuatro: una celda para los colores azules, una para los rojos y dos para los verdes. Teniendo en cuenta que la celda verde esta repetida por una cuestión de similaridad con el ojo humano, tenemos la clásica formula de que cada color está representado por 3 celdas de color rojo, verde y azul. Cada celda entonces tiene la capacidad de 256 tonalidades de intensidad que combinadas entre si dan la gama completa de colores ya que:
256 x 256 x 256 = 16.777.216
16.777.216 de colores posibles en una combinación de las tres celdas lo que representa una gama similar a la que puede percibir el ojo humano, profundidad de bits que se la ha denominado
full color o
true color por esto mismo.
Las cámaras que tenemos hoy en día se las consideran cámaras de 24 bpp —
bits per pixel— ya que cada celda almacena una profundidad de 8 bits y 8 x 3 = 24, 24 bits
por cada pixel.
Es así entonces que cada intensidad lumínica que detecta el sensor se le asigna un valor de 0 a 255. Estos valores son luego
combinados con los de las celdas correspondientes y finalmente se produce un color único, una combinación de los tres colores primarios, que se puede representar en ceros y unos, la digitalidad a la que estamos tan acostumbrados.
Un detalle para el final: ¿Tiene sentido grabar con una profundidad de bits más grande 24 bpps? No, y por
dos razones: en primer lugar, si tu cámara tiene 24bpps, no puedes inventar información donde no la hay. Por más que le indiques a tu programa favorito de edición que guarde a más de 24bpp, este no inventará información nueva. En segundo lugar, este número es muy cercano al limite que puede diferenciar el ojo humano. Más información —si es que la hubiese— no tendría utilidad,
al menos con humanos, ya que no podemos detectar detalles a mayor profundidad.
Foto:
W. Robert Howell |
Andres Rey
Fuente:
http://altfoto.com/2013/11/luz-sensor-profundidad-bits