miércoles, 28 de septiembre de 2011

Principios Básicos de la Luz, la Formación de Imágenes y el Funcionamiento de la Cámara



El Espectro Electromagnético y la "Luz Visible"

El espectro visible de rayos lumínicos que los seres humanos somos capaces de percibir, son aquellas radiaciones electromagnéticas que tienen un rango de longitud de onda que se encuentran entre los 400 y 700 nanómetros (1 nanómetro es igual a 0,000001 milímetro).

Este espectro de rayos es los que comúnmente denominamos “luz visible” o simplemente “luz”, en donde las diferentes longitudes de onda dentro de este rango visible, son las que determinan las variedades de colores.



Este espectro visible (o luz), está compuesto por rayos lumínicos que se propagan en forma divergente, viajando a una velocidad promedio de 300.000 km por segundo de manera rectilínea. Éstos no son visibles a los ojos del ser humano, sino que lo que realmente observamos es su reflejo sobre la materia.


La Cámara Estenopeica y la Formación de la Imagen Fotográfica

Una manera simple y sin dudas divertida para aquellos que nunca han podido comprobar la rectitud con la que viaja la luz, es mediante la elaboración de una cámara oscura ó caja estenopeica (pinhole en inglés).

La cámara oscura es el principio básico de la fotografía, el cual nos evidencia que la imagen externa a la caja, por dentro se muestra en forma invertida (tanto en forma vertical como en forma horizontal), como consecuencia de la mencionada propagación rectilínea de la luz. Esta cámara oscura es un lugar estanco a la luz, el cual es atravesado por unos pocos rayos lumínicos mediante un único orificio sobre uno de sus lados.



Por lo comprobado, la luz es la verdadera base y motor de la fotografía, cuya importancia queda reflejada incluso en el origen etimológico de la palabra, ya que "fotografiar" es una palabra de origen griego y su significado es similar a "escribir con luz".

La importancia de la luz es tal, que sin ésta sería imposible tomar una fotografía, del mismo modo que sin óleo no se podría pintar un lienzo, o sin la tinta de un bolígrafo no se podría escribir una carta.

Y no sólo la ausencia de luz evita que se tome una fotografía, sino que una cantidad de luz insuficiente o con escasa intensidad hace necesario el uso de elementos artificiales como flashes o esquemas de iluminación más elaborados. Todo ello porque el primer elemento clave, y probablemente el más importante, para poder obtener una fotografía de calidad es, sin dudas, la luz.


El Orificio en la Moderna Cámara Oscura: el Objetivo y el Lente

Al igual que en la primitiva cámara oscura, el objetivo es el orificio por donde entra la luz que proviene reflejada de las figuras que se encuentran frente a éste. De manera similar que en la caja estenopeica, principio fundamental para lograr capturar fotografías, las imágenes son proyectadas en forma inversa (de izquierda-derecha y de arriba-abajo) una vez que atraviesan el lente. A diferencia que en la cámara oscura, gracias al lente, las formas proyectadas se obtienen con mayor nitidez, colores más luminosos y pueden ser visualizadas en forma ampliada. 

Dentro de esta evolución, el orificio se ha convertido en una gran variedad de objetivos que trataré en detalle en las próximas entregas.

Eso sí, independientemente de lo sofisticado de estos objetivos, la base de su funcionamiento es la misma que la del orificio de las cajas estenopeicas.

Cuando todos los rayos llegan a través del lente, convergen en un plano focal (f).


El Sensor Digital

Para obtener la captura de una imagen fotográfica es necesario, como mínimo e indispensable, de luz, una cámara oscura y finalmente de un elemento sensible a esa luz sobre el cual se imprima dicha imagen.

En el caso de la fotografía analógica, el material fotosensible es conocido como película y está formado por una sustancia basada en cristales de "haluro de plata" (un compuesto de plata más un halógeno, generalmente bromo), que en contacto con la luz procedente de la escena a fotografiar permite que la información de la escena quede almacenada en la película.

En la fotografía digital, la luz sigue siendo la materia prima. Lo que ocurre es que se ha sustituído un soporte fotoquímico por otro soporte: el Sensor Digital. En ambas tecnologías, la luz penetra a través de la lente y llega al soporte (llámese película o sensor digital) en mayor o menor cantidad dependiendo de la velocidad de obturación y el diafragma que haya seleccionado el fotógrafo. El sensor está compuesto por celdas fotosensibles (diodos de silicio sensibles a la luminiscencia), y cuanta mayor cantidad de fotosensores tenga el sensor, mayor aumento se va a poder otorgar a la imagen capturada (esto se traduce en mejor calidad de imagen ó una mayor definición).



Los megapixeles son el resultado de dicha suma (por ejemplo, si un sensor tiene 3.000 fotosensores en su ancho y otros 2.000 de alto, tendremos una calidad de imagen de 6.000.000 pixeles, o sea 6 megapíxeles).




Se denomina Full Frame al sensor que mide lo mismo que un negativo analógico convencional (36x24mm).



Del Sensor al Conversor Analógico Digital y el Revelado Digital

En una cámara digital, la imagen se captura apelando a una combinación técnica que se puede comparar con la clásica emulsión de gelatina bromuro (emulsión + imagen latente + revelado químico).

La imagen digital está compuesta por una enorme cantidad de pequeñísimos mosaicos (sensores digitales de silicio) que convierten la luz recibida a través de la lente, en electricidad. Inmediatamente esa electricidad es convertida en ceros y unos (código binario), es decir en información digital. Ésta información digital es similar a la imagen latente de la fotografía clásica y también debe ser “revelada” para ser vista, de la misma manera que un negativo analógico debe ser revelado para ver las imágenes.

Sensores Digitales (convierte luz en electricidad) + ADC (convierte electricidad en "ceros y unos") + "Revelado Digital".

Un buen ejemplo "por analogía" de cómo se construye la imagen a partir de píxeles sería la utilización artística de los "mosaicos venecianos". Son pequeños cuadrados de colores que, aunque de un tamaño considerablemente mas grande que los pixeles, producen un efecto similar.



Es importante establecer la diferencia entre los píxeles como "unidades elementales constitutivas de la imagen" y los píxeles como "dispositivos físicos capaces de captar la luz dentro de la matriz de un sensor digital". Aunque sea correcto hablar de píxeles para uno u otro significado, nos referiremos a los segundos como diodos o diodos fotosensibles. De este modo, evitaremos equívocos entre ambos conceptos.

El proceso de captura continúa con la conversión de la imagen en formato digital a través del Conversor Analógico Digital (ADC en inglés), que se encuentra por detrás del sensor. La energía emitida por la luz es captada por los fotodiodos del sensor y transformada en una carga eléctrica proporcional a la recibida y a cada píxel se le otorga un valor formado por ceros y unos (código binario), información que se expresa en cantidad de bits. De esta tarea se encarga el Conversor Analógico Digital.

El bit (acrónimo de BInary digiT) es la unidad mínima de información en sistemas informáticos y sólo puede representar uno de dos estados posibles: cero ó uno (apagado ó encendido, negro ó blanco, rojo ó azul, amarillo ó verde, etc.). Combinando bits en distinto orden, número y con distintos valores, es como se logra componer cualquier información digital. A mayor número de bits, más información.


El ADC está programado para interpretar la información recibida del sensor y transformarla en cierta cantidad de bits. Lo que significa, por ejemplo, que si el píxel es de 1 bit, una imagen podrá mostrar "o blanco o negro"; pero si tiene 2 bits, esa misma imagen podrá mostrar "o blanco o gris claro o gris oscuro o negro". Y así sucesivamente. 

La conclusión de este comportamiento del lenguaje informático es la siguiente:

2 ⁿ =CANTIDAD DE TONOS POR CANAL DE COLOR

Siendo “n” la cantidad de bits y 2 (dos) el número correspondiente a la cantidad de valores posibles asignados entre cero y uno.

Si nos encontramos trabajando en un único canal de color (por ejemplo los matices de color entre el blanco y el negro), obtendremos la siguiente tabla de colores de acuerdo a la cantidad de bits que nuestra cámara pueda procesar:



 
Por el contrario, si utilizamos un dispositivo RGB (basado en el modelo de colores que explicaré a continuación), la imagen capturada tendrá una profundidad de 8 bits para el Rojo, 8 bits para el Verde y 8 bits para el Azul, es decir tendremos una imagen de 24 bit totales. Al igual que lo expusto anteriormente, cuanto más bits por canal tengamos, más información tonal tendremos.

Un píxel de 8 bits genera 256 valores posibles, que equivalen a la cantidad de tonos que el ojo humano es capaz de .distinguir en una imagen. A partir de esa cantidad de tonos, el ojo no distingue escalones entre un valor y el siguiente: es un degradé continuo.


La Captación del Color: el modelo RGB

Los sensores digitales se fundamentan en las propiedades fotosensibles del silicio, un elemento que tiene una limitación: es monocromático y, por tanto, sólo es capaz de reaccionar ante la luz de uno de los tres canales que componen la imagen. Los distintos mecanismos para solventar esta cuestión y los problemas derivados de estos sistemas son los aspectos que más quebraderos de cabeza han causado y siguen provocando dentro del mundo de la fotografía digital.

La imagen digital, tal y como la podemos ver, está compuesta por tres canales: Rojo, Verde y Azul (modelo RGB, por sus iniciales en inglés), los conocidos colores primarios, cuya adición da como resultado el color blanco.


Por tanto, para reproducir estas imágenes en color, todos los dispositivos de captura (cámaras compactas y réflex digitales, escáneres, teléfonos, cámaras de vídeo, etc.) trabajan con estos tres canales.

Ya habíamos visto que cada uno de los fotodiodos que componen el sensor digital tiene la capacidad de reaccionar ante la luz y generar una carga eléctrica. Ésta la convierte luego el Conversor Analógico Digital (ADC) en una señal digital de unos y ceros (código binario).

Sin embargo los fotosensores, tal como ya había explicado, tienen el gran problema de ser monocromáticos. Esta situación colocó a los fabricantes hace ya unos cuantos años ante una seria dificultad, cuya resolución pasaba por condenar la fotografía digital al blanco y negro ó buscar alguna forma de que estos diodos trabajaran con los tres canales que requiere la imagen en color.

Lo que en realidad hacen la mayoría de las cámaras digitales para solventar esta cuestión es una operación bastante compleja pero cuyos resultados (pese a los problemas que continúa generando), son suficientemente buenos como para que sean pocos los que lo cuestionen.

La solución hallada fue la utilización de un filtro RGB denominado Filtro de Bayer, el cual se encuentra por delante del sensor. Así, cada fotodiodo sólo recibe información de uno de los tres colores. ¿Y qué ocurre con los otros dos canales de cada píxel? Sencillamente, se inventan.

El Filtro de Bayer genera un algoritmo que hace que los colores no capturados sean generados al azar. Es lo que se llama interpolación de color (cada píxel es capaz de procesar la información de las células vecinas y así "adivinar" cuáles serían los dos valores que faltan).






Este Filtro de Bayer no tiene una proporcion equivalente de cada uno de los colores. El hecho de que la presencia de píxeles verdes sea mayor (un 25% del filtro está formado por píxeles Rojos, otro 25% de color Azul y un 50%  de color Verde), tiene una explicación muy sencilla: el ojo humano es más sensible a este color y las cámaras digitales tratan de reproducir las imágenes tal y como nosotros las percibimos.






0 comentarios:

Publicar un comentario

 
Powered by Blogger | Tested by Blogger Templates | Best Credit Cards