Вы находитесь на странице: 1из 20

La representación digital de imágenes

La imagen digital, bien sea generada en la computadora o bien creada a


través de algún instrumento de captura, tal como una cámara o un
escáner, supone la traducción de los valores de luminosidad (valor) y
color (tono) a un lenguaje que pueda entender la computadora y los
periféricos con relacionados con ella, esto es, un lenguaje digital. La
principal ventaja aportada por esta tecnología es la flexibilidad: es
posible hacer innumerables modificaciones a un archivo, sin necesidad
de alterar la fuente original; también es posible reproducirlo, copiarlo,
transmitirlo y almacenarlo en múltiples formas. Pero otra ventaja de las
imágenes digitales es su estabilidad: mientras que la emulsión de una
imagen fotográfica clásica sufren una degradación química con el paso
del tiempo, que repercute en la calidad de dicha reproducción, los ceros
y unos que componen una imagen digital permanecen estables, con lo
que la imagen no variará a lo largo del tiempo.

Ahora bien, la calidad ofrecida por los procedimientos analógicos


actuales sigue siendo superior, en la mayoría de los casos, a la que el
estado actual de la tecnología permite en los equipos digitales
accesibles al gran público.

El interés principal que puede suscitar la imagen digital, especialmente


cuando nos planteamos su utilización didáctica, proviene de la
posibilidad de construir y distribuir mensajes en los que la incorporación
de imágenes puede enriquecer el contenido de la información sin tener
que recurrir a costosas inversiones de equipamiento o reproducción.

¿Cómo se construye la imagen en la pantalla de una computadora? Para


poder entender el procedimiento por el cual las imágenes digitales son
representadas en una computadora, será necesario conocer algunos
aspectos fundamentales del color, su composición y representación.

Podemos percibir el color gracias a la luz, que es una clase de energía


electromagnética radiante capaz de ser percibida por el ojo humano. En
un sentido más amplio, el término luz incluye el rango entero de
radiación conocido como el espectro electromagnético.

El color pigmento
Distinguiremos dos tipos o sistemas de color. Cuando el color es
generado por la reflexión de la luz en la superficie de un cuerpo, a éste
se le conoce como “color pigmento”. Al incidir la luz en la superficie de
un cuerpo, la materia de la que está constituido retiene unos instantes
su energía y a continuación la reemite en todas las direcciones. Este
fenómeno es denominado reflexión. La superficie de los objetos, por su
textura y composición, reaccionan de manera distinta ante la exposición
a la luz, reflejando o absorbiendo distintas longitudes de onda de esta
energía dependiendo de las características de cada material, y las
variaciones en ese fenómeno es lo que nosotros percibimos como
“color”. Ejemplos del color pigmento son el color de los árboles, la piel,
los textiles, etc. pero también los tintes obtenidos a través de
substancias (como las pinturas, acuarelas y óleos), ya que solamente
podemos percibirlos gracias a la luz que ellos reflejan. En pocas
palabras, cualquier color obtenido a partir de una substancia o material,
pertenece a la clase de colores pigmento.

El color luz
Hay otro tipo de color, el llamado “color luz”. Ya vimos que la luz es una
clase de energía, una onda electromagnética. El espectro
electromagnético de la luz (es decir, su rango en el espacio) está
constituido por todos los posibles niveles de energía que la luz puede
tomar. Hablar de energía es equivalente a hablar de longitud de onda;
por lo tanto, el espectro electromagnético abarca, también, todas las
longitudes de onda que la luz pueda tener. El espectro visible por el
hombre es de hecho lo que comúnmente llamamos luz, pues es lo único
que nuestros ojos son capaces de percibir. Dicho espectro va desde el
ultravioleta hasta el infrarrojo, pasando por varias “regiones” del
espectro que percibimos como colores; cuando la luz del sol se
descompone en un arcoiris, por el efecto de difracción en las gotas de
lluvia, tenemos una visión más o menos completa de las regiones del
espectro lumínico. Estos “colores”, formados por la descomposición
lumínica o más exactamente por la emisión de una longitud de onda o
region específica del espectro, es lo que conocemos como colores luz.
Los colores que vemos en el monitor de nuesta computadora, en el cine,
la televisión y otros sistemas de proyección similares son ejemplos de
colores luz, pues son producidos por la emisión directa de luz.

Colores primarios
Existen tres colores únicos que tienen la propiedad de poder combinarse
entre sí para generar cualquier otro color dentro de la gama visible, pero
que a su vez, en ningún caso pueden ser obtenidos por la combinación
de otros colores. Estos colores son conocidos como “colores primarios”,
y típicamente se consideran como colores primarios el amarillo, el rojo y
el azul. Sin embargo, en realidad existen dos sistemas de colores
primarios, dependiendo del tipo de color al que nos referamos: los
colores primarios pigmento, y los colores primarios luz.

Colores primarios pigmento


Como ya explicamos, los colores pigmento, son colores creados por la
luz reflejada de los pigmentos aplicados a las superfícies. Para
propósitos de reproducción, este sistema está formado por el color
magenta (un rojo muy pálido), el cyan (un tipo de azul claro) y el
amarillo. Son los colores básicos de las tintas que se usan en la mayoría
de los sistemas de impresión, ya que como mencionamos son capaces
de producir otros colores mediante su combinación.

La superposición o mezcla de los tres colores primarios pigmento en


teoría debería producir el negro, el color más oscuro y de menor
cantidad de luz, por lo cual esta mezcla es conocida como “síntesis
sustractiva”. En la práctica, a este sistema se le debe agregar negro
pigmento, conformándose el espacio de color CMYK (por las siglas en
inglés de Cyan –azul-, Magenta –rojo-, Yellow –amarillo- y Black –negro-).

Los procedimientos de imprenta para imprimir en color, conocidas como


tricomía y cuatricomía, se basan en la síntesis sustractiva.

Colores primarios luz


Recordamos que los colores luz son producidos por la emisión directa de
luz en un rango del espectro (o longitud de onda) específico. En este
sistema de color, los colores primarios son el rojo, el verde y el azul
(RGB, por las siglas en inglés de Red –rojo-, Green –verde- y Blue –azul-).
La fusión de estos tres colores crean y componen la luz blanca, por lo
que a esta mezcla se le denomina “síntesis aditiva” (recordemos que la
síntesis sustractiva del color pigmento da como resultado el negro, o sea
la falta de luz) y las mezclas parciales de estas luces dan origen a la
mayoría de los colores luz del espectro visible.
Al fusionarse, los colores luz (RGB) producen blanco (síntesis aditiva). Por el contrario,
los colores pigmento (CMYK) producen negro (síntesis sustractiva).

Las propiedades del color

Ya que hemos visto de donde vienen los colores, aprenderemos un poco


sobre las características que lo componen. Cada color,
independientemente de su origen, puede tener variaciones que lo
diferencian de otros, incluso si ambos están dentro de la misma gama o
rango del espectro. Estas variaciones son conocidas como “propiedades
del color” y nos servirán para interpretar mejor la composición del
mismo. Dichas propiedades son tono, brillo y saturación.

Tono
También conocido como matiz, es el atributo que diferencia el color , es
decir el color en sí mismo, el estado puro del color, sin el blanco o negro
agregados. Se define como un atributo de color que nos permite
distinguir el rojo del azul (según su tonalidad, se puede decir que un
color es rojo, amarillo o verde), y se refiere al recorrido que hace un tono
hacia uno u otro lado del circulo cromático, por lo que el verde
amarillento y el verde azulado serán tonos diferentes del verde.
Podemos decir que el tono es la posición que tiene el color dentro del
espectro lumínico, ya que está relacionado con la longitud de onda de su
radiación.
Brillo
También llamado valor, es un término que se usa para describir que tan
claro u oscuro parece un color, y se refiere a la cantidad de luz
percibida. El brillo se puede definir como la cantidad de "oscuridad" que
tiene un color, es decir, representa lo claro u oscuro que es un color
respecto de su color patrón.

Es una propiedad importante, ya que va a crear sensaciones espaciales


por medio del color. Así, porciones de un mismo color con un fuertes
diferencias de brillo (contraste de valor) definen porciones diferentes en
el espacio, mientras que un cambio gradual en el valor de un color
(gradación) va a dar sensación de contorno, de continuidad de un objeto
en el espacio.

El brillo es el mayor grado de claridad u oscuridad de un color. Un azul,


por ejemplo, mezclado con blanco, da como resultado un azul más claro,
es decir, de un valor más alto.

Saturación
Conocido también como croma, este concepto representa la pureza
cromática o intensidad de un color particular. Los colores más puros
serán siempre los más saturados.

También puede ser definida por la cantidad de gris que contiene un


color: mientras más gris o más neutro es, menos brillante o menos
"saturado" es. Igualmente, cualquier cambio hecho a un color puro
automáticamente baja su saturación. Por ejemplo, decimos "un rojo muy
saturado" cuando nos referimos a un rojo puro y rico. Pero cuando nos
referimos a los tonos de un color que tiene algún valor de gris, los
llamamos menos saturados. La saturación del color se dice que es más
baja cuando se le añade su opuesto (llamado complementario) en el
círculo cromático.

Para desaturar un color sin que varíe su valor, hay que mezclarlo con un
gris de blanco y negro de su mismo valor. Un color intenso como el azul
perderá su saturación a medida que se le añada blanco y se convierta
en celeste.
Dicho de otra forma, la saturación constituye la pureza del color
respecto al gris, y depende de la cantidad de blanco presente.

Técnicamente, el blanco y negro son llamados colores acromáticos (es


decir, sin tono), ya que los percibimos como "no colores", son
representaciones puras de luz o falta de ella.

La composición de la imagen digital

Por digital entendemos todo aquello que está compuesto o destinado a


la operación de datos en un lenguaje computacional, que en esencia es
un lenguaje basado en dos dígitos (de ahí el término digital), el 0 y el 1,
llamado por ello “lenguaje binario”. Así, podemos decir que las imágenes
digitales son simples representaciones bidimensionales, elaboradas a
partir de un conjunto de datos, por un sistema de procesamiento digital.
Hay varios sistemas de procesamiento y representación digital de
imágenes, dependiendo del propósito al cual estén destinados. Sin
embargo, hay una serie de principios fundamentales que son inherentes
a la naturaleza misma de los sistemas informáticos actuales y son más
bien relativos a sus mecanismos de representación, más que a su origen
o su formato. Cualquier computadora moderna utiliza un monitor como
medio para mostrar las imágenes generadas en ella, y conocer las bases
de este mecanismo nos será de gran utilidad para entender a fondo
cómo se construyen las imágenes digitales.

Pensemos que la pantalla de la computadora es una especie de panal,


una retícula formada por miles de celdas diminutas organizadas en
renglones y columnas cuidadosamente ordenadas. Cada una de estas
celdas se llama “pixel” (del inglés Picture element, o elemento de
imagen) y es la unidad más pequeña en la que podemos descomponer
una imagen digital. Estableciendo otra analogía, los pixeles serían las
baldosas, que unidas y organizadas, forman un mosaico completo.

En un monitor común, cada uno de estos pixeles está compuesto a su


vez por tres pequeños filamentos o leds (siglas en inglés de Light-
Emitting Diode, o Diodo Emisor de Luz) que al recibir una estimulación
eléctrica son capaces de “encenderse” y emitir uno de los tres colores
luz (RGB). Así, podemos decir que un pixel es en esencia un punto de
color, que al ser activado y combinado en la pantalla con otros miles de
pixeles (o puntos de color) conformarán una imagen o representación
digital.
La pantalla de una computadora está compuesta de una retícula de puntos llamados
pixeles.

Partiendo de esta idea básica analizaremos los elementos que


condicionan el tipo de imágenes que aparecen en nuestra pantalla, que
son:

• Tipo de imagen

• Resolución

• Tamaño

• Profundidad de color

Tipos de imagen
A grandes rasgos podríamos dividir las imágenes digitales en dos
grandes grupos:

Imágenes de mapa de bits o bitmap


Tal como su nombre sugiere, este tipo de imagen se construye
describiendo cada uno de los pixeles que la compone como si de un
mapa se tratase, y llevan, por tanto, información acerca de la posición
absoluta y el color de cada uno de ellos. De hecho, podemos pensar en
este tipo de imagen en los mismos términos que utilizamos para
describir la forma en que se representan las imágenes en el monitor de
la computadora: podríamos decir que cada punto o pixel sería como la
baldosa de un mosaico, con sus propias características (color y
posición), organizadas en una retícula. La ventaja que presenta este
formato es la posibilidad de recoger una amplísima gama tonal, por lo
que es el tipo adecuado para representar imágenes captadas de la
realidad como fotografías, video, etc.
Las imágenes bitmap están construidas a partir de puntos de color llamados pixeles,
ubicados adyacentemente en una retícula. La “mezcla” de estos puntos de colores en
nuestro ojo, forman las imágenes que vemos.

En contra, este tipo de imágenes presenta limitaciones en cuanto al


tamaño resultante, ya que cuanto más detalle deseemos agregar a una
imagen, cuanto más pixeles necesitaremos para tal propósito.
Recordemos que un pixel puede representar solamente un color a la
vez, por lo que se convierte en la unidad más pequeña e indivisible de
nuestro mosaico. De ahí que sólo sea posible agregar más información a
una imagen aumentando el número de pixeles en la misma.

Imágenes vectoriales
En este tipo de imagen, la información de cada uno de los puntos se
recoge en forma de ecuación matemática que lo relaciona con el resto
de los puntos que forman la imagen. Ofrece la gran ventaja de que la
calidad de la imagen no varía al modificar el tamaño, ya que la
información de cada punto no es absoluta sino relativa al resto de la
imagen. Además, debido a su definición matemática apenas ocupa
espacio, ya que una fórmula que represente su forma es suficiente para
representar todos los puntos que la componen. Es el tipo adecuado para
el diseño de línea y figura, o cualquier figura que no requiera de
muchos detalles.

Resolución
Ya dijimos que el monitor, así como las imágenes de tipo bitmap, son
una especie de mosaico o retícula que almacena en renglones y
columnas los elementos que componen la imagen, llamados pixeles.

Aunque el término “resolución” se utiliza indistintamente para definir la


cantidad de información que puede ser mostrada por un monitor y la
cantidad de información que contiene una imagen tipo bitmap, en
realidad se refiere a dos cosas distintas dependiendo del caso. Veamos.

En el caso de los monitores de computadora y otros sistemas de


representación similares, el término se utiliza casi siempre para definir
la cantidad de líneas horizontales (renglones) y líneas verticales
(columnas) que pueden ser representadas físicamente por el dispositivo.
Por ejemplo, diremos que un monitor tiene una resolución de 1280x1024
cuando es capaz de mostrar 1280 líneas horizontales y 1024 líneas
verticales. Esto significa que un monitor con dicha resolución puede
mostrar un total de 1,310,720 pixeles, si multiplicamos ambos números
para obtener el área total del mismo.

Pero en el caso de las imágenes bitmap, el término “resolución” tiene


una connotación distinta, ya que no se usa para definir el número de
lineas horizontales y verticales que componen la imagen, sino el tamaño
relativo de cada pixel con una unidad de medida determinada,
generalmente, pulgadas. Dicho de otra manera, la resolución sólo
expresa la cantidad de pixeles que cabrían en una pulgada, y no el
tamaño “real” de una imagen. Así podemos decir que una imagen que
tiene una resolución de 300 dpi (Dots Per Inch, puntos por pulgada)
contiene 300 pixeles por cada pulgada cuadrada, independientemente
del número de pixeles totales que la compongan.

Tamaño
Ahora que sabemos que en una imagen la resolución solo se refiere a la
cantidad de pixeles que caben en una pulgada, sabemos que en realidad
la resolución define el tamaño relativo de cada pixel, pero no el tamaño
de la imagen completa. Ultimadamente, esto último estará determinado
tanto por la resolución, como por el número de pixeles que compongan
la imagen (o sea, el tamaño en pixeles). Una imagen con una resolución
muy alta (por ejemplo, de 600 dpi) pudiera perfectamente tener un
tamaño en pixeles de apenas 300 pixeles de ancho por 300 pixeles de
alto (o sea 300 renglones y 300 columnas), lo que significaría que en
realidad mide apenas la mitad de una pulgada, o sea poco más de un
centímetro. A su vez, una imagen con una resolución de apenas 72 dpi,
pudiese contener muchos miles de pixeles de ancho y de alto, lo que
significaría que en realidad sería mucho más grande que la imagen con
una resolución mayor.

En conclusión, el tamaño real de una imagen siempre será relativo tanto


a su resolución, como al tamaño en pixeles que tenga.

Es importante mencionar que la resolución estándar en los monitores de


computadora es de 72 dpi. Esto significa que la variación en la
resolución de las imágenes influirá en el tamaño relativo de las mismas
dentro de la pantalla, ya que al ser fija la resolución del monitor, la
imagen ocupará un espacio menor o mayor en la superficie de la
pantalla según la cantidad total de pixeles que contenga. Es por ello que
todas las imágenes que son elaboradas para ser visualizadas a escala
real en un monitor (incluyendo video y animación), deben
invariablemente tener una resolución de 72 dpi, independientemente del
tamaño en pixeles que posean.

Profundidad de color
Ahora sabemos que las imágenes digitales están compuestas por
colecciones de datos que almacenan información sobre su tamaño,
resolución, color, etc. A continuación, nos referiremos más ampliamente
a la manera en que la información sobre el color se almacena en dichas
imágenes.
Recordemos que un pixel, o el elemento más pequeño de la imagen, es
capaz de almacenar solamente un color a la vez, y es la combinación de
muchos pixeles lo que realmente forma la imagen completa, con toda la
gama de colores que la componen. Sin embargo, la información sobre el
color que contiene cada pixel puede ser variada, permitiendo en
distintos casos almacenar más o menos información del mismo. En la
práctica, esto nos permite contar con imágenes que son capaces de
mostrar una gama más o menos amplia de los colores del espectro, ya
sea por la riqueza y complejidad de las mismas (como en el caso de las
fotografías) o por la necesidad de utilizar colores muy precisos en su
representación (como en el caso de las imágenes utilizadas con fines
científicos o de investigación).

Aquí introduciremos otro concepto de uso común en el lenguaje


computacional, el “bit”. En forma resumida, un bit es la cantidad mínima
de información que puede ser procesada por una computadora, lo que
en otros términos se denomina “unidad binaria”. Es simplemente la
representación de dos posibles estados para un mismo dato, ya sea 1 o
0, vacío o lleno, blanco o negro, y es esta la unidad que se utiliza para
determinar la cantidad de información sobre color que puede almacenar
un pixel.

Bien, sabemos entonces que las imágenes o gráficos digitales son


capaces de adecuar la cantidad de información sobre color que guarda
cada pixel gracias a que dicha información se almacena en bits. A esta
característica se le conoce como “profundidad de color”.

Adicionalmente, diremos que un pixel puede almacenar a su vez varios


bits de información, lo que aumenta su capacidad para representar
colores más complejos, en otras palabras, para generar imágenes con
colores más ricos y variados.

Para el uso y manejo práctico de la profundidad de color, se


desarrollaron los llamados “modos de color”. Los modos de color
existentes son convenciones técnicas sobre la cantidad determinada de
bits que puede almacenar un pixel dentro de nuestra imagen. Aunque
para usos profesionales (sobre todo en las artes gráficas) existen
algunos más, para el propósito de este curso solo abordaremos los 5
principales modos de color:

• Modo Bitmap o monocromático (monocromático de 1 bit)

• Modo Escala de Grises (monocromático de 8 bits)

• Modo Color Indexado (color de 8 bits)

• Modo Color RGB (color de 24 bits)

• Modo Color CMYK (color de 32 bits)


Modo Bitmap

Este modo de color utiliza una profundidad de color de 1 bit para


almacenar la información sobre color que posee cada pixel. Esto
significa que un pixel sólo puede tener dos posibles colores, blanco o
negro (recordemos que 1 bit representa solamente 2 posibles estados
de un dato). Imaginemos un pixel blanco o negro: sólo harían falta dos
posiciones para indicar si está encendido (1) o apagado (0), es decir 1
bit. Por tanto, las imágenes hechas con este modo de color serán
siempre imágenes de alto contraste en blanco y negro.

Modo Escala de Grises

Este modo asigna una profundidad de color de 8 bits por pixel, pero
maneja un solo color (el negro) para componer la imagen. Esto se
traduce en la posibilidad de utilizar una paleta monocromática de 256
tonos de gris, representando el 0 el color blanco absoluto y el 255 el
negro absoluto. Lás imágenes elaboradas en este modo por tanto serán
siempre monocromáticas, pero con la posibilidad de representar la
escala completa de grises, como las fotografías en blanco y negro.

Modo de color Indexado

El color indexado es un modo que utiliza una profundidad de color de 8


bits por pixel para los tres canales RGB, dando como resultado la
posibilidad de utilizar una paleta de hasta 256 colores. En este modo, la
gama de colores de la imagen se adecúa a una paleta con un número
restringido de ellos, lo que en la práctica se traduce en imágenes con
una apariencia “pixelada” o de mosaico, al no poderse representar toda
la gama que compone una imagen compleja.

Modo de color RGB

Este modo, también llamado “True color” (color verdadero) utiliza una
profundidad de color de 24 bits por pixel, asignando 8 bits a cada canal
de color RGB. Este modo de color es el más utilizado hoy en día en los
gráficos generados por computadora, gracias a que brinda la posibilidad
de contar con una paleta muy amplia de colores (aproximadamente 16.7
millones) que abarcan prácticamente todo el espectro humanamente
visible y es adecuado para la representación de imágenes complejas
como fotografías, video, y todas aquéllas que requieran gamas de
colores muy extensas. Debido a que este modo de color utiliza la
síntesis aditiva, es el modo de color ideal para su representación en
dispositivos digitales como monitores, etc.

Modo de color CMYK

Este modo de color es muy utilizado en las artes gráficas ya que sirve
para representar los espacios de color usados en la impresión. Al igual
que en el modo RGB se asignan 8 bits para cada canal de color, pero con
la diferencia de que se agrega un canal adicional para representar el
color negro (de ahí que tenga una profundidad de color de 32 bits por
píxel).

Aunque el modo CMYK aumenta de forma exponencial la cantidad de


colores que se pueden asignar a una imagen, esta ventaja sólo será
evidente al imprimir nuestra imagen en un sistema basado en colores
pigmento. Recordemos que todos los dispositivos digitales utilizan los
colores primarios luz, o sea la síntesis aditiva, para representar
imágenes. Por lo tanto, en la computadora, el modo CMYK siempre será
simulado (es decir, representado como una aproximación) por el
software, ya que para los dispositivos actuales (monitores, escáners,
etc.) es físicamente imposible reproducir la síntesis sustractiva de los
colores pigmento.

Ya sabemos entonces que cuanto mayor sea la profundidad de bit en


una imagen, mayor será la cantidad de tonos (escala de grises o color)
que puedan ser representados, más colores habrá disponibles y más
exacta será la representación del color en la imagen digital. También
aprendimos que las imágenes digitales se pueden producir en blanco y
negro, a escala de grises o a color. A continuación, se muestra una tabla
comparativa con las distintas profundidades de color y los modos
asociados a ellas:

Profundidad de No. de colores Modo de color


color posibles
1 bit por pixel 2 Bitmap

8 bits por pixel 256 Modo Escala de Grises

8 bits por pixel 256 Modo Color Indexado

24 bits por pixel 16.777.216 Modo RGB

32 bits por pixel 4.294.967.296 Modo CMYK

La importancia de la progresión en la profundidad de color reside en


que, al aumentar el número de colores posibles en la imagen estamos
incrementando inevitablemente el numero de bits y consecuentemente
el espacio necesario para almacenarla, ya que aumenta la cantidad de
información asignada a cada píxel.

Tipos de formato

Como ya dijimos previamente, una imagen o gráfico digital no es más


que una colección de datos. Estos datos, para su correcta manipulación
y almacenamiento, deben tener una forma definida y concreta. En los
sistemas computacionales, para este propósito se inventaron los
sistemas de archivos. Un sistema de archivos, es una gran librería
existente en el disco duro de nuestra computadora. Almacena datos
(llamados archivos) organizados en carpetas (llamadas directorios).
Estos archivos también reciben la denominación de “digitales” pues su
contenido es exclusivamente una larga cadena de unos y ceros, o sea de
datos binarios. De esta manera, los archivos digitales son creados
cuando un programa desea almacenar en el sistema de archivos un
conjunto de datos específico.

Además de los datos en sí, cada archivo posee un conjunto de


características exclusivas de su tipo, y del mismo modo hay mecanismos
definidos para identificar a cada uno de ellos.

La estructura de todos los archivos digitales es la misma, un nombre que


lo distingue del resto seguido de un punto y una extensión de archivo.
La extensión de archivo sirve para el mismo propósito que el apellido en
el nombre de una persona; define su origen y nos ayuda a identificarlo
dentro de una categoría mayor, como si se tratase de una persona que
pertenece a una determinada familia.

Las imágenes digitales también son almacenadas en forma de archivos,


con un nombre y una extensión específica. Sin embargo, ya hemos visto
que existen varios tipos de imágenes digitales, con características de
color, tamaño, etc. distintas y muy específicas al uso que se les vaya a
dar. Para ayudarnos a definir de forma precisa estas características, con
el paso se han desarrollado los llamados “formatos” que no son otra
cosa que un conjunto de lineamientos que se adecuan a los distintos
usos que vayamos a dar a nuestras imágenes. Cada uno de estos
formatos posee una extensión de archivo específica, que nos permite
saber a qué tipo de imagen pertenecen los datos contenidos en nuestro
archivo. Aprender a utilizar el formato adecuado para nuestras
imágenes, nos permitirá manipularlas y almacenarlas de la forma más
conveniente y segura.

Aunque no existen categorías formales para los tipos de formato,


podríamos dividirlos en dos grandes grupos: los que soportan
compresión, y los que no la soportan. La compresión de datos es una
técnica que permite mantener la información de nuestra imagen de
manera “reducida”, es decir comprimida, cuando ésta se almacena en el
sistema de archivos. Una vez que dicha imagen es abierta en algún
programa de edición, la misma se regenera haciendo uso de técnicas de
“descompresión” que ponen nuevamente a nuestra disposición la
información completa de la imagen. Este mecanismo tiene una gran
ventaja, ya que nos permite utilizar solamente una fracción del espacio
que normalmente necesitaríamos para almacenar nuestra imagen, lo
cual a su vez nos permitirá almacenar un número mayor de archivos, o
nos facilitará la tarea de transferir la imagen a otros dispositivos o
incluso, de enviarla por correo electrónico.

Sin embargo, como veremos a continuación no todos los archivos que


soportan compresión lo hacen de manera “no-destructiva”, es decir, que
algunos formatos utilizan técnicas de compresión que efectivamente
eliminan de la imagen cierta cantidad de información que le permite ser
comprimida a una tasa mucho mayor, con la consecuencia de que al
abrir nuevamente la imagen, podremos apreciar una pérdida en la
calidad de la misma. Este tipo de compresión se denomina “con
pérdida” (en inglés, lossy), aunque hay algunos formatos que soportan
métodos distintos de compresión llamados “sin pérdida” (en inglés,
lossless). Éstos últimos son los formatos más adecuados para el trabajo
gráfico profesional, pues podremos manipular repetitivamente nuestra
imagen sin que ello por sí solo implique una disminución de la calidad en
la misma.
A continuación veremos algunos de los formatos más utilizados
comúnmente:

• BMP

• TIF

• JPEG

• PSD

BMP
BMP son las siglas en inglés de “Bit Map”, pero no confundir con el modo
de color bitmap. Su nombre hace referencia a que las imágenes
almacenadas en este formato serán tratadas como simples mapas de
bits, sin otra información que el tamaño y profundidad de color. Este
formato fue desarrollado originalmente por la empresa Microsoft, sin
embargo se utiliza muy poco en la producción gráfica y audiovisual
debido a las limitaciones del mismo (no soporta ningún tipo de
compresión por lo que los archivos guardados en este formato suelen
ser muy grandes, y sólo soporta el modo de color RGB). No es
recomendado utilizarlo salvo cuando sea indispensable, aunque esto
será en casos muy excepcionales. Los archivos guardados en este
formato tienen la extensión .bmp

GIF
GIF (Compuserve GIF) es un formato gráfico utilizado ampliamente en la
World Wide Web, tanto para imágenes como para animaciones. Este
formato fue creado por CompuServe en 1987, y llegó a ser muy popular
porque podía usar el algoritmo de compresión LZW (Lempel Ziv Welch)
para realizar la compresión de la imagen, que era más eficiente que el
algoritmo Run-Lenght Encoding (RLE) usado por otros formatos. Por lo
tanto, imágenes de gran tamaño podían ser descargadas en un
razonable periodo de tiempo, incluso con módems muy lentos.

Actualmente este formato se sigue utilizando casi exclusivamente para


gráficos digitales dirigidos a Internet, ya que tiene limitaciones muy
importantes que no lo hacen apto para otro uso: el único modo de color
que soporta es color indexado, por lo que sólo permite paletas de 256
colores. Los archivos en este formato serán guardados con la
extensión .gif
JPEG
"JPEG" significa "Joint Photographic Experts Group" y en realidad, JPEG
no es un formato sino un método comúnmente utilizado para la
compresión de imágenes fotográficas. El grado de reducción se puede
ajustar, lo que permite seleccionar el compromiso que existe entre el
tamaño de almacenamiento y la calidad de la imagen. Normalmente
alcanza una compresión de 10 a 1 con pocas pérdidas perceptibles en la
calidad de la imagen.

Sin embargo, a menudo es considerado como un formato de archivo.


JPEG/Exif es el formato de imagen más común utilizado por las cámaras
fotográficas digitales y otros dispositivos de captura de imagen, junto
con JPEG/JFIF, que también es otro formato para el almacenamiento y la
transmisión de imágenes fotográficas en la World Wide Web. JPEG/JFIF es
el formato más utilizado para almacenar y transmitir archivos de fotos
en Internet. Estas variaciones de formatos a menudo no se distinguen, y
se llaman JPEG. Este formato soporta los siguientes modos de color:
escala de grises, RGB y CMYK.

Cuando se utiliza con poca compresión, es un formato adecuado para el


manejo de imágenes muy grandes, que de otra manera ocuparían un
espacio muy grande en el sistema de archivos y complicarían su
manipulación y traslado. Sin embargo, la compresión JPEG
invariablemente es lossy, por lo que será inevitable la pérdida de al
menos una porción de la información una vez que nuestra imagen haya
sido almacenada. A favor podemos decir que es una compresión muy
eficiente, y utilizada con mesura la pérdida de calidad es muy poca y en
ocasiones imperceptible.

Las imágenes guardadas en este formato usan indistintamente la


extensión .jpg ó .jpeg

TIFF
Es la denominación en inglés de "Tagged Image File Format" (formato de
archivo de imágenes con etiquetas) y se debe a que los ficheros TIFF
contienen, además de los datos de la imagen propiamente dicha,
"etiquetas" en las que se archiva información sobre las características
de la imagen, que sirve para su tratamiento posterior. Este formato es
muy útil para almacenar imágenes grandes de alta calidad, ya que
soporta varios modos de color de forma nativa: bitmap, escala de grises,
RGB y CMYK. Adicionalmente, este formato soporta una gran variedad
de métodos de compresión, tanto lossy como lossless, por lo que
podremos manipular nuestros archivos más fácilmente sin el riesgo de
perder calidad con cada modificación. Los archivos con este formato,
serán guardados con la extensión .tif

PSD
PSD significa “Photoshop Document” y es un formato propietario (es
decir, restringido) utilizado por uno de los programas de edición de
imágenes más populares en el ámbito profesional, Adobe Photoshop.
Esto significa que hay muy pocos programas que pueden guardar
archivos en este formato, aunque en el mercado hay varios que pueden
leerlo. Sus características principales, además de ofrecer una
compatibilidad completa con las características exclusivas de
Photoshop, son que permite guardar archivos en casi cualquier modo de
color existente y utiliza su propia compresión lossless. Si trabajamos con
Photoshop, sobra decir que lo adecuado será mantener una copia de
nuestras imágenes en este formato ya que así garantizamos contar con
la fuente original en caso de necesitar hacer modificaciones, y a su vez
exportar copias de ésta a otros formatos de imagen cuando así se
requiera.

Вам также может понравиться