Вы находитесь на странице: 1из 5

PROCESAMIENTO DIGITAL DE IMÁGENES

MARCO TEORICO
El procesamiento de imágenes tiene que ver con la adquisición, transmisión, procesamiento
y representación de las imágenes. Las técnicas de proceso de imágenes se utilizan para
mejorar la apariencia visual de las imágenes para un observador y para preparar
convenientemente el contenido fotográfico de cara a la percepción por parte de máquinas.
El proceso digital de imágenes se puede dividir en las siguientes áreas:

 Adquisición o captura que se ocupa de los diferentes caminos para la obtención de


imágenes; por ejemplo, utilizando cámaras digitales o digitalizando imágenes
analógicas (fotografías).
 Realce y mejora son las técnicas que se usan para mejorar la apariencia visual de
las imágenes o para recuperar o restaurar las imágenes degradadas.
 Segmentación que se ocupa de la división de las imágenes en regiones o áreas
significativas.
 Extracción de características que se ocupa de la detección y localización de
entidades geométricas simples y complejas. Desde entidades simples como líneas
y puntos hasta geometrías complejas como curvas y cuádricas.
Una imagen se define como una función de dos dimensiones f(x,y) donde x e y son las
coordenadas de un plano que contiene todos los puntos de la misma, y f(x,y) es la amplitud
en el punto (x,y) a la cual se le llama intensidad o nivel de gris de la imagen en ese punto.
En el caso de que tanto las coordenadas x e y como los valores de intensidad de la función
f sean discretos y finitos, se habla de una imagen digital. Una imagen digital está compuesta
de un número finito de elementos y cada uno tiene una localidad y un valor particular. A
estos elementos se les llama puntos elementales de la imagen o píxeles, siendo este último
el término comúnmente utilizado para denotar la unidad mínima de medida de una imagen
digital.
En la Figura 1 se muestra una representación de una imagen con 256 niveles de intensidad.
En ella, cada uno de los píxeles está representado por un número entero que es
interpretado como el nivel de intensidad luminosa en la escala de grises. Ampliando la
imagen en una zona cualquiera, se pueden apreciar estos valores, que se muestran en
forma de matriz en la misma figura, correspondiéndose cada elemento de la matriz Nij con
las coordenadas en el plano x=i, y=j
Figura N°1 Representación numérica de imagen

Uno de los parámetros de mayor importancia en una imagen digital es su resolución. La


resolución es la cantidad de píxeles que contiene una imagen. Se utiliza también para
clasificar casi todos los dispositivos relacionados con las imágenes digitales, ya sean
pantallas de ordenador o televisión, impresoras, escáneres, cámaras digitales, etc.
IMÁGENES DE COLOR
El fundamento para describir una imagen digital en color es el mismo que el expuesto
anteriormente, con la salvedad de que cada elemento o píxel es descrito y codificado de
otra forma, según el espacio de color que se esté utilizando. Así por ejemplo, para un
espacio de color RGB (generalmente el más usado para representar imágenes), se
representa cada píxel como un color creado a partir de ciertas cantidades de los colores
rojo, verde y azul . Esta representación se puede interpretar como una matriz de tres niveles
de intensidad, donde cada nivel corresponde a la intensidad de color de las componentes
rojo, verde y azul, como se muestra en la Figura 2.

Figura N°2 Representacion matricial de imagen RGB


RESULTADOS
Para este laboratorio se hará uso de la siguiente imagen:

1. Acercamiento:
A = imread('D:\cosas importantes\UNI\6to ciclo\Sensores\IMG.jpg');
figure(1)
imshow(A)
[x,y,z] = size(A);
fc = 3;
rex = round(x/fc);
rey = round(y/fc);
rez = z;
Xc = round(x/2); Yc = round(y/2);
An = A(round(Xc-rex/2):round(Xc+rex/2),round(Yc-rey/2):round(Yc+rey/2),:);
figure(2)
imshow(An)
F = griddedInterpolant(double(An));
[sx,sy,sz] = size(An);
xq = (0:1/3:sx)';
yq = (0:1/3:sy)';
zq = (1:sz)';
vq = uint8(F({xq,yq,zq}));
figure(3)
imshow(vq)
2. Rotación 2d:
f=vq;
g=imrotate(f,45);
A=g;
figure
imshow(A)

3. Rotacion 3d:
y1=round(size(A,1)/2);
y2=size(A,1)-y1;
A1=A(1:y1,:,:);
A2=A(y2:194,:,:);
theta=0;
tm=[cosd(theta) -sind(theta) 0.001;sind(theta) cosd(theta) 0.000000001;0 0 1];
tform=projective2d(tm);
A2r = imwarp(A2,tform);
Ai=imrotate(A1,90);
Ai=fliplr(Ai);
Ai=imrotate(Ai,-90);
theta=0;
tm=[cosd(theta) -sind(theta) 0.001;sind(theta) cosd(theta) 0.000000001;0 0 1];
tform=projective2d(tm);
Air = imwarp(Ai,tform);
Ai=imrotate(Air,-90);
Ai=fliplr(Ai);
A1r=imrotate(Ai,90);
Tr1=size(A1r,1)-2;
Tr2=size(A2r,1);
A1r=A1r(1:Tr1,:,:);
A2r=A2r(2:Tr2,:,:);
Ar1=[A1r(:,:,1);A2r(:,:,1)];
Ar2=[A1r(:,:,2);A2r(:,:,2)];
Ar3=[A1r(:,:,3);A2r(:,:,3)];
Ar(:,:,1)=Ar1;
Ar(:,:,2)=Ar2;
Ar(:,:,3)=Ar3;
figure
imshow(Ar)

Para apreciar mejor la rotación en 3d se usara la imagen original, el resultado es:

CONCLUSIONES:

 Se observa distorsión en las imágenes después de cada operación.


 Existe perdida de información en cada operación.

Вам также может понравиться