Вы находитесь на странице: 1из 19

Fundamentos y Aplicaciones de la

Visión por Computador

Prof. Carlos Cerrada Somolinos

Alumno: Juan Antonio Pérez-Campanero Atanasio


Fundamentos y aplicaciones de la Visión por Computador 

Contenido 
 

1.  Cuestionario ................................................................................................................................... 2 
2.  Respuestas al cuestionario ........................................................................................................... 10 
3.  Respuestas razonadas. ................................................................................................................. 11 
3.1.  Capítulo 1: Introducción ........................................................................................................... 11 
3.2.  Capítulo 2: Elementos de un sistema de visión por computador ............................................ 11 
3.3.  Capítulo 3: Imágenes digitales .................................................................................................. 12 
3.4.  Capítulo 4: Transformaciones matemáticas ............................................................................. 12 
3.5.  Capítulo 5: Preprocesamiento de imágenes ............................................................................ 12 
3.6.  Capítulo 6: Extracción de características .................................................................................. 14 
3.7.  Capítulo 7: Segmentación de imágenes ................................................................................... 15 
3.8.  Capítulo 8: Transformaciones morfológicas y descripción de objetos .................................... 16 
3.9.  Capítulo 9: Reconocimiento de objetos ................................................................................... 17 
 

   

 
Fundamentos y aplicaciones de la Visión por Computador 

1. Cuestionario 
1. El desarrollo de una aplicación basada en la visión por computador la podemos dividir
en las siguientes fases:
a. Dos fases: Detección de texturas y detección de formas
b. Dos fases: Obtención de las características de la imagen y análisis de formas,
reconocimiento y localización de objetos
c. Tres fases: reconocimiento de bordes, análisis de formas y localización de
objetos
d. Cuatro fases: adquisición de la imagen, extracción de características,
segmentación y descripción de objetos

2. Si se desea aumentar la profundidad de campo en una lente se puede conseguir de las


siguientes formas:
a. Cerrando el diafragma
b. Disminuyendo la distancia focal
c. Alejándose del objeto
d. Cualquiera de las tres anteriores aumenta la profundidad de campo

3. El modelo de lente fina:


a. Se caracteriza en que todos los rayos paralelos al eje óptico convergen en el
foco
b. Es el modelo más simple de lente, permitiendo únicamente modelar la
distancia focal
c. No permite modelar ni la distancia focal ni la distancia de enfoque
d. También se conoce con el nombre de modelo “pin-hole”

4. Seidel clasificó las aberraciones geométricas en Esféricas, Coma, Astigmatismo,


Curvatura de campo y distorsión. Para alcanzar esta clasificación Seidel:
a. Probó con diferentes números F y fue obteniendo diversos resultados que
clasificó según el enunciado de la pregunta
b. Se basó en los índices de refracción de los medios de refracción e incidente y
en el ángulo de incidencia y refracción considerando los ángulos muy
pequeños llegando al modelo paraxial
c. Se basó en los índices de refracción de los medios de refracción e incidente y
en el ángulo de incidencia y refracción y aproximó la serie de Taylor hasta la
tercera potencia del ángulo.
d. Hizo un conjunto de pruebas con diversas distancias focales y los resultados lo
agrupó en las cinco aberraciones antes enunciadas

 
Fundamentos y aplicaciones de la Visión por Computador 

5. El factor gamma de los dispositivos CCD es:


a. La iluminación mínima para que la cámara produzca una salida
b. Un indicador de la bondad del proceso de digitalización
c. La expresión de la ganancia de la cámara frente a la longitud de onda de la luz
que incide sobre la CCD
d. La relación entre la señal de entrada y la de salida, indicando la no linealidad
del sistema

6. Supongamos que tenemos la siguiente configuración de pixeles en una imagen

1 0 -1
0 1 1
1 1 0

Si deseamos analizar si el pixel central y el inferior izquierda están conectados


deberíamos utilizar:
a. Conectividad 4
b. Conectividad 8
c. No están conectados
d. Tanto conectividad 4 como conectividad 8.

7. Como sabemos, un espacio de color es un método por el que se puede especificar,


crear o visualizar cualquier color. Si estudiamos el espacio RGB y el espacio HSI
encontramos que están relacionados entre sí de la siguiente forma:
a. Ambos espacios se basan en la forma que tenemos los humanos de percibir los
colores
b. No están relacionadas de ninguna manera, son espacios que, por su propia
definición, no son compatibles entre sí.
c. Su relación está en determinadas transformaciones matemáticas que permiten
relacionar el tono, saturación y brillo con los tres colores rojo, verde y azul.
d. Por la forma de representación de los espacios, que en ambos casos es un cubo
cuyos vértices son los distintos colores

 
Fundamentos y aplicaciones de la Visión por Computador 

8. Al aplicar la siguiente máscara sobre una imagen ¿Qué efecto se produce?

-1 -1 -1
1/9 -1 9 -1
-1 -1 -1

a. Sólo se obtienen los bordes horizontales y verticales, pero no los oblicuos


b. Se ecualiza el histograma de la imagen al multiplicar por 1/9 que comprime los
distintos niveles de gris.
c. Se reduce el ruido ya que al convolucionar con valores negativos se hace
desaparecer precisamente los valores más altos que indican ruido en la imagen.
d. Se realza toda la imagen, resaltando los bordes ya sean verticales, horizontales
u oblicuos.

9. Aplicar la máscara anterior es aplicar la siguiente transformada matemática:


a. Correlación
b. Convolución
c. Transformada de Fourier
d. Interpolación

 
Fundamentos y aplicaciones de la Visión por Computador 

10. Supongamos que tenemos una figura de 3x3 con la siguiente configuración de pixeles:

Y que deseamos transformarla en una imagen de 6x6 utilizando un algoritmo de


interpolación, para obtener una de las dos soluciones que se muestran:

a. Las dos soluciones se pueden obtener por medio de la interpolación bilineal, ya


que se han suavizado los tonos de gris, y la mayor o menor intensidad depende
de los factores de corrección que se utilicen
b. Las dos soluciones se pueden obtener por medio de la interpolación bicúbica,
ya que se han suavizado los tonos de gris, y la mayor o menor intensidad
depende de los factores de corrección que se utilicen
c. En ningún caso se puede haber utilizado la interpolación bicúbica ya que esta
mantiene perfectamente los tonos de gris de la figura original, obteniendo una
imagen idéntica a la original pero más grande
d. Si se han utilizado las interpolaciones bilineal y bicúbica, la de la izquierda
debe haberse obtenido con la bicúbica ya que ha compensado el suavizado a
base de conservar en lo posible el contraste, mientras que la de la derecha se
habría obtenido con la bilineal porque se ha mantenido la tonalidad media.

11. Supongamos que tratamos de obtener el negativo de una imagen en blanco y negro. Lo
podríamos conseguir manipulando el contraste, y en concreto con la siguiente función:
a. Inversa
b. Cuadrada
c. Cúbica
d. Logarítmica

12. La ecualización del histograma de una imagen:


a. Segmenta la imagen en dos regiones
b. Permite detectar todos los bordes de la imagen
c. Disminuye el contraste de los objetos en la escena
d. Homogeniza la distribución de niveles de intensidad

 
Fundamentos y aplicaciones de la Visión por Computador 

13. Para reducir el ruido de una imagen se ha decidido utilizar un filtro paso bajo con la
siguiente configuración:
1 2 1
2 4 2
1 2 1

Al aplicar este filtro a la primera fila una imagen cuyas primeras filas son las
siguientes

0 2 5 10 10 8 6 6 6
0 1 4 8 10 8 6 4 4
0 0 5 8 8 7 6 4 5

Obtendremos una primera fila:


a.
0 1 2.3 3 4.5 4 3 2.2 2
b.
0.5 2 5 8.3 9.3 8 6.3 5.5 5.3
c.
0 1.5 3 8.5 8 7.7 6 6 5.5
d.
0.5 2 6 9.8 10 7 6.5 6 5

14. Respecto a los filtros de Butterworth podemos afirmar


a. Son filtros que se aplican en el dominio de la frecuencia
b. Para la frecuencia unidad todos los filtros toman el valor 0,707(1/√2)
c. La respuesta es bastante plana para las distintas frecuencias de filtrado y su
caída es lenta
d. Todas las respuestas anteriores son válidas

15. Para la detección de bordes basada en el gradiente se emplean diversos operadores.


Uno de ellos es el que se indica a continuación. ¿Cuál es?:

-1 0 1 -1 -2 -1
-2 0 2 0 0 0
-1 0 1 1 2 1
a. Roberts
b. Prewitt
c. Sobel
d. Frei-Chen

 
Fundamentos y aplicaciones de la Visión por Computador 

16. Las técnicas basadas en el gradiente se emplean en:


a. La detección de bordes
b. En la segmentación de objetos
c. En ambas de las dos anteriores
d. En ninguna de las dos primeras

17. El detector de Canny:


a. Permite determinar si un punto pertenece a una esquina
b. Utiliza funciones gausianas para detectar los bordes de una imagen
c. Es un método de crecimiento de regiones para segmentar la imagen
d. Se basa en la primera derivada y permite extraer los bordes de una imagen
cerrando los contornos.

18. Para la detección de movimiento el algoritmo más usado es el que se basa en la


diferencia de imágenes, pero uno de los problemas que presenta es el siguiente:
a. No es inmune a los cambios de iluminación
b. La parte del fondo tapado por el objeto en la primera imagen aparece en la
segunda, y a su vez en la segunda tapa parte del fondo antes visible, con lo que
puede detectar movimiento inexistente
c. Es complejo y requiere una gran potencia computacional
d. La imagen resultado no consigue indicar en qué zonas hay movimiento.

19. La transformada de Hough es:


a. Un filtro morfológico
b. Un detector de bordes basado en un filtro de frecuencia
c. Un método de segmentación basado en la detección de bordes
d. Un descriptor de forma y realce de la imagen

20. Al realizar la umbralización para etiquetar los píxeles de borde:


a. Si se selecciona un umbral muy exigente (valor alto) pueden generarse pérdida
de conectividad
b. Si se selecciona un umbral poco exigente (valor bajo) pueden producirse
pérdidas de conectividad
c. Normalmente se producen bordes múltiples sea cual sea el nivel de
umbralización.
d. La presencia de ruido no puede introducir falsos bordes sea cual sea el nivel de
umbralización

 
Fundamentos y aplicaciones de la Visión por Computador 

21. El crecimiento de regiones es una técnica de segmentación de regiones que consiste


en:
a. Un complemento a la umbralización para asignar a cada objeto un nivel de gris
distinto
b. Elegir a una serie de píxeles iniciales, denominados puntos semilla, a los que
se les irán añadiendo píxeles de iguales propiedades
c. La estructura quadtree que permite representar objetos con varias resoluciones
d. Convertir una imagen con varios niveles de gris a una nueva con solo dos, de
manera que los objetos queden separados del fondo

22. Por ejemplo en la imagen siguiente se han elegido tres puntos semillas con niveles de
gris uno, cinco y nueve.
2 0 7 6 6
0 1 6 7 7
1 1 5 8 7
0 6 7 0 5
2 9 8 2 3
4 7 8 1 6

Si la diferencia entre dos píxeles se toma menor o igual a dos se obtienen las
siguientes regiones:
a. Puede aplicarse aunque la imagen cambie en el tiempo
B B B B B
B B B B B
B B B B B
A A A A A
A A A A A
A A A A A
b.
A A B B B
A A B B B
A A B B B
D D B B B
D D C C C
D D C C C
c.
A A B B B
A A B B B
A A B B B
A A B B B
C C C C C
C C C C C
d.
A A B B C
A A B B C
A A B B C
A A B B C
A A B B C
A A B B C

 
Fundamentos y aplicaciones de la Visión por Computador 

23. En el caso de las transformaciones morfológicas de Apertura y Cierre, sus principales


diferencias son las siguientes:
a. La apertura se basa en la dilatación, mientras que el cierre lo hace en la erosión
b. La apertura suaviza los contornos y el cierre no
c. La apertura no rellena fisuras rompiendo enlaces, y el cierre si las rellena
d. El cierre se utiliza para eliminar pequeñas protusiones, pero no para rellenar
pequeños agujeros.

24. Para el reconocimiento de patrones se puede utilizar el clasificador bayesiano basado


en la fórmula de probabilidades de Bayes.
a. Se basa en la relación entre las prioridades a priori y a posteriori de que el
objeto analizado sea de una clase determinada
b. Igual que el anterior, pero teniendo en cuenta la relación entre el número de
objetos de cada clase que puedan existir
c. Con este algoritmo, si aparece un nuevo objeto diferente a los eesperados,
automáticamente crea una nueva clase de objeto y le asigna las probabilidades.
d. Ofrece la total seguridad de que un objeto pertenece a una categoría
determinada

25. Cuando no se conocen todos los objetos que se van clasificar se suele utilizar una
algoritmo de agrupamiento de datos. En las relaciones de algoritmos que se dan a
continuación, sólo hay una de ellas en que son todos de agrupamiento de datos:
a. Distancias encadenadas, max-min, k-medias e Isodata
b. Bayes, max-min y determinantes
c. Discriminantes, densidad normal, distancias encadenadas e Isodata
d. Minimo coste, Rayleigh, distancias encadenadas, k-medias y Hough.

 
Fundamentos y aplicaciones de la Visión por Computador 

2. Respuestas al cuestionario 
1. b) 

2. d) 

3. a) 

4. c) 

5. d) 

6. b) 

7. c) 

8. d) 

9. b) 

10. d) 

11. a) 

12. d) 

13. b) 

14. d) 

15. c) 

16. a) 

17. b) 

18. b) 

19. c) 

20. b) 

21. b) 

22. c) 

23. c) 

24. b) 

25. a) 

   

10 

 
Fundamentos y aplicaciones de la Visión por Computador 

3. Respuestas razonadas. 

3.1. Capítulo 1: Introducción 
1. El desarrollo de una aplicación basada en la visión por computador puede
dividirse en dos etapas:
a. En la primera el objetivo es procesar la imagen de tal manera que el
resultado sea el conjunto de las características que definen el problema a
resolver: diferentes zonas de color, presencia o no de objetos en
movimiento, texturas, forma de los objetos.
b. La segunda etapa utiliza las características obtenidas en la primera etapa
para obtener descripciones más abstractas: análisis de las formas,
reconocimiento y localización de objetos
Por lo tanto la respuesta es la b).

3.2. Capítulo 2: Elementos de un sistema de visión por 
computador 
2. Teóricamente al tomar con una cámara la imagen, sólo debería aparecer
enfocado el plano perpendicular al eje óptico, pero podemos ver en la realidad
que también aparece enfocado una cierta zona por delanta y otra por detrás del
objeto enfocado, por lo que si un objeto está fuera de foco por menos de un
cierto margen, el desenfoque es indetectable, y la imagen aparece nítida.
Para aumentar esta profundidad de campo lo podemos hacer aumentando el
número F, disminuyendo las distancias focales o aumentando la distancia al
objeto enfocado, según la fórmula d=∂ND2/(f2-∂ND).

Por lo tanto la respuesta correcta es la d) pues cualquiera de las respuestas es


correcta.

3. La lente fina es aquella en la que todo rayo que entra paralelo al eje óptico pasa
por el foco posterior de la lente y todo rayo que pasa por el foco anterior sale
de la lente paralelo al eje óptico, es decir, será la respuesta a)

4. Sabemos que la función seno se puede descomponer en una serie de Taylor, y


como la ley de la refracción que descubrió Willebrord Snell donde la relación
entre el ángulo de incidencia, y el de refracción es igual a la relación entre los
índices de refracción del medio refractor, y del incidente se basa en dicha
función seno, Seibel extendió la aproximación a la tercera potencia de la serie
de Taylor y encontró las cinco aberraciones, es decir, sería la respuesta c)

11 

 
Fundamentos y aplicaciones de la Visión por Computador 

5. En los dispositivo de entrada se busca que la relación entre la señal de entrada


y la de salida sea lineal. El factor gamma indica la no linealidad del sistema. La
respuesta correcta será la d)

3.3. Capítulo 3: Imágenes digitales 
6. Conectividad 8, es decir, la respuesta b)

7. Según lo visto en el capítulo:


a. El espacio RGB se basa en la combinación de tres señales de luminancia
cromática distinta: el rojo, el verde y el azul (Red, Green, Blue). Para
obtener un color bastaría con realizar la suma aritmética de las cantidades
de cada color.
b. El espacio de color HSI se basa en el modo de percibir los colores que
tenemos los humanos. Dicho sistema caracteriza el color en términos de
tono o tinte (Hue), saturación o cromatismo (Saturation) y brillo
(Intensity).
El paso de un espacio a otro se realiza por medio de transformaciones
matemáticas realizadas normalmente mediante hardware específico Por lo tanto
la respuesta sería la c)

3.4. Capítulo 4: Transformaciones matemáticas 
8. Al ir multiplicado por 1/9, este filtro al convolucionarlo con la imagen lo que
vamos a obtener es un realce de los bordes de toda la imagen, obteniendo un
resultado cuya apariencia es el realce de toda la imagen en general. Es decir, la
respuesta correcta sería la d)

9. Como se ha dicho en la respuesta de la pregunta anterior, para lograr realzar los


bordes, el filtro correspondiente se deberá aplicar por medio de una
convolución, luego la respuesta será la b)

10. Cuando se amplia o hace zoom de una imagen aumenta el número de pixeles
de la misma, por lo que habrá una cierta cantidad de ellos que no tendremos
información de tonalidad de grises de los mismos. Por ello habrá que calcular
qué valores habrá que darles para que la imagen no se deforme y se parezca lo
más posible a la original, pero más grande. Esto se logra por medio de la
interpolación que es necesaria porque, en el caso general para un píxel, no se
va a obtener de la imagen original un valor entero en la imagen destino. Esta
transformación no se realiza de la imagen inicial a la final, sino al revés; dado
un píxel de la imagen final se localizan los píxeles de la inicial, que se utilizan
para calcular el nuevo nivel de gris. La interpolación puede entenderse como

12 

 
Fundamentos y aplicaciones de la Visión por Computador 

una nueva digitalización de la imagen continua para obtener la discreta. Existen


diversos algoritmos de interpolación, pero vamos a centrarnos para esta
pregunta en la bilineal y en la bicúbica.
a. Interpolación bilineal: Se denomina así porque se supone que la variación
entre un píxel y el siguiente sigue un plano, siguiendo la expresión: f(x,
y) = ax + by + cxy + d, o dicho de otra forma, a cada pixel le asigna el
valor medio ponderado de los cuatro que le rodean, de manera que los
factores de ponderación vienen determinados por la distancia entre el
pixel y los del entorno. Los coeficientes a, b, c, d deben fijarse de
manera que los valores de la función coincidan con los cuatro píxeles
vecinos. Como resultado se mantiene la tonalidad media de manera que
los blancos tendrán un cierto nivel de gris, y los negros, tendrán también
un nivel de gris sin llegar a negro, produciéndose un desdibujado de los
objetos.
b. Interpolación bicúbica: Corrige los problemas del algoritmo anterior
tomando en consideración 16 puntos de la imagen. Calcula no sólo filas y
columnas adyacentes sino también diagonales. También compensa el
suavizado y el desenfoque a base de conservar más diferencias en las
zonas de contraste
Por lo tanto la respuesta sería la d) ya que la imagen de la izquierda tiene más
contraste que la de la derecha, cuyos tonos de gris están más suavizados..

3.5. Capítulo 5: Preprocesamiento de imágenes 
11. Para obtener el negativo de una imagen en blanco y negro, sería cambiar los
blancos por negro y en la misma proporción los grises. Para ello, la forma más
sencilla sería realizar una conversión del contraste por medio de la función
inversa p = 255 – m. Es decir, la respuesta serí a la a)

12. Si lo que se desea es modificar de forma global el contraste de una imagen, la


mejor manera es analizar y cambiar su histograma. La forma más usual de
manipulación es la ecualización del mismo, es decir, conseguir que sea
horizontal, o lo que es lo mismo, que para todos lo nivles de gris se tenga el
mismo número de pixeles. Es decir, la respuesta correcta sería la d).

13. Tras realizar los cálculos, obtenemos que la solución es la fila de la respuesta
b)

14. La respuesta correcta es la d) ya que son filtros para eliminar ruido que se
aplican en el dominio de la frecuencia, bajo la expresión A = 1/ 1 ,
por lo que para la frecuencia unidad el filtro tomaría el valor 1/√2, y tiene
como característica principal que su respuesta es bastante plana para las
distintas frecuencias de filtrado, por lo que son muy utilizados como filtros en
el dominio de la frecuencia.

13 

 
Fundamentos y aplicaciones de la Visión por Computador 

3.6. Capítulo 6: Extracción de características 
15. Este operador es el de Sobel, luego la respuesta correcta es la c)

16. El operador gradiente sobre una imagen se define como:


Vf(x,y) = [Gx Gy] = [ ]

Y representa la variación de intensidad máxima para el punto (x, y) que da


lugar a dos máscaras que tienen en cuenta sólo dos pixeles, por lo que no se
suele utilizar ya que hay otros operadores como Roberts, Prewitt o Sobel que lo
resuelven mucho mejor.
En cualquier todas estas técnicas se utilizan en la detección de bordes.
Respuesta a)

17. El detector de bordes de Canny es un operador basado en funciones gaussianas


al igual que Marr-Hildrth, y se obtiene a partir de la optimización de una serie
de condiciones:
• Error. Se deben detectar todos y sólo los bordes.
• Localización. La distancia entre el píxel señalado como borde y el
borde real debe de ser tan pequeña como se pueda.
• Respuesta. No debe identificar varios píxeles como bordes cuando
sólo exista uno.
Canny busca la optimización del producto de la relación señal ruido por la
localización concluyendo que el operador óptimo es la derivada de una
gausiana.
Por lo tanto la respuesta es la b) ya que sólo se emplea para detectar bordes en
una imagen.

18. El método de la diferencia de imágenes es el más sencillo de usar por lo que es


muy utilizado, a pesar de tener menos precisión que otros, pero el coste de
procesamiento es mucho menor y, por lo tanto, es más rápido, por lo que suele
ser suficiente para muchas aplicaciones.
Los pasos para detectar un movimiento son ,os siguientes:
• Determinar en qué zonas de la imagen existe algún objeto que esté
moviéndose.
• En la segunda etapa la atención sólo está en aquellas zonas donde se haya
detectado actividad y se extrae información que pueda ser usada para el
reconocimiento de objetos, análisis del movimiento, etc.

14 

 
Fundamentos y aplicaciones de la Visión por Computador 

• La última etapa tiene en cuenta el conocimiento previo del problema en


concreto. Así por ejemplo la información obtenida de un objeto pequeño
que se mueve lentamente cerca de la cámara de otro con igual forma pero
mayor que se mueve rápidamente pero lejos de ella es la misma.
Se aplica un valor de umbralización para minimizar la influencia del ruido en
las dos imágenes, y además evita detectar pequeños movimientos. Otro factor a
tener en cuenta es el ruido de las imágenes, que pueden dar lugar a detección
de movimientos inexistentes la haber ruido en una imagen que no aparecía en
la otra.
También deberá aplicarse un filtro ya que la influencia del ruido provoca
píxeles aislados que hay que eliminar.
Este método presenta la gran ventaja de su inmunidad a los cambios de
iluminación ya que el tiempo transcurrido entre la toma de las dos imágenes
suele ser muy pequeño. El gran inconveniente que presenta es que los cambios
detectados son de dos tipos: la parte del fondo tapado por el objeto en la
segunda imagen y la parte del fondo que estaba oculta en la primera imagen y
que aparece en la segunda, puede hacer que se detecte movimiento en objetos
que realmente no se han movido.
Luego la respuesta correcta es la b)

3.7. Capítulo 7: Segmentación de imágenes 
19. Los métodos utilizados en la segmentación de imágenes basado en la detección
de bordes pueden ser los basados en el gradiente, pero tienen en cuenta
solamente la información local del entorno de vecindad de cada píxel. La
transformada de Hough se basa en la información que suministra toda la
imagen. Esta transformada busca formas geométricas en toda la imagen
encontrando los parámetros de aquella que contenga a más puntos en ella.
Por lo tanto es un método de segmentación basado en la detección de bordes,
luego la respuesta correcta es la c).

20. Para la segmentación de regiones de una imagen se puede utilizar la


umbralización que consiste en convertir una imagen con varios niveles de gris
a una nueva con sólo dos, de manera que los objetos quedan separados del
fondo. La umbralización se basa en que los píxe-les de un determinado objeto
tienen el mismo nivel de gris. Como esto no será del todo cierto se buscan
intervalos de gris, cada uno de ellos pertenecientes a un objeto. Esta técnica
será útil si los objetos tienen una superficie parecida y el fondo es uniforme.
Por esto, la aplicación de la umbralización dependerá de cada caso concreto.
El problema está en encontrar los valores de gris a tomar como umbrales entre
objetos ya que debido al ruido y a que el objeto y el fondo no tienen un único
valor de gris sino un intervalo, se solapan en algunos valores.

15 

 
Fundamentos y aplicaciones de la Visión por Computador 

Normalmente si el umbral es muy alto se pueden producir bordes de anchura


múltiple, y el ruido también se podría considerar como borde, mientras que si
el umbral es muy bajo, normalmente se producirán pérdidas de conectividad,
por lo que la respuesta correcta es la b)

21. El crecimiento de regiones consiste en elegir a una serie de píxeles iniciales,


denominados puntos semilla; a los que se les irán añadiendo píxeles de iguales
propiedades. Para ello se examina si los píxeles contiguos tienen valores
parecidos para las características que tienen los puntos semilla. Si es así
pertenecen a la misma región y pasan a tener los mismos valores que los puntos
iniciales. Es decir si se cumple que la diferencia entre los niveles de gris, por
ejemplo, es menor que un valor prefijado pertenecerán al mismo objeto que ese
punto semilla.
Es un método más de segmentación de regiones, pero no complementario de la
umbralización, ni tampoco trata de convertir una imagen con varios niveles de
gris en una nueva con sólo dos para que los objetos queden separados del fondo
que sería la umbralización.
Por tanto la respuesta correcta es la b)

22. El crecimiento de regiones es un procedimiento que agrupa los píxeles o


subregiones de la imagen en regiones mayores basándose en un criterio
prefijado. Normalmente se empieza con unos puntos “semillas” para formar
una determinada región, añadiendo aquellos píxeles vecinos que cumplan la
propiedad especificada (por ejemplo, que estén en un rango de nivel de gris
determinado).
La propiedad considerada en el crecimiento de regiones debe tener en cuenta la
información sobre conectividad o adyacencia de la imagen.
El gran inconveniente del crecimiento de regiones es que puede dar diversos
resultados dependiendo de donde caigan las semillas y del umbral que se utilice
para determinar cuándo un píxel pertenece o no a una región
De acuerdo con estas premisas la solución que más se puede ajustar al
crecimiento de regiones en la pregunta es la c)

3.8. Capítulo 8: Transformaciones morfológicas y 
descripción de objetos 
1. La apertura es una combinación de erosiones y dilataciones en las que lo pri-
mero es una erosión y la última una dilatación, siempre con el mismo elemento
estructural. Se conoce como apertura porque al empezar por una erosión tiende
a romper las piezas en sus partes constitutivas; en cambio, el cierre primero
realiza la dilatación y después la erosión. Por ello, la apertura suaviza los

16 

 
Fundamentos y aplicaciones de la Visión por Computador 

contornos del objeto, rompe enlaces delgados, y elimina pequeñas protusiones,


mientras que el cierre también suaviza los contornos pero rellena fisuras,
pequeños agujeros.
Por ello, la respuesta es la c)

3.9. Capítulo 9: Reconocimiento de objetos 
2. El clasificador Bayesiano es un enfoque estadístico para el reconocimiento de
patrones. En el caso de poblaciones conocidas, se supone que los valores de las
características siguen unas distribuciones de probabilidad que son conocidas.
Para obtener estos valores se haría pasar una cierta cantidad de muestras por el
sistema, se obtendrían los valores numéricos de las características y por último
su media y desviación típica. Se tendrían así las probabilidades de la
característica. Pero si lo que se quiere es clasificar un objeto desconocido se
compararían los valores de las probabilidades a priori y se asignaría el nuevo
objeto a la clase que tuviera un valor más alto. La clasificación vendría dada
por el valor más alto de las probabilidades. Es decir que la probabilidad a
posteriori es igual a la probabilidad a priori.
También es importante y hay que tener en cuenta la relación entre el número de
objetos de cada clase que pueden existir; ya que no será lo mismo que sean 2
unidades que tres millones. Si no fuera posible realizar las mediciones
adecuadas para obtener este valor, podemos asignar todos los objetos a la clase
que haya en mayor cantidad.
Si multiplicamos las probabilidades a priori de que aparezca una pieza
determinada y de que para ese tipo la característica tenga ese valor llegamos a
la ecuación de Bayes.
De acuerdo con lo dicho anteriormente, la respuesta correcta sería la b) ya que
la fórmula de Bayes tiene en cuenta la relación entre las prioridades a priori y
posteriori y además la relación entre el número de objetos de cada clase que
puedan existir

3. Los métodos utilizados para el reconocimiento de imágenes se suelen basar en


el conocimiento de todos los posibles objetos en la imagen, pero ¿qué ocurre si
aparece un objeto que no tenemos censado, es decir, qué es desconocido? Una
posible solución es poner un límite. Así si se aplicase la distancia. euclidea se
podría limitar el máximo que se acepta y si el enfoque fuera estadístico la
mínima probabilidad aceptable. Otro enfoque es el agrupamiento de datos en el
que los objetos se agrupan por sí solos. Al algoritmo de agrupación se le
presentan los vectores de características de los objetos a clasificar y el
algoritmo de forma autónoma agrupa los objetos en clases. Lógicamente serán
usados cuando no hay un conocimiento a priori del número y tipo de clases
Los algoritmos de agrupamiento de datos son: Algoritmo de las distancias
encadenadas, algoritmo max-min, algoritmo K-medias, algoritmo ISODATA y
algoritmo Vector-Quantizacion. Luego la respuesta es la a)

17 

 
Fundamentos y aplicaciones de la Visión por Computador 

18 

Вам также может понравиться