El Uso Del Movimiento En La Segmentación

El Uso Del Movimiento En La Segmentación Procesamiento de Imágenes Digitales 5º de Ingeniería Informática. Álvarez-Ossorio Torres, Pedro L. Castro Dí

5 downloads 63 Views 1MB Size

Recommend Stories


EL ESTUDIO DEL MOVIMIENTO
PLANIFICACI~NDE UNA UNIDAD DIDÁCTICA: EL ESTUDIO DEL MOVIMIENTO GARCÍA ARQUES, J.J., PRO BUENO, A. y SAURA LLAMAS, O. Departamento de Didáctica de Cie

EL MOVIMIENTO DEL DISCIPULADO Y LA SUMISIÓN
EL MOVIMIENTO DEL DISCIPULADO Y LA SUMISIÓN Declaración oficial sobre el movimiento del discipulado y la sumisión fue adoptada el 17 de agosto del 197

La paradoja del movimiento
EIRCiencia y cultura El MJL y la ciencia La paradoja del movimiento por Rachel Brown Como joven que ha seguido la corriente de la educacio´n pu´blic

Story Transcript

El Uso Del Movimiento En La Segmentación

Procesamiento de Imágenes Digitales 5º de Ingeniería Informática. Álvarez-Ossorio Torres, Pedro L. Castro Díaz, Juan de Dios. Pérez Fernández, Víctor M.

Índice Índice de Ilustraciones ........................................................................ 3 1.- Introducción ................................................................................... 5 2.- Métodos .......................................................................................... 6 2.1.- Técnicas espaciales .......................................................................... 6 2.1.1.- Método básico............................................................................ 6 2.1.2.- Diferencias acumulativas............................................................. 8 2.1.3.- Establecimiento de una imagen de referencia ............................. 10 2.2.- Técnicas en el dominio de la frecuencia ........................................... 11 3.- Arquitecturas para procesamiento por segmentación .................. 14 4.- Conclusiones................................................................................. 15 5.- Acerca de la aplicación ................................................................. 16 6.- Manual de Usuario ........................................................................ 17 6.2.- Restricciones de uso....................................................................... 22 6.3.- Requisitos mínimos de hardware ..................................................... 23 7.- Referencias ................................................................................... 24

Índice de Ilustraciones Figura 1: Método Básico....................................................................... 7 Figura 2: Diferencias Acumulativas...................................................... 9 Figura 3: Arquitectura para la determinación de movimiento en secuencias de imágenes por el método de gradientes espaciotemporales. ........................................................................................ 14 Figura 4: Ventana principal ................................................................ 17 Figura 5: Aviso ................................................................................... 18 Figura 6: Diálogo Abrir ....................................................................... 18 Figura 7: Longitud de la Secuencia .................................................... 18 Figura 8: Imagen 1............................................................................. 19 Figura 9: Imagen de Referencia Manual ............................................ 20 Figura 10: Selección del Umbral ........................................................ 20 Figura 11: Imagen Diferencia ............................................................ 21 Figura 12: Diferencias Acumulativas.................................................. 22

1.- Introducción El movimiento es una poderosa herramienta utilizada por los seres humanos y los animales para extraer objetos de interés de un fondo de detalles irrelevantes. En las aplicaciones de imágenes, el movimiento se deriva de un desplazamiento relativo entre el sistema de sensores y la escena que se esta presentando. El desarrollo de métodos eficientes para calcular el movimiento y la estructura a partir de secuencias de imágenes es una de las áreas de mayor investigación en el campo de la visión artificial. La estimación del movimiento en imágenes tiene una amplia gama de aplicaciones, que pueden ser clasificadas dentro de tres grandes grupos: •

Recuperación de la estructura a partir de secuencias de imágenes (Estructura obtenida del movimiento, SFM), como son la detección de obstáculos para robots de navegación autónoma, la modelización del entorno, la adquisición automática de modelos para diseño asistido por computador (CAD), etc.



Compresión y reconstrucción de secuencias de imágenes, como son los casos de codificación y decodificación MPEG, y la reconstrucción de imágenes afectadas por ruido.



Seguimiento y caracterización dinámica de objetos en movimiento para casos como la determinación de parámetros de tráfico de automóviles, sistemas de seguridad por visión artificial y previsión meteorológica. La recuperación del campo de movimiento parece ser la tarea esencial de cualquier sistema de visión artificial que extraiga información a partir de una secuencia de imágenes. Sin embargo, el único dato disponible es la variación espacial y temporal del patrón de brillo de la imagen. De ellas es posible obtener una aproximación del campo de movimiento denominado flujo óptico. El campo de movimiento y el flujo óptico son iguales sólo en el caso de que las variaciones espaciales del patrón de brillo correspondan a características estructurales de las superficies. La segmentación de las imágenes consiste en identificar una serie de características locales(objetos, bloques, líneas, etc.) en una imagen, tratar de obtener las correspondencias con la otra imagen y, por último, determinar los movimientos. Tiene el inconveniente de que su complejidad crece con el número de particularidades con el que cuenta la imagen. En la actualidad se comienza a utilizar un método híbrido que utiliza el método de los gradientes para la extracción de contornos y luego se determinan los movimientos de tales contornos con técnicas propias de algoritmos de segmentación. La determinación del movimiento por segmentación o características locales tiene mayor interés en aplicaciones donde se quiere conocer el movimiento global de

objetos contenidos en las imágenes, tales como seguimiento de objetos, la determinación de la estructura tridimensional del entorno, etc. Los métodos para la determinación del movimiento por segmentación separan la imagen en partes y luego calculan el movimiento de cada una de estas partes entre las diferentes imágenes de la secuencia.

2.- Métodos En las siguientes secciones se considera el empleo del movimiento en la segmentación tanto en términos del dominio espacial como en el de la frecuencia.

2.1.- Técnicas espaciales 2.1.1.- Método básico Uno de los métodos más sencillos para detectar cambios entre dos fotogramas f(x,y,ti) y f(x,y,tj), tomados en los instantes ti y tj respectivamente, es comparar las dos imágenes píxel a píxel. Un procedimiento para hacerlo es formar una imagen diferencia. Supóngase que se tiene una imagen de referencia que contiene solamente componentes estacionarios. Al comparar esta imagen con una imagen subsiguiente que tenga el mismo entorno, pero que incluya objetos en movimiento, se obtiene la diferencia de las dos imágenes, que elimina los componentes estacionarios, dejando solamente las entradas distintas de cero, que corresponden a los componentes no estacionarios de la imagen. Una imagen diferencia de otras dos tomadas en los tiempos ti y tj se puede definir como:

(1)

1 si f(x,y,ti) − f(x,y,tj) > θ d ij ( x, y ) =  0 otro caso

donde θ es un umbral. Obsérvese que dij(x,y) tiene un 1 como coordenadas espaciales (x,y) solamente si la diferencia de nivel de gris de dos imágenes es apreciablemente diferente de estas coordenadas, según el valor determinado por el umbral θ. En el análisis dinámico de imágenes, todos los píxel de dij(x,y) con valor 1 se consideran como el resultado del movimiento del objeto. Esta aproximación es aplicable solamente si las dos imágenes están grabadas y la iluminación es relativamente constante entre los limites establecidos por θ.

En la practica, las entradas de dij(x,y) de valor 1 aparecen a menudo a causa del ruido. Normalmente, estas entradas son puntos aislados de la imagen diferencia, y un método sencillo para eliminaras consiste en formar regiones 4 u 8 conexas de valores 1 en dij(x,y) e ignorar después cualquier región que tenga menos de un numero predeterminado de entradas. Si bien de esto puede resultar que se ignoren los objetos pequeños y/o de movimiento lento, este método aumenta la probabilidad de que el resto de las entradas de la imagen diferencia sean realmente el resultado del movimiento. La figura siguiente ilustra estos conceptos. La figura 1.1(a) muestra un fotograma de la imagen de referencia tomado en el instante ti que contiene un objeto sencillo de intensidad constante que se está moviendo con velocidad uniforme sobre la superficie del fondo, también de intensidad constante. La figura 1.1(b) muestra un fotograma tomado en el instante tj , y la figura 1.1(c), la diferencia entre ambas imágenes. Obsérvese que el proceso de diferenciación genera dos regiones disjuntas: una es el resultado del borde anterior y la otra del borde posterior del objeto en movimiento.

000000111110000000 000001111111000000 000011111111100000 000111111111110000 000111111111110000 000011111111100000 000001111111000000 000000111110000000

000000001111100000 000000011111110000 000000111111111000 000001111111111100 000001111111111100 000000111111111000 000000011111110000 000000001111100000

000000110001100000 000001100000110000 000011000000011000 000110000000001100 000110000000001100 000011000000011000 000001100000110000 000000110001100000

(a)

(b)

(c)

Figura 1: Método Básico (a) Imagen tomada en el instante ti (b) Imagen tomada en el instante tj (c) Imagen diferencia.

2.1.2.- Diferencias acumulativas Como ya se ha indicado, una imagen diferencia contiene a menudo entradas aisladas que son producto del ruido. Aunque el número de estas entradas se puede reducir o eliminar completamente por un análisis de conectividad umbralizado, este proceso de filtrado puede también eliminar objetos pequeños o de movimiento lento. Nosotros resolveremos este problema considerando los cambios en la posición de un píxel sobre varios fotogramas, introduciendo así una “memoria” del proceso. La idea básica consiste en ignorar los cambios que se producen esporádicamente en una sucesión de fotogramas y que por ello pueden atribuirse a un ruido aleatorio. Considérese una sucesión de fotogramas de imagen f(x,y,t1), f(x,y,t2), ..., f(x,y,tn), y sea f(x,y,t1) la imagen de referencia. Para formar una imagen de diferencia acumulativa se compara la imagen referencia con cada una de las imágenes subsiguientes de la secuencia. Un contador de cada posición de píxel de la imagen acumulativa se incrementa cada vez que se produce una diferencia en dicha posición de píxel entre la referencia y una imagen de la secuencia. De este modo, cuando se esta comparando el fotograma k-ésimo con la referencia, la entrada de un píxel dado de la imagen acumulativa proporciona el número de veces que el nivel de gris de esa posición es diferente del valor correspondiente del píxel de la imagen de referencia. Las diferencias se establecen, por ejemplo, utilizando la ecuación (1). La figura 2 ilustra estos conceptos. Las figuras 2(a)-(e) muestran un objeto rectangular (representado por ceros) que se está moviendo desde la derecha con una velocidad constante de 1 píxel por fotograma. Las imágenes que se muestran representan instantes de tiempo correspondientes a desplazamientos de 1 píxel. La figura 2(a) muestra el fotograma de la imagen de referencia, las figuras 2(b)-(d) son los fotogramas 2, 3 y 4 de la secuencia, y la figura 2(e) es el undécimo fotograma. Las figuras 2(f)-(i) son las correspondientes imágenes acumulativas, que se pueden explicar de la siguiente forma. En la figura 2(f), la columna de unos de la izquierda es el resultado de la diferencia entre el objeto de la figura 2(a) y el fondo de la 2(b). La columna de unos de la derecha es la consecuencia de las diferencias entre el fondo de la imagen de referencia y el borde anterior del objeto en movimiento. En el instante del cuarto fotograma [Fig. 2(d)], la primera columna diferente de cero de la imagen diferencia acumulativa muestra tres cuentas que indican tres diferencias totales entre esa columna de la imagen de referencia y la columna correspondiente de los fotogramas subsiguientes. Finalmente, la figura 2(i) muestra un total de 10 cambios en esa posición (representados por “A” en hexadecimal). Una explicación similar se aplica a las otras entradas.

A veces es útil considerar los tres tipos de imágenes de diferencia acumulativa: absoluta ( AADI), positiva (PADI) y negativa (NADI). Las cantidades positiva y negativa se obtienen utilizando la ecuación (1) sin el valor absoluto y empleando el fotograma de referencia en lugar de f(x,y,ti), como podemos ver en las ecuaciones (2.1) y (2.2). (2.1) (2.2)

 1 si f(x,y,t1) − f(x,y,tj) > 0 d ij ( x, y ) =   0 otro caso  1 si f(x,y,t1) − f(x,y,tj) < 0 d ij ( x, y ) =   0 otro caso

Si los niveles de gris de un objeto son mayores numéricamente que el fondo y la diferencia es positiva, se compara ésta con un umbral positivo; si es negativa, la diferencia se compara con un umbral negativo. Esta definición se invierte si los niveles de gris del objeto son menores que los del fondo.

(a)

00000000 00000000 00000000 00000000 00000000 00000000 00000000 00000000 00000000 00000000 00000000 00000000 00000000 00000000 00000000 00000000 00000000 00000000 00000000 00000000 00000000 00000000 00000000 00000000 00000000 00000000 00000000 00000000 00000000 00000000

(b)

1 1 1 1 1 1

1 1 1 1 1 1

(f)

(c)

21 21 21 21 21 21

21 21 21 21 21 21

(g)

(d)

321 321 321 321 321 321

321 321 321 321 321 321

(h)

(e)

A98765438887654321 A98765438887654321 A98765438887654321 A98765438887654321 A98765438887654321 A98765438887654321

Figura 2: Diferencias Acumulativas

(i)

2.1.3.- Establecimiento de una imagen de referencia Una de las claves del éxito de las técnicas expuestas en las dos secciones anteriores consiste en disponer de una imagen de referencia frente a la que se puedan hacer las comparaciones subsiguientes. Como se indicó, la diferencia entre dos imágenes en un problema de imágenes dinámicas tiende a eliminar todos los componentes estacionarios, dejando solamente los elementos de la imagen que corresponden al ruido y a los objetos en movimiento. El problema del ruido se puede tratar por los métodos de filtrado mencionados anteriormente o por la formación de una imagen de diferencia acumulativa, como se presentó en la sección anterior. En la practica, no siempre es posible la obtención de una imagen de referencia solamente con elementos estacionarios, y se hace necesaria la construcción de una a partir de un conjunto de imágenes que contienen uno o más objetos en movimiento. Un procedimiento para generar una imagen de referencia es el siguiente: considérese que la primera imagen de una sucesión es la de referencia. Cuando un componente no estacionario se ha movido completamente fuera de su posición en el fotograma de referencia, el fondo correspondiente del fotograma actual puede duplicarse en la posición ocupada originalmente por el objeto en el fotograma de referencia. Cuando todos los objetos en movimiento se han desplazado completamente fuera de sus posiciones originales, una imagen de referencia contendrá solamente los componentes estacionarios que se han ido creando. El desplazamiento del objeto se puede establecer controlando el crecimiento del PADI.

2.2.- Técnicas en el dominio de la frecuencia Se considera el problema de la determinación de la estimación del movimiento por medio de la formulación de la transformada de Fourier. Considérese una sucesión f(x,y,t) , t=0,1,...,T-1 de T fotogramas de imágenes digitales de tamaño M x N generadas por una cámara estacionaria. Para empezar, supongamos que tenemos un objeto de 1 píxel de intensidad unidad que se esta moviendo con velocidad constante sobre el eje ox. Esta operación genera una matriz unidimensional con M entradas que son 0, excepto en la posición donde se proyecta el objeto. En t=0, al multiplicar los componentes de la matriz por

e j 2πk1 x∆t con x=0,1,...,M-1, da un resultado :

e j 2πk1∆t donde k1 es un entero positivo y ∆t es el intervalo de tiempo entre dos fotogramas. En el 2º fotograma (t=1), el objeto se ha movido a las coordenadas (x+1, y), esto es, se ha movido 1 píxel paralelo al eje ox. Entonces, la repetición del procedimiento genera

e j 2π ( x +1) k1∆t Si el objeto continua moviéndose 1 píxel por fotograma, entonces, en cualquier instante de tiempo entero el resultado es

e j 2π ( x +t ) k1∆t el cual según la formula de Euler, se puede expresar como:

e j 2π ( x +t ) k1∆t = Cos [2π ( x + t )k1 ∆t ] + jSen [2π ( x + t )k1 ∆t ] En otras palabras, este procedimiento genera una sinusoide compleja de frecuencia k1. Si el objeto se moviera v1 píxel (en la dirección del eje ox) entre dos fotogramas, la sinusoide podría tener la frecuencia v1k1. Como en el ejemplo nos movemos 1 píxel, v1=1 y la frecuencia es igual a k1. Como t varia entre 0 y T-1 en incrementos enteros, da lugar a que la transformada de Fourier discreta de la sinusoide compleja tenga picos: uno localizado en la frecuencia v1k1 y el otro en la (T-v1)k1 (éste ultimo se ignora).

De este modo la búsqueda de un pico en el espectro de Fourier proporciona v1k1. La división de esta cantidad por k1 da v1, que es la componente de la velocidad en la dirección del eje ox. De forma similar, las proyecciones sobre el eje oy podrían dar v2, la componente de la velocidad en la dirección de dicho eje. Una sucesión de fotogramas en los que no se efectúe ningún movimiento produce términos exponenciales idénticos, cuya transformada de Fourier consistiría en un único pico en la frecuencia kv=0, (v=0). Estos conceptos se pueden resumir en las relaciones siguientes. Para una sucesión de T imágenes digitales de tamaño M x N, la suma de las proyecciones ponderadas sobre el eje ox en cualquier de tiempo entero es:

(3) g x (t , k1 ) =

x = M −1 y = N −1

∑ ∑ x=0

f ( x, y, t ) × e 2 Πk1∆t , , t = 0,1,..., T − 1

y =0

De forma similar, la suma de las proyecciones sobre el eje oy es:

(4) g y (t , k2 ) =

y = N −1 x = M −1

∑ ∑ y =0

f ( x, y, t ) × e 2 Πk 2 ∆t , , t = 0,1,..., T − 1

x =0

donde k1 y k2 son enteros positivos. Las transformadas de Fourier unidimensionales de las ecuaciones anteriores son respectivamente: t =T −1

−2 jΠu1 (5) Gx (u1, k1 ) = 1 × ∑ gx (t, k1 ) × e T t=0

t =T −1

−2 jΠu2 (6) Gy (u1, k2 ) = 1 × ∑ g y (t, k2 ) × e T t=0

t

t

T

u1 = 0,1,...,T −1

T

u2 = 0,1,...,T −1

La relación entre frecuencia y velocidad es • u1=k1v1 • u2=k2v2 en u1 y u2 están los picos. Nota: para calcular k1 y k2, k=umax/vmax para el eje ox y el eje oy.

La unidad de velocidad es en píxel por numero total de fotogramas. Por ejemplo, v1=10 se interpreta como un movimiento de 10 píxel en T fotogramas. El signo de la componente x de la velocidad se obtiene calculando S1x = d2Re[gx(t,k1)]/dt2 |t=n y S2x = d2Im[gx(t,k1)]/dt2 |t=n S1x y S2x tendrán el mismo signo si v1 es positiva. Si S1x y S2x tienen signos opuestos, una de las componentes es negativa. Ejemplo: Un blanco moviéndose a 0’5 píxel por fotograma en la dirección del eje ox y 1 píxel por fotograma en la dirección del eje oy. Resultado de calcular las ecuaciones (5) y (6) con k1=6, k2=4: • El pico en u1=3 da v1=0’5. • De forma similar, el pico en u2=4 da v2=1’0. Hemos tenido k=umax/vmax donde umax es la limitación de frecuencia del replicado establecida. El rango de u esta determinado por T (u=1/T).

3.- Arquitecturas para procesamiento por segmentación Los métodos de segmentación son complicados y diversos. Si bien en ellos pueden utilizarse algunas secciones ya estandarizadas de transformación, gran parte del cálculo debe hacerse con procesadores de propósito general. En la figura 3 se observa una arquitectura para determinar el movimiento por medio de la segmentación. En primer lugar está el bloque de pre-procesamiento o simplificación, donde, con ayuda de arquitecturas específicas, se simplifica la imagen efectuando una extracción de contornos o uniformizando áreas de la imagen. Una vez simplificada la imagen, es necesario realizar la segmentación y determinar las correspondencias entre imágenes. Figura 3: Arquitectura para la determinación de movimiento en secuencias de imágenes por el método de gradientes espacio-temporales.

Estas son actividades para las cuales existen infinidad de algoritmos dependiendo del tipo de segmentación a realizar y, en la actualidad, sólo pueden ser llevados a cabo por procesadores de propósito general en ejecuciones que distan mucho de ser en tiempo real. Las arquitecturas para la determinación del movimiento por segmentación de imágenes, aún considerando las últimas velocidades de procesamiento, no son capaces de realizar la tarea en tiempo real, lo cual limita muchas de sus aplicaciones.

4.- Conclusiones La segmentación de imágenes es una etapa preliminar esencial en la mayor parte de los problemas de reconocimiento de formas y análisis de escenas. Como se ha indicado en los diversos ejemplos presentados, la elección de una técnica de segmentación en lugar de otra está dictada principalmente por las características peculiares del problema que se esté considerando. Los métodos expuestos, aunque lejos de ser exhaustivos, son representativos de las técnicas utilizadas normalmente en la práctica. Finalmente, añadir que la determinación del movimiento a partir de secuencias de imágenes abre las puertas a un amplio campo de aplicaciones y por ello es un tema que, en la actualidad, involucra a muchos investigadores. Aplicaciones tales como la modelización del entorno, la identificación y seguimiento de objetos, y la compresión de imágenes representan aportaciones clave en un futuro próximo.

5.- Acerca de la aplicación La aplicación creada trata de mostrar los métodos de segmentación de imágenes con movimientos, en concreto los métodos espaciales. Para ello, hemos creado un sistema de video rudimentario capaz de mostrar una secuencia de imágenes (fotogramas) bmp a distintas velocidades. Además, es capaz de desplazarse por los distintos fotogramas uno a uno. A partir de esta secuencia de imágenes es posible aplicar los métodos anteriormente citados. El lenguaje empleado para el desarrollo de la aplicación ha sido Visual C++ 6.0 (MFC). Para más información, vea el apartado: “Manual de Usuario”.

6.- Manual de Usuario A continuación mostramos el funcionamiento básico del software que hemos implementado. La interfaz de usuario está claramente separada en tres grupos, cada uno con una funcionalidad diferente. A grandes rasgos, explicamos que hace cada grupo:

Figura 4: Ventana principal

El primer grupo que se va a comentar es el que se encuentra más a la izquierda, con el titulo de “Video”. Este se encarga de reproducir una secuencia de imágenes en el recuadro de imagen etiquetado como “video”. Este grupo es el que está activo cuando iniciamos la ejecución del programa.

Lo primero que debemos hacer es pulsar el botón “Cargar video”. A continuación nos sale una caja de diálogo para que introduzcamos la primera imagen de la secuencia, como vemos en la siguiente imagen:

Figura 5: Aviso

Y la seleccionamos del diálogo “Abrir”:

Figura 6: Diálogo Abrir

Cuando elegimos la primera imagen de la secuencia, se nos presenta un nuevo cuadro de dialogo:

Figura 7: Longitud de la Secuencia

En este elegimos el numero de fotogramas que va a tener el video. También elegimos la tonalidad del fondo, claro u oscuro. Cuando pulsamos “Aceptar” se visualiza la primera imagen del video.

Figura 8: Imagen 1

A partir de aquí tenemos dos opciones: • Podemos ver la secuencia a unas velocidades de 5,10 y 20 fotogramas por segundo, señalizándolo en los botones correspondientes y pulsando “Play”. Mientras se muestra el video, podemos pulsar el “Stop” para parar la animación, y señalar otra velocidad y volver a darle al “Play”. Cuando acabe de reproducirse el video, volverá a la imagen inicial. También volvemos a la imagen inicial si estamos visualizando el video y le damos al botón de “Inicio”. •

También es posible ver el video fotograma a fotograma, pulsando los botones “Uno hacia delante” y “Uno hacia detrás”.

El segundo grupo de controles se encarga de establecer la imagen de referencia, bien manualmente, con “Seleccionar fotograma” , o bien mediante el método de las diferencias. Si elegimos la opción manual, deberemos introducir el número de fotograma que queremos sea el de referencia. Pulsando “Obtener imagen de referencia” lo podremos ver en pantalla.

Figura 9: Imagen de Referencia Manual

Si elegimos establecer la imagen de referencia automáticamente, seleccionando “Método”, nos aparecerá el siguiente cuadro de dialogo para seleccionar el umbral:

Figura 10: Selección del Umbral

Cuando introducimos el umbral y presionamos en “Obtener imagen de referencia” visualizamos la imagen referencia obtenida a partir de las diferencias acumulativas.

El tercer grupo de controles nos permite elegir el método para detectar el movimiento. Si seleccionamos el “Método Básico” , realizaremos la diferencia entre el fotograma actual del video y el fotograma referencia, mostrando la imagen diferencia en el recuadro inferior derecha. Tras pulsar “Obtener Diferencia” deberemos seleccionar un umbral en un cuadro de diálogo como el de la figura 10. Una vez hecho esto, se visualiza la imagen diferencia.

Figura 11: Imagen Diferencia

Este ejemplo de carácter ilustrativo se ha utilizado un umbral de 200. Por otro lado, para obtener las diferencias acumulativas AADI, PADI y NADI seleccionamos “Diferencias Acumulativas” y el correspondiente tipo que queremos obtener.

Al igual que ocurría con el Método Básico, se nos pide el umbral. Una vez seleccionado se visualiza la imagen de diferencias acumulativas. En la siguiente imagen vemos un ejemplo:

Figura 12: Diferencias Acumulativas

Ya sólo nos falta señalar que para abandonar el programa debemos pulsar “Salir”.

6.2.- Restricciones de uso Hemos considerado las siguientes restricciones para el software que se ha implementado: • Las imágenes que visualizamos en el video son de tipo BITMAP, en archivos de extensión “.bmp “. • El formato de los píxeles es el RGB de 24 bits. • Las dimensiones de los mapas de bits con los que hemos trabajado son 200 x 200. • El nombre de los archivos debe empezar con una letra y acabar con 2 dígitos. • Las secuencias de imágenes están limitadas a 100 fotogramas (0-99).

6.3.- Requisitos mínimos de hardware Configuración mínima: • Pentium 200 MMX • 32MB de RAM • Más de 5MB de espacio libre en disco duro Configuración recomendada: • Pentium III o superior • 256 MB de RAM • Más de 5MB de espacio libre en disco duro El espacio libre requerido en disco duro no supera los 5MB.

7.- Referencias •

Rafael C. González, Richard E. Woods, “Tratamiento digital de señales”. Addison-Wesley / Díaz de Santos , Capítulo 7



“Determinación del movimiento a partir de secuencias de imágenes”, Aitzol Zuloaga Izaguirre, et al. Departamento de Electrónica y Telecomunicaciones ETSII y IT de Bilbao, Universidad del País Vasco http://www.geocities.com/CapeCanaveral/8482/docu005.pdf



“Microsoft Visual C++. Aplicaciones en Win32”, Fco. Javier Ceballos, Editorial Ra-ma



“Microsoft Visual C++. Programación avanzada en Win32”, Fco. Javier Ceballos, Editorial Ra-ma



“Programación avanzada con Microsoft Visual C++ 5”, David J. Kruglinski, Ed. McGraw-Hill.

Get in touch

Social

© Copyright 2013 - 2024 MYDOKUMENT.COM - All rights reserved.