Inicialmente se hace un recuento de los objetivos planteados en este proyecto. El objetivo principal de este trabajo es el desarrollo de un sistema para la compresión y descompresión de voz mediante técnicas de procesamientodigital de imágenes utilizando wavelets. Para esto se utilizaron las técnicas de codificación de voz y datos haciendo énfasis en el estándar JPEG2000 [9]. Respecto al estándar, se investigaron los mecanismos de funcionamiento del JPEG2000, especificados en el ANEXO B. Considerando los procesos internos del estándar, se escogió la plataforma JJ2000 [13] para desarrollar la aplicación de codificación y decodificación de tramas de voz. Utilizando este método, se analizaron los resultados con medidas matemáticas y medidas subjetivas, basadas en la puntuación de opinión media [15].
En el estado del arte global investigado entorno al desarrollo en procesamientodigital de imágenes por cámara de video para la implementación de un sistema de detección de humo se tienen técnicas como lo que propone S.R.Vijayalakshmi, en su artículo “Smoke detection in video images using background subtraction method for early fire alarm system”, en la Bharathiar University, Tamilnadu, India (S.R.Vijayalakshmi (2010)), utilizando la técnica de sustracción de fondo “Fuzzy cmeans” (FCM) para segmentar las regiones en movimiento en marco de video. Se basa en tres tipos de sustracción de fondo. La primera es la sustracción de fondo usando la diferencia de cuadro pixel por pixel, la segunda es la mediana de filtrado y la tercera es el modelo de mezcla gaussiana. Los resultados muestran que el algoritmo de detección de humo propuesto reduce la tasa de falsas alarmas y alta fiabilidad en espacios abiertos y grandes. Las limitaciones que presentó esta técnica fueron que todas las pruebas se realizaron en escenarios con presencia de humo y sin presencia de humo, no se realizaron pruebas con presencia de personas en el escenario, obteniendo una tasa de detección de humo de 89.5% como máximo.
Detección de rostros: Se empezaron a desarrollar algoritmos para detectar rostros y/o caras de personas en una imagen a mediados de la década de los 70s, se basaron en técnicas heurísticas y antropométricas. Pero en ese entonces este tema no era tan relevante y de vital importancia como hoy día, motivo por el cual estas investigaciones se abandonaron. En la década de los 90s fue que el desarrollo de algoritmos que detectaban rostros inició su auge; por los avances tecnológicos que lograron la reproducción de vídeos, videoconferencias, procesadores más rápidos, etc. Gracias al desarrollo de técnicas de detección de bordes en el procesamientodigital de imágenes hoy detectar caras en una imagen puede llevar desde pocas milésimas hasta varios segundos.
No es hasta los años 1990, cuando la cámara convencional es sustituida por una cámara digital reduciendo significativamente el proceso de espera en la captación de la imagen testigo y posterior manipulación de la micrografía, pudiéndose entonces utilizar un televisor o un computador para visualizar en tiempo real lo observado, García [2]. El desarrollo tecnológico de las computadoras y el auge en la elaboración de software en el área del procesamientodigital de imágenes, han puesto a disposición de herramientas para determinar con mayor precisión y rapidez el porcentaje de las fases presentes en los aceros, según Velandia [4] y Fajado [11], para así estimar su contenido de carbono y las propiedades mecánicas (resistencia a la tracción, dureza, límite de fluencia y límite de fatiga) en aceros de bajo y medio carbono, sin tener que realizar las pruebas o ensayos mecánicos correspondientes en los laboratorios.
El campo dentro del cual se desarrollará el presente Trabajo de Diploma de Ingeniería Biomédica es el procesamientodigital de imágenes médicas. En él se dan cita diversos software que contienen múltiples técnicas, algoritmos, métodos y procedimientos que manipulan una imagen digital cualquiera con el fin de evaluar su contenido, visualizarlo, editarlo, analizarlo, procesarlo, mejorar su apariencia, detectar las características de los objetos presentes en la imagen, o interpretar su contenido, todo lo cual se lleva a cabo mediante una serie de procesos computarizados [4].
En cuanto a lo que se reere en procesamiento de imágenes, son muy amplias las aplicaciones que esta tiene con respecto a otras ciencias como lo es en la ciencia espacial la cual sirvió para realzar y mejorar las imágenes de la Luna enviadas por la misión Surveyor, las misiones a Marte, y los vuelos tripulados Apolo a la una. En medicina, los procedimientos realzan el contraste o codican los niveles de intensidad en los colores para facilitar la interpretación de las señales de los rayos X o de otras señales biomédicas. Los geógrafos emplean técnicas similares para analizar los patrones de polución a partir de imágenes aéreas o de satélite. En la arqueología, los métodos de procesamientodigital de señales han servido para restaurar imágenes borrosas que eran únicos registros de objetos que fueron dañados o perdidos después de haberlas fotograado. En la física y en campos de estudio similares, estas técnicas realzan las imágenes de experimentos en los plasmas de alta energía y los microscopios electrónicos. De esta forma, los conceptos de procesamiento de señales se aplican de la misma forma en ciencias como la astronomía, la biología, investigaciones policíacas y aplicaciones industriales [10].
BioCam1 es un software que explota las ventajas del procesamientodigital de imágenes para realizar análisis biomecánicos del cuerpo humano, buscando sensar, medir y encontrar indicios de afecciones que permitan actuar de manera correctiva o preventiva, evitando la progresión del problema y mejorando la calidad de vida. Es capaz de insertarse en el área deportiva, buscando mejorar la técnica en determinadas disciplinas, optimizando el rendimiento y evitando lesiones crónicas. También puede utilizarse para evaluar el correcto funcionamiento de prótesis instaladas en el cuerpo humano, con el fin de optimizar la relación pieza-cuerpo.
Se presenta el desarrollo de una aplicación para dispositivos móviles para determinar la calidad de granos empleando procesamientodigital de imágenes. La aplicación se ejecuta bajo el sistema operativo de código abierto Android. Emplea la cámara digital del dispositivo móvil para adquirir imágenes de muestras de granos. Con técnicas de procesamientodigital de imágenes se determina los aspectos morfológicos de granos como ser largo, ancho, área y factores de forma de los mismos. Mediante un sistema experto, basado en reglas, se determina su calidad. Su interface es amigable, ofrece al usuario un manejo intuitivo y puede ser usado de manera sencilla por personas sin entrenamiento especial. El sistema permite realizar objetivamente el análisis y la clasificación de acuerdo a las normativas de calidad vigentes. Genera dos tipos de informes, uno de toda la muestra y otro sobre las características de cada grano. Se probó para granos de alubia, lentejas, poroto manteca y arroz, con resultados satisfactorios, lo que sugiere que la aplicación se puede extender a otros tipos de granos
El objetivo del trabajo de titulación fue implementar un sistema de identificación facial mediante el procesamientodigital de imágenes para el personal del Bioterio de la Facultad de Ciencias de la Escuela Superior Politécnica de Chimborazo. El método utilizado para el procesamientodigital de imágenes fue el método Eigenfaces, construido sobre técnicas de Análisis de Componentes Principales (PCA), y conjuntamente con las principales variables correlacionadas como: luminosidad, distancia usuario – cámara, posición facial, umbrales de proyección y distancia euclídea, para el almacenamiento de datos se utilizó una base de datos local y el software Matlab para desarrollar el sistema de identificación debido a que permite utilizar herramientas para el reconocimiento facial necesarios para la identificación. Se realizaron un total de 180 pruebas en 3 días diferentes con un número total de 20 usuarios, registrando 3 intentos de acceso por cada uno. El resultado final fue un porcentaje promedio del 86% de validez del sistema, registrando un 96% como máximo y un 80% como mínimo. Adicionalmente, se realizó la combinación con un sistema eléctrico para el control de apertura de una cerradura eléctrica, la cual fue implementada en la puerta del Bioterio. Se concluye que el sistema de identificación facial implementado en el bioterio de la Facultad de Ciencias tiene una eficiencia del 86% con las diferentes características establecidas de acuerdo a las variables de correlación. Se recomienda analizar el escenario respectivo para determinar el método de procesamientodigital de imagen para implementar un sistema de identificación facial.
ProcesamientoDigital de Imágenes en FPGA Página 46 deben estar en minúscula) se han imprimido aquí en negritas para mayor compresión, pero el lenguaje no requiere de esto. A continuación, las declaraciones input y output definen cuáles puertos son de entradas y salidas. Las conexiones internas se declaran como alambres. El circuito tiene una conexión interna en la terminal e, la cual se declara con la palabra wire. La estructura del circuito se especifica empleando las compuertas primitivas predefinidas como palabras clave. Cada declaración de compuerta consiste en un nombre opcional (como g1, g2, etc.) seguido de la salida y de las entradas de la compuerta, separada por comas y encerradas entre paréntesis. La salida siempre va primero, seguida de las entradas. Por ejemplo, la compuerta OR se llama g3, su salida es y tiene como entrada R y . La descripción del módulo termina con la palabra clave endmodule. Observe que cada enunciado termina con un signo de punto y coma, pero no hay un punto y coma después de endmodule.
El trabajo de investigación realizado sobre procesamientodigital de imágenes en el control de calidad de cerámicos, dispone de diferentes herramientas para implementar en la industria, con programas a medida como Matlab, visión assinten, OpenCV, Labview, entre otros; además esta tecnología está siendo cada vez más utilizada en los procesos de automatización por empresas industriales para agilizar y verificar con mayor precisión el control de calidad.
ImageJ es un programa de procesamiento de imagen digital de dominio público programado en Java, desarrollado en el Instituto Nacional de Salud (NIH) en Estados Unidos por Wayne Rasband, basado en Macintosh, Rasband libera el software de este sistema operativo individual al usar el lenguaje de programación Java [4]. ImageJ fue diseñado con una arquitectura abierta que proporciona extensibilidad vía plugins Java y macros (macroinstrucciones) grabables. Puede ejecutarse en un applet en línea, como aplicación ejecutable, o en cualquier computadora con máquina virtual Java 5 o superior. Hay también distribuciones descargables para Microsoft Windows, Mac OS, Mac OS X, Linux, y Sharp Zaurus PDA. El código fuente de ImageJ está disponible gratuitamente [27]. Antes del lanzamiento de ImageJ en 1997, existía un programa de análisis de imágenes conocido como NIH Image desarrollado para ordenadores Macintosh de sistema operativo preMacOS X. El desarrollo de este software continúa en la forma de Image SXM, una variante para investigación física de imágenes microscópicas escaneadas. También fue desarrollada una versión para Windows – portada por Scion Corporation, llamada Scion Image for Windows [27]. Ambas versiones están aún disponibles, aunque existen otros programas de análisis de imágenes, donde se destaca Matlab Image Toolbox como programa de propósito general, además de múltiples programas para aplicaciones específicas, algunos que ya usan ImageJ como soporte. Esta herramienta computacional para procesamientodigital de imágenes (PDI) tiene la ventaja de estar basado en un software libre, lo que hace recomendable estudiar y aprovechar sus potencialidades para la docencia y la investigación en el campo de la Ingeniería Biomédica.
Se presenta en este trabajo un clasificador de granos de lenteja basado en el procesamientodigital de imágenes (PDI) basado en la comparación, a través del coeficiente de correlación, entre el histograma de la imagen digital en niveles de gris de los granos de la muestra de interés y el histograma normalizado promedio, considerado como patrón, de distintas categorías de estados de granos: normales, ennegrecidos, decolorados y partidos.
La constante evolución de las imágenes digitales ha permitido que la fotografía no se quede tan solo en una simple captura del momento, sino más bien de que podamos ver más que una simple imagen. La tecnología ha ayudado a avanzar en estos y en otros ámbitos que hacen más interesante el procesamiento de una imagen, no solo para corregir errores sino también para poder modificarlas y/o manipularlas a nuestro gusto. A día de 6hoy las imágenes digitales tienen innumerables procesamientos para una gran variedad de aplicaciones, desde el retoque fotográfico para una publicidad o portada de revista, para el estudio de estructuras, identificación de objetos, entre otros aspectos. Una buena parte de estos avances son positivos para la ciencia debido a que gracias al procesamientodigital de una imagen podemos ver detalles que a simple vista el ojo humano no ve o pasa desapercibido, entre todos los tipos de imágenes tenemos las imágenes satelitales, que nos permiten la visualización de nuestro planeta y aunque sean imágenes con una gran resolución nos permiten identificar objetos y objetivos que queramos ver sobre la superficie. Las imágenes satelitales han venido evolucionando, desde una simple imagen monocromática hasta una imagen Ultraespectral.
• En Kokko y col. ( 1996 ) se propone un método para medir la asimetría de las alas de Haematobia irritans. Expone el autor, procedente de estudios previos, cómo el estrés y ciertos contaminantes industriales son capaces de afectar al crecimiento de esta especie. Haciendo uso de imágenes binarias, con operaciones booleanas AND y OR y cierta edición manual, el método es capaz de extraer formas de interés de las alas en imágenes digitales y realizar mediciones de ellas. El autor la enfoca como una metodología más precisa que cualquier otra puramente manual (dadas las pequeñas dimensiones de estas alas) y fácilmente reproducible para otras especies similares.
La aplicación de técnicas de corrección de campo plano para imágenes digitales a menudo puede garantizar la precisión fotométrica y eliminar los defectos comunes de imagen para restaurar la fidelidad de las características y lograr un equilibrio visual. Con el fin de compensar el ruido y baja intensidad, los marcos de campo plano de referencia pueden estar expuesto por períodos más largos que los utilizados para la captura de imágenes en bruto [27]. Una vez que los marcos necesarios han sido recogidos, la corrección de campo consiste en varias funciones secuenciales. En primer lugar, el marco oscuro maestro se resta tanto de la imagen en bruto y los marcos de campo plano de referencia, seguido por la división de los valores resultantes.
Otro trabajo importante y ampliamente citado en la literatura corresponde al desarrollado por Grace et al. (Ayoob E., Steinfeld A., and Grace R., 2003), (Grace R., Byrne V. E., Bierman D. M., Legrand J., Grcourt D., Davis R., Staszewski J., and Carnahan B., 1998) quienes han construido un sistema para ser instalado en vehículos de carga pesada (trailers y camiones). Grace también utiliza iluminación infrarroja para localizar la posición de los ojos, su sistema captura a través de dos cámaras dos imágenes; cada cámara tiene incorporado un filtro, una cámara compuesta por un filtro de 850 nm y la otra por el filtro de 950 nm. A 850 nm la retina refleja el 90 % de la luz infrarroja incidente sobre la retina y a 950 nm refleja únicamente el 40 % de la luz infrarroja incidente sobre la retina. El efecto es el mismo que se presentó en la figura 1.9 de Ji et al. Una vez localizados los ojos, el sistema se encarga de calcular el índice Perclos.
La regularizaci´on de funciones ha sido aplicada en muchas ´ areas del procesamientodigital de im´ agenes y visi´on por computadora. El objetivo de los modelos de regulariza- ci´ on es obtener un modelo simple de la imagen de tal manera que s´ olo las caracter´ısticas importantes se conserven. Este tipo de m´etodo ha sido aplicado en una amplia gama de problemas de procesamiento de im´ agenes como la restauraci´on, visualizaci´ on de flu- jo, la estabilizaci´ on de los movimientos de la c´ amara, el aprendizaje autom´ atico, etc. Actualmente existen diferentes modalidades de im´ agenes que son desplegadas sobre su- perficies, las cuales frecuentemente no son suaves y su regularizaci´on puede ser necesaria en la aplicaci´ on. Las principales t´ecnicas desarrolladas en este ´ ambito est´ an basadas principalmente en n´ ucleo de calor (heat-kernel) y difusi´ on parecida (diffusion-like) PDE [40, 11].
La Tecnología en reconocimiento de rostros ha avanzado significativamente en situaciones controladas donde la luz, posición, accesorios para la cabeza, oclusiones de boca y ojos (Jain y Li, 2011). El reconocimiento automático de rostros puede igualar al reconocimiento de rostros realizado por los humanos especialmente cuando la base de datos contiene una gran cantidad de rostros. Sin embargo, el reconocimiento automático de rostros en tiempo real aún enfrenta muchos desafíos cuando las imágenes de rostros son adquiridas bajo entornos no controlados (Jain y Li, 2011). En las siguientes secciones se revisan los trabajos representativos que enfrentan el reconocimiento de rostros en tiempo real realizados por: (Turk y Pentland, 1991) “Face Recognition Using EigenFace”, (Etemad y Chellappa, 1996) “Face Recognition Using Discriminat Eigenvector”, (Yang, Zhang, Frangi, y Yang, 2004) “Face Recognition by Elastic Bunch Graph Matching” y (Bellakhdhar et al. 1994) “Face recognition approach using Gabor Wavelets, PCA and SVM”.