Ingenieros informaticos de la Universidad Pública de Navarra han creado un algoritmo de ampliación de imágenes cuyo tiempo de ejecución es 700 veces inferior a otros métodos existentes con la misma calidad. La técnica resultante permite mejorar la ampliación y segmentación de los procesos gráficos.
Basque Research
La ingeniera informática Aránzazu Jurío Munárriz de la Universidad Pública de Navarra (UPNA) ha publicado en su tesis doctoral y en el European Journal of Operational Research y otras revistas científicas un nuevo método para mejorar dos de los procesos más habituales en el tratamiento de imágenes digitales: la ampliación y la segmentación.
Su algoritmo de ampliación de imágenes destaca no sólo por la calidad obtenida sino por el tiempo que tarda en ejecutarse, que es 700 veces inferior a otros métodos existentes que obtienen la misma calidad.
El procesamiento de imágenes consiste en un conjunto de técnicas que se aplican sobre las imágenes para solucionar dos problemas: mejorar la calidad visual y procesar la información contenida en la imagen, de tal forma que un ordenador pueda entenderla por sí sola.
La segmentación se aplica, por ejemplo, en la teledetección, donde es necesario localizar en imágenes aéreas ciertos objetos como ríos, bosques o cultivos; el análisis de pruebas médicas, para localizar diferentes estructuras (órganos, tumores, etc.), medir volúmenes de tejidos o incluso practicar una cirugía guiada por ordenador; o el reconocimiento de patrones, por ejemplo para identificar una matrícula en la entrada a un aparcamiento o para identificación personal a través de las huellas dactilares.
“Mediante la segmentación de imágenes se separa cada uno de los objetos que forman parte de la imagen –explica Aránzazu Jurío–. Para ello se analiza cada uno de los píxeles, de tal forma que todos los que tengan ciertas características en común consideramos que forman parte del mismo objeto”.
Alcanzar la superresolución
El otro problema que aborda Aránzazu en sus estudios es el de la ampliación de imágenes. Consiste en incrementar la resolución espacial de la imagen (obtener una imagen mayor, con más píxeles, que represente la misma escena) preservando los detalles y la nitidez.
“Las técnicas de ampliación son muy útiles cuando enviamos imágenes de un dispositivo a otro o cuando las subimos a la web, ya que para que la transmisión sea más rápida solemos enviar una versión reducida de la imagen que, cuando llega al destino, es necesario ampliar para tenerla en su tamaño original. También se utiliza la ampliación en casos donde la imagen tiene baja resolución, como puede ser en cámaras de videovigilancia”, señala.
En el transcurso de su investigación ha presentado dos nuevos métodos de ampliación, uno para imágenes en escala de grises y otro para imágenes en color. Según indica, los métodos se desarrollaron para solucionar un problema de una empresa de infografía. A partir de un modelo en tres dimensiones, la empresa generaba varias imágenes para mostrar a los clientes; esas imágenes debían ser grandes para poder apreciar todos los detalles, pero generarlas costaba más de veinte horas por imagen.
“La solución que encontramos fue poder generar imágenes en un tamaño menor y posteriormente ampliarlas, en un tiempo muy reducido (menos de una hora por imagen) y manteniendo la calidad. Es decir, nuestro algoritmo de ampliación de imágenes destaca no sólo por la calidad obtenida sino por el tiempo que tarda en ejecutarse, que es 700 veces inferior a otros métodos existentes que obtienen la misma calidad”.
Huellas dactilares y cerebro humano
En su tesis doctoral, que ha dado como fruto seis artículos científicos, esta investigadora también ha presentado dos algoritmos de segmentación. El primero está adaptado para trabajar con imágenes de huellas dactilares; el segundo, orientado a imágenes del cerebro obtenidas mediante resonancias magnéticas.
En concreto, el grupo de investigación de la UPNA del que forma parte está colaborando en un proyecto para crear un centro de identificación a través de huellas dactilares que sea capaz de trabajar con 40 millones de huellas.
“Uno de los pasos para la identificación consiste en separar la huella del fondo de la imagen de una manera eficiente. En la tesis hemos propuesto cómo medir la homogeneidad en cada zona de una imagen, es decir, cómo de parecidos son todos los píxeles de una región. A partir de esa medida, hemos desarrollado un algoritmo que es capaz de realizar correctamente la segmentación sobre las huellas dactilares”.
El segundo algoritmo ha sido desarrollado en el marco de un proyecto de investigación en colaboración con médicos del Complejo Hospitalario de Navarra. Se pretenden estudiar las diferencias en formas o volúmenes de ciertas áreas del cerebro en pacientes que tienen sus primeros brotes psicóticos. Los investigadores han propuesto un método para lograr separar correctamente en la imagen el área que ocupan diferentes estructuras del cerebro.
Referencia bibliográfica: Humberto Bustince; Aranzazu Jurio; Ana Pradera; Radko Mesiar; Gleb Beliakov. "Generalization of the weighted voting method using penalty functions constructed via faithful restricted dissimilarity functions". European Journal of Operational Research225 - 3: 472 - 478, 2013.
viernes, 21 de junio de 2013
Suscribirse a:
Enviar comentarios (Atom)
No hay comentarios:
Publicar un comentario