Historias
Slashboxes
Comentarios
 

Imágenes con superresolución 700 veces más rápido

editada por Mu el 24 de Junio 2013, 06:08h   Printer-friendly   Email story
desde el dept. zoom-rotate-enhance!
Un pobrecito hablador nos cuenta: « Leo en el sitio web de la I+D+i vasca vía RTVE, que unos nuevos métodos podrían mejorar dos de los procesos más habituales en el tratamiento de imágenes digitales: la ampliación y la segmentación. En su tesis doctoral, una ingeniero informático ha desarrollado un algoritmo de ampliación de imágenes que destaca por la calidad obtenida y por el tiempo que tarda en ejecutarse, 700 veces inferior a otros métodos existentes que obtienen la misma calidad. Mediante la segmentación de imágenes se separa cada uno de los objetos que forman parte de la imagen. Puede utilizarse para la teledetección, para localizar en imágenes aéreas, ciertos objetos como ríos, bosques o cultivos. También se puede usar en medicina en el análisis de pruebas médicas para localizar órganos o tumores, medir volúmenes de tejidos o incluso practicar una cirugía guiada por ordenador. O identificar una matrícula en la entrada a un aparcamiento o a una persona a través de las huellas dactilares. La ampliación de imágenes consiste en incrementar la resolución espacial de la imagen preservando los detalles y la nitidez donde la imagen tiene baja resolución, como puede ser en cámaras de videovigilancia. Referencias en: Generalization of the weighted voting method using penalty functions constructed via faithful restricted dissimilarity functions.»

Este hilo ha sido archivado. No pueden publicarse nuevos comentarios.
Mostrar opciones Umbral:
Y recuerda: Los comentarios que siguen pertenecen a las personas que los han enviado. No somos responsables de los mismos.
  • por pobrecito hablador el Lunes, 24 Junio de 2013, 07:17h (#1341218)
    Muy apropiado para el caso, cualquier algoritmo de escalado viene con imágenes de ejemplo. Aquí sólo tenemos un críptico PDF tras un paywall... hmm... esperaría a ver resultados, una búsqueda de código fuente por el nombre del autor no desvela tampoco resultados. Y los detalles del artículo sugieren que esto es un postproceso para render de imágenes 3d, quizás no aplique a otro tipo de imágenes, pero bueno, sin poder meter la zarpa pues así nos quedamos, con bonitos titulares.

    Por cierto, tampoco queda claro si lo de 700 más rápido es porque el algoritmo es 700 más rápido o porque al aplicarlo a su proceso que generaba una imagen por día ahora hacen más imágenes. Tampoco se menciona la importancia del hardware, podría ser un algoritmo genial pero no paralelizable por usar mucha memoria. O si la empresa que tarda un día por generar una imagen ha escuchado de los clusters o si usan una gameboy para render...

  • por pobrecito hablador el Lunes, 24 Junio de 2013, 11:49h (#1341235)
    Por aclararnos, esto sería un sustituto de formatos de imagen ECW ó MrSID?

    ¿Si es así sería un formato opensource?, porque sino lo es me quedo con ECW en lugar de migrar de un fuego a otro, ECW al menos tiene soporte (aunque no actualizado) en linux.

    Sino es opensource se lo pueden meter por el ...
  • Resumiendo...

    (Puntos:0)
    por pobrecito hablador el Lunes, 24 Junio de 2013, 17:34h (#1341262)
    ¡ Vaporware ! y del bueno...
  • ¿Complejidad?

    (Puntos:1)
    por Lenijas (51979) el Martes, 25 Junio de 2013, 12:40h (#1341347)
    Leyendo los comentarios del post me ha surgida una duda, ¿qué entienden ustedes por complejidad de un algoritmo?

    Yo particularmente manejo dos conceptos:
    • Complejidad ciclomática, la cual estudia la complejidad de la lógica del algoritmo
    • El orden de un algoritmo (Big O notation)
    Nunca he trabajado directamente con el número de instrucciones para tratar la complejidad, en esos casos siempre se ha tratado de rendimiento.

    ¿Qué opinan ustedes?
  • Sí, bueno ...

    (Puntos:0)
    por pobrecito hablador el Miércoles, 26 Junio de 2013, 14:38h (#1341462)
    Otra fantasmada made in spain.