Logo de la Universdad de Valencia Logo Oferta Científico Tecnológica Logo del portal

Grupo de Investigación en Análisis de Imagen, Recuperación y Modelización - IARM

El grupo está formado por varios investigadores de los departamentos de Informática y Estadística e Inv. Operativa con una larga trayectoria de trabajo en común, junto con la incorporación de otras personas llegadas posteriormente al dpto. de informática y varias colaboradoras, también ligadas por investigación común previa, de la Universitat Jaume I de Castellón. El nexo común más general es la visión por computador y análisis de imagen, tanto 2D como recientemente 3D, con especial atención a la imagen médica y a la generada por procesos biológicos. El objetivo común es aportar experiencia, currículum y soluciones aplicables a problemas médicos o industriales relacionados con el análisis de imagen, análisis de formas, reconstrucción y modelización de estructuras anatómicas y recuperación de información en bases de datos de imágenes. Debido a la complejidad del software que se debe desarrollar es necesaria una visión formal que atienda a la modelización del software y la interacción de éste con el usuario. En concreto, la actividad investigadora desarrollada hasta ahora, y que a la que se pretende dar si cabe mayor cohesión, se organiza en las siguientes líneas:

  • Segmentación y corregistro de estructuras anatómicas, en particular a partir de imágenes de radiología, imágenes de resonancia magnética, imágenes de tomografía de emisión de positrones (PET) u otras modalidades, si el caso lo requiere. El análisis estadístico de las formas obtenidas para su comparación, indexado o modelización requiere el uso de técnicas de morfometría que conectan esta línea con la siguiente.
  • Morfometría, entendida como análisis estadístico de formas, tanto 2D como 3D, para determinar sus variaciones temporales o entre grupos de casos y la obtención de prototipos representativos de clases de formas.
  • Fisiología Computacional, entendida como la modelización multi-escala de procesos biológicos y médicos por medio de herramientas ICT para entender mejor la pato-fisiología y mejorar el diagnóstico y tratamiento de las enfermedades. La modelización a mayor escala (órganos) conecta esta línea con la anterior, en tanto que el análisis de formas se aplique a órganos como el hígado o el corazón; la modelización a menor escala lo conecta con la línea siguiente,
  • Modelos estocásticos espacio-temporales para el análisis de procesos dinámicos a partir de secuencias de imágenes. En concreto, se aplican metodologías estadísticas basadas en procesos germen-grano univariantes y bivariantes que se han empleado hasta el momento para modelizar procesos en biología celular analizando imágenes generadas por microscopio confocal.
  • Recuperación de imágenes y formas basada en el contenido visual en grandes bases de datos de imágenes o formas, en general, no etiquetadas manualmente con texto descriptivo, con especial atención a bases de datos de morfometría humana y bases de datos de imágenes médicas. Esto apoya la organización y descripción semántica de los casos de estudio usados en líneas anteriores.
  • Métodos de producción de software y modelado de la interacción de éste con el usuario. Esta línea transversal analiza y ordena el software producido (de hecho, el principal resultado aplicable de nuestra investigación) de modo que sea correcto, reusable, extensible y fácilmente manejable (en el caso de productos finales) por usuarios competentes en el contenido, pero no especializados en computación, en particular médicos o personal sanitario. La aplicabilidad de esta investigación se centra en el área biomédica, y tiene su fin último en la aplicación clínica, pero existen derivaciones interesantes en campos como la investigación básica en campos como la biología celular, o la ciencia de materiales y otras utilidades prácticas más directas como el diseño de redes de comunicación y redes de sensores, el diseño de ropa, los sistemas de recomendación de compras usando el aspecto visual de los objetos, etc.
Grupo de Investigación en Laboratorio Integrado de Sistemas Inteligentes y Tecnologías de la Información en Tráfico - LISITT

El grupo LISITT se constituyó en 1989 con el objeto de cubrir el hueco existente en España en el área de las aplicaciones telemáticas al campo del tráfico y transporte. Sus actividades iniciales se centraron en la ejecución de proyectos de investigación y desarrollo de carácter internacional dentro de los programas Europeos ESPRIT y DRIVE del II Programa Marco de la Unión Europea. 

Desde sus orígenes, LISITT se ha especializado en el estudio y desarrollo de sistemas inteligentes de transporte (ITS), abarcando tanto sus aspectos tecnológicos, como organizativos y estratégicos. LISITT lleva más de 20 años realizando proyectos para las administraciones de tráfico y transporte nacionales, entre los que destaca la Dirección General de Tráfico, el Ministerio de Fomento y sus homólogos autonómicos del Gobierno vasco y catalán. Actualmente LISITT es un grupo multidisciplinar (Lic. Física, Ing. de Caminos, Ing. Informáticos, Ing. Telecomunicaciones, Lic. Matemáticas, Lic. Geografía) que agrupa a más de 60 profesionales, todos ellos titulados superiores, entre profesores funcionarios, contratados y personal investigador propio y que se ha consolidado como grupo de referencia en temas de asesoría sobre telemática aplicada al transporte, en el desarrollo de sistemas ITS, y consultoría estratégica en temas de gestión y desarrollo de sistemas de tráfico. 

La labor realizada desde sus orígenes ha consolidado al LISITT como un grupo español de referencia en temas de asesoría sobre telemática aplicada al transporte, en el desarrollo de sistemas ITS, y consultoría estratégica en temas de gestión, desarrollo y mantenimiento de sistemas de tráfico para administraciones, como refleja el hecho que LISITT participa desde hace más de 10 años como asesores expertos representando a la Dirección General de Tráfico en diferentes comités de normalización nacionales e internacionales y en grupos europeos de trabajo sobre sistemas ITS, entre los que destacan el Comité Mundial de Normalización en sistemas ITS ISO/TC204, el Comité Europeo de Normalización de sistemas ITS CEN/TC278 y el Comité Español de Telemática aplicada al transporte y a la circulación por carretera AEN/CTN 159. Destacar también el papel jugado por el LISITT en la creación, asistencia y seguimiento del proyecto Euro-regional SERTI (1995 - 2006), del proyecto Euro-regional ARTS (1997 - 2006) y del proyecto europeo EasyWay (2007-2013). 

Aparte de estas actividades de consultoría en los grupos de normalización en el campo de los sistemas ITS, los proyectos más importantes de LISITT se agrupan en torno a los siguientes temas:

  • Consultoría a administraciones de tráfico sobre coordinación y organización de proyectos internacionales de control y gestión de tráfico.
  • Asistencia técnica a administraciones públicas en sistemas de gestión e información de tráfico.
  • Estudio, desarrollo y mantenimiento de sistemas de información de tráfico para administraciones públicas de tráfico.
  • Coordinación y ejecución de proyectos de I+D+i, tanto de la Unión Europea como de convocatorias nacionales.
  •  Análisis, diseño, construcción y desarrollo de sistemas de información para empresas privadas.
  • Seguridad informática, protección de datos y privacidad.
     
Grupo de Investigación en Laboratorio de Análisis Inteligente de Datos - IDAL

IDAL tiene como principal objetivo el estudio y aplicación de métodos inteligentes de análisis de datos para el reconocimiento de patrones, con aplicaciones en problemas de predicción, clasificación o determinación de tendencias.

Sus miembros aplican, a grandes bases de datos, métodos estadísticos clásicos y técnicas de aprendizaje automático: contraste de hipótesis, modelos lineales, selección y extracción de características más relevantes, redes neuronales, algoritmos de clustering, árboles de decisión, máquinas de vectores soporte, modelos gráficos probabilísticos, visualización por manifolds, lógica borrosa, aprendizaje reforzado, etc.

El fin último de la aplicación de estos métodos es la generación de modelos matemáticos que permitan la optimización de procesos y recursos, así como llegar a la toma de decisiones óptimas. Un claro ejemplo de lo comentado es el área de salud, donde IDAL ha desarrollado aplicaciones de ayuda a la decisión clínica basadas en el análisis de datos. Estas aplicaciones permiten mejorar la calidad de vida del paciente (estableciendo pautas de actuación clínica óptimas) al tiempo que reducen costes en el gasto sanitario.

Complementando este conocimiento, el grupo tiene una amplia experiencia en el procesado de señales (análisis espectral, filtrado digital, procesado adaptativo, etc.) por su trabajo de más de 10 años en el procesado de bioseñales (ECG y EEG principalmente). Con todo este background IDAL es capaz de analizar un amplio abanico de datos y señales. Este hecho queda refrendado por el gran número de contratos tanto privados como públicos que ha desarrollado en diferentes áreas del conocimiento. Además, la mayor parte de los trabajos prácticos realizados se han reflejado en importantes publicaciones científicas con altos parámetros de impacto y en un gran número de comunicaciones a congresos internacionales dentro del área de análisis de datos.

Entre las aplicaciones desarrolladas, (fuera del área de salud ya comentadas) se encuentran, entre otras, las siguientes: recomendadores web, modelos para la administración óptima de incentivos con el fin de fidelizar clientes, recomendadores de calzado basados en medidas, y otros trabajos de consultoría de análisis de datos. Además de su vertiente práctica IDAL, desarrolla nuevos algoritmos de análisis de datos mejorando las prestaciones de los existentes. Este trabajo de investigación se refleja también en una amplia difusión en forma de diferentes publicaciones en revistas de impacto y congresos relevantes para la comunidad científica del análisis de datos.

Grupo de Investigación en Laboratorio de Simulación y Modelado - LSyM

El grupo de investigación LSyM centra su actividad a desarrollar sistemas de simulación utilizando las más nuevas técnicas de Realidad Virtual. LSyM ha trabajado siempre buscando una estrecha colaboración con la empresa, obteniendo importantes resultados en el campo de la obra civil. El grupo forma parte del Instituto de Robótica y Tecnologías de la Información y las Comunicaciones (IRTIC) de la Universitat de València. 
Líneas de investigación: 

  • Integración de simuladores inmersivos en tiempo real: diseño de todos los elementos de un simulador, tanto el hardware como el software (modelos dinámicos de los objetos y los escenarios 3D). 
  • Desarrollo de Plataformas e-learning basadas en simulación 3D: tecnologías de simulación basadas en WebGL, y Unity-3D a fin de implementar entornos virtuales 3D ejecutables desde el navegador en diferentes plataformas computacionales. Uso de Moodle y otros estándares de e-learning 
  • Computación avanzada en unidades de procesamiento gráfico (GPUs): Desarrollo de programas de cálculo de ligas prestaciones basados en Cuda, OpenCL y shaders que se ejecutan en arquitecturas de redes de GPUs 
  • Modelado físico tiempo real: Desarrollo de modelos de simulación y de modelos de comportamiento colaborativo entre avatares. 

Campos de aplicación: 

  • Industrial: Sistemas de realidad virtual y aumentada en diferentes ámbitos industriales (transporte, sector ferroviario, construcción, sector marítimo, etc.).
  • Educación: Simulación de entornos formativos basada en web, plataformas e-learning para cursos de entrenamiento y evaluación.

Servicios a empresas y otras entidades: 

Asesoramiento técnico y consultoría sobre: 

  • Desarrollo de entornos virtuales con características de tiempo real para entrenamiento de operadores de maquinaria industrial, grúas, maquinaria de obra civil y vehículos.
  • Asesoramiento en la integración de simuladores de bajo-mediano-alto coste y en la elección del hardware apropiado para la aplicación. 
  • Diseño e implementación de sistemas de entrenamiento basados en el uso de simuladores en diferentes ámbitos (transporte, maquinaria pesada, controladores aéreos, etc.) y enfocados al aprendizaje de técnicas de prevención de riesgos.
  • Desarrollo de plataformas de e-learning
Grupo de Investigación en Opinión Pública y Elecciones - POpE

El grupo de investigación en Procesos Electorales y Opinión Pública se centra en analizar, estudiar y encontrar soluciones para todos los problemas y cuestiones relacionadas con los procesos electorales y/o la medición y seguimiento de la opinión pública, aplicando las técnicas cuantitativas más avanzadas.

Entre sus principales campos de investigación se encuentran (aunque no se limitan a ellos) los siguientes: generación de predicciones electorales, inferencia del comportamiento individual de los electores, análisis de encuestas y sondeos, la propuesta de nuevas aproximaciones metodológicas para mejorar, reduciendo costes, la calidad de los métodos de muestreo, análisis semántico de opiniones y monitorización del sentimiento en la red, el estudio de las consecuencias de la no-respuesta y los sesgos introducidos durante todo el proceso de inferencia, la solución a los vacíos en las bases de datos, la integración de información local y global en la obtención de respuestas multinivel, y el desarrollo de teoría estadística y metodología.

El enfoque que se aplica en el grupo de investigación en Procesos Electorales y Opinión Pública es abierto, no está limitado por ninguna aproximación metodológica concreta y hace uso extensivo de las fuentes de información. Así, empleamos técnicas frecuentistas y bayesianas, aplicamos desde sencillos modelos de regresión lineal hasta complejas aproximaciones basadas en redes neuronales, wavelets o modelos autobinomiales, utilizamos explícitamente el componente espacial y/o temporal de la información, realizamos simulación vía cadenas de Markov de Monte Carlo o directamente por métodos de Monte Carlo, y alimentamos a nuestros modelos con datos de encuestas, resultados electorales registrados, informaciones periodísticas, opiniones en la red y/o estadísticas oficiales.

Los miembros del grupo están abiertos a trabajar con otros grupos y con empresas e instituciones y animan a los analistas interesados a ponerse en contacto para explorar las posibles vías de colaboración.

Grupo de Investigación en Procesado de Señales e Imágenes - ISP

El grupo de investigación ISP, http://isp.uv.es, tiene una larga tradición en el análisis estadístico de datos procedentes de sistemas de imágenes. Estas mediciones dependen de las propiedades de las escenas y de la física del proceso de obtención de imágenes, y su relevancia depende del observador (natural o artificial) que vaya a analizar los datos. Nuestro enfoque diferenciado del procesamiento de señales, imágenes y visión combina la teoría del aprendizaje automático con la comprensión de la física subyacente y la visión biológica. Las aplicaciones se centran principalmente en la teledetección óptica y la neurociencia visual computacional. La inferencia estadística empírica, también conocida como aprendizaje automático, es un campo de la informática interesado en hacer predicciones y modelos a partir de observaciones y datos sensoriales. Las herramientas de procesamiento de información en el aprendizaje automático son fundamentales para entender la función de las redes neuronales naturales involucradas en la visión biológica, así como para hacer inferencias en sistemas de redes dinámicos complejos, como la biosfera, la atmósfera y los ecosistemas terrestres. 

Los problemas de la neurociencia visual y de las geociencias basadas en la teledetección requieren herramientas matemáticas similares. Por ejemplo, ambos campos científicos se enfrentan a problemas de inversión y comprensión de modelos. En ambos casos, se tiene un complejo modelo directo que es difícil de invertir (para extraer información), ya sea porque no es analíticamente invertible (indeterminado) o porque las mediciones (o respuestas) son ruidosas por naturaleza. En la teledetección, el modelo directo es el proceso de obtención de imágenes dadas ciertas condiciones de estado en la superficie y la atmósfera. En la neurociencia visual, el modelo directo incluye lo que se conoce en la vía neuronal desde la retina hasta las diferentes regiones de la corteza visual. La inversión de estos modelos es clave para hacer inferencias cuantitativas y significativas sobre el sistema subyacente que generó los datos observados. Más allá de esta evaluación cuantitativa, también es obligatoria una interpretación cualitativa de los modelos propuestos. La comprensión cualitativa es más difícil que la predicción, y la inferencia causal a partir de datos empíricos es el terreno de juego común tanto en geociencia como en neurociencia. Las observaciones y grabaciones simultáneas de un fenómeno dan lugar a señales multidimensionales que pueden mostrar una fuerte correlación estadística entre los componentes. Sin embargo, la correlación no es suficiente para establecer relaciones de causa-consecuencia. Esto es clave a la hora de analizar la activación y la inhibición en la comunicación entre las diferentes regiones del cerebro, y también es de suma importancia para estudiar las causas, los efectos y los factores de confusión de las variables climáticas esenciales para la detección y atribución en la ciencia del clima. Por último, otro paralelismo es el análisis de los grandes datos visuales: las imágenes hiperespectrales adquiridas por los sensores satelitales actuales y futuros plantean un problema de procesamiento de la información de grandes datos de forma similar al del cerebro visual. La adaptación, el reconocimiento de patrones, la inferencia y la toma de decisiones en el cerebro pueden ser bastante inspiradores para el análisis de imágenes de teledetección. 

Por ello, el grupo se organiza en una rama de investigación teórica (A) y otra más aplicada (B). El núcleo de aprendizaje automático teórico aborda la inversión de modelos, la interpretación, la inferencia causal a partir de datos empíricos y la inclusión de restricciones físicas y conocimientos previos en grandes datos visuales. Las líneas de investigación aplicadas se dedican a aplicar y adaptar los desarrollos teóricos para la teledetección, las geociencias y la neurociencia visual. En aras de la simplicidad, hemos agrupado estas actividades en cinco líneas de investigación conceptuales: aprendizaje automático, neurociencia visual, procesamiento de imágenes, teledetección y procesamiento de grandes datos.