banner

Site menu:

Oferta de proyectos fin de máster

  1. Plataforma web para la elaboración visual de consultas flexibles sobre Bases de Datos Difusas
    • Tutor: Juan Miguel Medina Rodríguez
    • Alumno:
    • Resumen: Uno de los aspectos en los que la Inteligencia Artificial ha contribuido a la evolución del área de las Bases de Datos es la incorporación de mecanismos para el almacenamiento y recuperación de información imprecisa y/o incierta. Ello ha dado origen a diversas propuestas de Bases de Datos Difusas. En el seno del grupo de investigación IDBIS, se han desarrollado varias de estas propuestas basadas en modelos relacionales, lógicos, orientados a objeto y relacionales-orientados a objeto. En esta última categoría se encuadra la propuesta de un O-RDBMS denominado Soft Database Server (SDS), que se encuentra implementado como prototipo sobre un ORDBMS comercial (Oracle 10.x o superior).

      Las capacidades incorporadas en estos SBDs para el tratamiento flexible de la información, tanto en almacenamiento como en recuperación, están disponibles para el usuario a través de extensiones de SQL que incorporan nuevas sentencias y cláusulas para su manejo. Sin embargo, dicha sintaxis oculta al usuario novel las capacidades de estos sistemas para expresar sus preferencias en cuanto los conceptos imprecisos que desea trasladar al sistema y a la hora de elaborar consultas que permitan recuperar de forma flexible la información que responde a sus criterios de búsqueda.

      Por ese motivo, se ha planteado como trabajo de investigación tutelada el desarrollo de una aplicación web que proporcione al usuario novel una plataforma accesible mediante un navegador web a través de la cual elaborar y ejercitar de forma visual consultas flexibles sobre varias bases de datos ejemplo.

      El sistema estará integrado por nuestro motor de BDs Objeto-Relacionales Difusas (SDS) y por la aplicación web que desarrollará el alumno, que interactuará con dicho motor y que implementará herramientas de edición visual para editar etiquetas lingüísticas y relaciones de semejanza que permitan expresar los conceptos subjetivos de cada usuario que use la plataforma. Así mismo, ofrecerá mecanismos visuales para elaborar de forma intuitiva consultas flexibles sobre una serie de bases de datos ejemplo. De esta forma se brindará al usuario novel la posibilidad de acercarse al dominio de las bases de datos difusas de una forma más próxima a como éste maneja la información imprecisa en su ámbito natural.

      El desarrollo del trabajo precisará, por parte del alumno, la familiarización con los conceptos de las BD difusas y con aspectos avanzados de su implementación. También requerirá el uso de herramientas heterogéneas de programación y de la definición de interfaces de usuario creativos para facilitar el uso de la aplicación. Los rendimientos científico-técnicos obtenidos con el desarrollo del proyecto van a situar al alumno en un buen punto de partida para continuar, si así lo desea, sus trabajos de formación investigadora en esta línea.

    • Línea de investigación: Tratamiento de la Información en Bases de Datos para Sistemas Inteligentes
  2. Análisis de Big Data con (Fuzzy) Rough Sets
    • Tutores: Francisco Herrera Triguero y Chris Cornelis
    • Alumno:
    • Resumen: Dentro de la informática actualmente hay un gran interés en diseñar métodos capaces de manejar “big data”, es decir: colecciones extensas de datos, superando a menudo la escala Peta y incluso Exa, para las que los métodos convencionales de almacenamiento, manejo y procesamiento de datos ya no son factibles. Para abordar este tipo de problemas, se necesita una paralelización masiva; probablemente, el ejemplo más conocido es MapReduce: un marco originalmente propuesto por Google (Dean y Ghemawat, 2004) para procesar conjuntos de datos enormes en ciertos tipos de problemas distribuibles usando un gran número de nodos informáticos.

      En este trabajo fin de máster, pretendemos aplicar el modelo MapReduce a la teoría de los Rough Sets (RST; Pawlak, 1982). Los rough sets caracterizan un conjunto de objetos usando una aproximación inferior y superior, teniendo en cuenta una relación de equivalencia que representa la indiscernibilidad entre los objetos. Específicamente, un objeto x pertenece a la aproximación inferior de un conjunto A si todos los objetos relacionados con xpertenecen a A, y a la aproximación superior si por lo menos un objeto relacionado con x pertenece a A. Los rough sets se han aplicado mayormente en el análisis de datos, donde se usan por ejemplo en la reducción de datos y la inducción de reglas. Además, los rough sets se han hibridado con éxito con los fuzzy sets (Zadeh, 1965), un paradigmo de la inteligencia artificial para manejar información imprecisa. Los fuzzy rough sets (FRST) permiten modelar la imprecisión tanto en la relación de indiscernibilidad como en los conceptos para que se busca una aproximación. Actualmente, el interés en FRST va creciendo, gracias en mayor parte por su potencial de aplicación demostrado en el aprendizaje automático, en particular en la selección de características (vease p.e. Cornelis et al., 2010) y en la selección de instancias (Verbiest et al., 2013).

      Los algoritmos de RST, y sus extensiones al FRST frecuentemente necesitan cálculos con matrices, los cuales se prestan bien a la paralelización. Por tanto, se dejan manejar bien por una implementación con MapReduce. En particular, el cálculo de las aproximaciones superior y inferior usando la plataforma Hadoop >a se consideró en (Zhang et al., 2012). En este trabajo fin de master, se pretende extender la metodología a FRST, por un lado, y a la reducción de datos, por otro lado.

    • Línea de investigación: Soft Computing: Hibridación y Aplicaciones
  3. Predicción de enlaces en redes. Técnicas y aplicaciones.
    • Tutores: Fernando Berzal Galiano y Juan Carlos Cubero Talavera
    • Alumno: Víctor Martínez Gómez
    • Resumen: La mayor parte de las técnicas de Data Mining desarrolladas durante la última década están diseñadas para trabajar con bases de datos transaccionales y bases de datos relacionales. Sin embargo, muchas aplicaciones, tanto científicas como empresariales, requieren el análisis de patrones más complejos, a los que no se puede acceder fácilmente por estar disponibles en fuentes de información que, o bien no están estructuradas, o bien no se conoce su estructura de antemano.  Una red (cuya interpretación no tiene por qué ser estrictamente "social") no es más que un conjunto de datos heterogéneo y multi-relacional que puede representarte como un grafo, con nodos para representar objetos, aristas para modelar enlaces o relaciones entre objetos y atributos que pueden etiquetar tanto nodos como aristas. Las redes pueden ser útiles para modelar problemas biológicos o económicos de gran importancia (p.ej. la expansión de enfermedades infecciosas o el funcionamiento de redes de distribución eléctrica), aparte de fenómenos sociales propiamente dichos (como pueden ser la existencia de enlaces entre páginas webs y weblogs, la aparición de citas en artículos científicos, o el intercambio de mensajes electrónicos o llamadas telefónicas). La importancia del análisis de estos tipos de redes se debe, entre otros muchos factores, a que su topología puede afectar a su comportamiento. Por desgracia, las técnicas tradicionales de minería de datos no resultan adecuadas para resolver problemas en este ámbito, por lo que se hace necesario el desarrollo de nuevas técnicas que tengan en cuenta tanto una perspectiva estática del problema analizado (esto es, las propiedades estructurales de un sistema complejo) como las interacciones existentes entre los elementos de un sistema (es decir, su comportamiento dinámico).
    • Línea de investigación: Minería de datos
  4. Estudio y aplicación de algoritmos de entrenamiento y optimización a redes neuronales recurrentes dinámicas
    • Tutora: Mª Carmen Pegalajar
    • Alumno:
    • Resumen: En los últimos años se han desarrollado multitud de algoritmos de entrenamiento y optimización para redes feedforward, en cambio para redes recurrentes dinamicas no ocurre lo  mismo, y queda mucho por estudiar y aplicar tanto en algoritmos de entrenamiento como en óptimización en este tipo de redes.
    • Línea de investigación: Soft Computing: Hibridación y Aplicaciones
  5. Inferencia de automatas difusos
    • Tutora: MªCarmen Pegalajar
    • Alumno:
    • Resumen: La inferencia gramatical es una técnica que ha sido muy estudiada en los últimos años, dando grandes resultados en muchas aplicaciones tales como reconocimiento de patrones, control, etc. En cambio no es así para datos difusos, por esta razón se propone  un proyecto para estudiar el desarrollo de diferentes métodos para inferrir autómatas difusos.
    • Línea de investigación: Soft Computing: Hibridación y Aplicaciones
  6. Desarrollo y aplicación de hesitants lingüísticos en la toma de decisiones
    • Tutor: Francisco Herrera
    • Alumna: Susana González Tenorio
    • Resumen: En el ámbito de la toma de decisión es frecuente el uso del enfoque lingüístico que utiliza la teoría de conjuntos difusos para representar las etiquetas lingüísticas, y para su procesamiento. El Enfoque Lingüístico Difuso usa palabras definidas en un lenguaje natural que permite expresar información imprecisa con variables lingüísticas, menos precisas y más flexibles que las numéricas. A lo largo de estos años se han desarrollado diferentes metodologías de computación con palabras para el  procesamiento de la información cuantitativa  (aproximativas, simbólicas, …).
      Recientemente se han propuesto los conjuntos difusos Hesitants (Torra and Narukawa, 2009) y su extensión al ámbito lingüístico (Rodríguez et al, 2012).
      En la presente propuesta de trabajo fin de master se pretende estudiar el estado del arte de los hesitant lingüísticos, analizar los modelos de uso en toma de decisiones, extensiones para procesar la  información representada, así como el análisis de potenciales aplicaciones.
      V. Torra, Y. Narukawa: On hesitant fuzzy sets and decision, IEEE International Conference Fuzzy Systems, pp. 1378–1382, 2009.
      R.M. Rodríguez, L. Martínez, F. Herrera: Hesitant Fuzzy Linguistic Term Sets for Decision Making. IEEE Transactions on Fuzzy Systems, vol.10 (1), pp. 109–118, 2012.
    • Línea de investigación: Minería de datos
  7. Estudio y desarrollo de modelos de clasificación monotónica con técnicas de Soft Computing
    • Tutores: Francisco Herrera y Salvador García
    • Alumna: Brenda Parra del Campo
    • Resumen: En el ámbito de  los problemas de clasificación surge un tipo de problema específico llamado "clasificación monotónica" donde existe una relación monotónica en los pares atributo-clase. Éste es un caso específico de la clasificación ordinal, donde se considera un orden entre las clases,  donde encontramos restricciones de monotonía entre características y clases asociadas.
      En la presente propuesta de trabajo fin de master  se pretende estudiar el estado del arte de las propuestas  de clasificación monotónica y desarrollar nuevos modelos basados en técnicas de Soft Computing.
    • Línea de investigación: Minería de datos
  8. Algoritmos de Clasificación basados en modelos One-class y técnicas de Soft Computing
    • Tutores: Francisco Herrera y Pedro Villar
    • Alumno:
    • Resumen: Recientemente han surgido diferentes propuestas en el ámbito de clasificación que se centran en el análisis de las clases de forma independiente, los modelos llamados One-Class. A partir de la caracterización de cada una de las clases se diseñan procesos de integración de los modelos que caracterizan a una clase y agregan esta  información para obtener un modelo de clasificación multiclase.
      En la presente propuesta de trabajo fin de master  se pretende estudiar el estado del arte de las propuestas  de clasificación multiclase basadas en One-class y  desarrollar nuevos algoritmos de clasificación y agregación basados en técnicas de Soft Computing.
    • Línea de investigación: Minería de datos
  9. Optimización de parámetros en el reconocimiento de música basado en landmarks relativos.
    • Tutores: Francisco Herrera y Salvador García
    • Alumno: Salvador Gutiérrez Salcedo
    • Resumen: La globalización, las comunicaciones, el avance tecnológico y el acceso de este último a gran parte de la población han hecho que la cantidad de música que se genera en la actualidad haya crecido de forma exponencial. Esto ha generado la necesidad de la búsqueda e identificación instantánea de canciones a partir de muestras cortas de audio capturada por el usuario. Aunque en la actualidad existen servicios comerciales para tal fin, son soluciones genéricas que no satisfacen las necesidades que se adapten mejor a cada tipo de usuario.
      En la presente propuesta de trabajo fin de master se pretende desarrollar un algoritmo que permita indexar una colección musical con el fin de ser consultada con muestras de audio para su identificación en tiempo real. Para ello, primero se estudiará el estado del arte en técnicas de captura, muestreado y adquisición de landmarks que constituyen la huella de cada canción. Después, se usarán técnicas de Soft Computing para la optimización de parámetros que condicionan la selección y relación de dichos landmarks en cada canción, con el objetivo de enfocar el reconocimiento hacia una mayor robustez al ruido ambiente y a la tipología sonora del estilo de música.
    • Línea de investigación: Minería de datos
  10. Desarrollo de una plataforma web para la integración y análisis de mutaciones puntuales y patrones de expresión génica
    • Tutores: Armando Blanco y Pedro Carmona (Centro de Genómica e Investigación Oncológica, GENYO)
    • Alumno:
    • Resumen: Durante los últimos años la investigación biomédica ha sufrido una enorme revolución gracias al desarrollo de metodologías analíticas de alto rendimiento. Estas nuevas técnicas están generando cantidades ingentes de datos que nos están permitiendo caracterizar y analizar los mecanismos moleculares asociados a distintas patologías.
      No obstante, la gran cantidad de datos generados hace necesario del desarrollo de metodologías eficientes para su almacenaje, análisis e interpretación. Esto ha conllevado a un desarrollo enorme del campo de la bioinformática y es en este marco donde se plantea el presente proyecto.
      En este proyecto se pretende desarrollar una herramienta basada en tecnologías web para evaluar la asociación entre mutaciones puntuales (SNPs) y perfiles de expresión génica. La herramienta se desarrollará usando el framework de Ruby on rails y el lenguaje de programación Ruby. A través de un formulario de entrada se permitirá a los investigadores cargar los datos a analizar y estos se procesaran mediante diferentes funciones estadísticas de R y se presentarán los resultados y gráficas mediante un reporte web.
    • Línea de investigación: Soft Computing: Hibridación y Aplicaciones
  11. Aplicación de técnicas de softcomputing al preprocesamiento de una señal proveniente de un electrocardiograma
    • Tutora: MªCarmen Pegalajar
    • Alumno:
    • Resumen: Gran variedad de técnicas de softcomputing se han aplicado a la detección del latido a partir de una señal proveniente de un electrocardiograma, pero generalmente se han enfocado a la reducción del ruido en el ECG. Existen diversas maneras de afrontar el problema y ninguno de ellos se establece como universal a todas las fuentes de ruido. Desde el punto de vista médico, la posibilidad de  disponer de herramientas que a partir de señales de superficie, puedan realzar enfatizando la actividad auricular es muy interesante, pues puede proporcionar  el desarrollo de técnicas no invasivas de ayuda al diagnóstico clínico, detección de patologías, distintas manifestaciones de fibrilación auricular, etc. En este trabajo se pretende realizar un estudio del arte asociado a los métodos de soft computing que se han aplicado hasta el momento y el desarrollo de nuevas técnicas.
    • Línea de investigación: Soft Computing: Hibridación y Aplicaciones
  12. Desarrollo de técnicas de Minería de Datos para la descripción lingüística de series de datos temporales
    • Tutores: Nicolás Marín Ruíz y Daniel Sánchez Fernández
    • Alumno:
    • Resumen: Las técnicas de Minería de Datos son las encargadas de, a partir de grandes volúmenes de datos, extraer información de calidad, breve, nueva, inesperada y, por lo tanto, potencialmente útil.  El uso de esta información apoya el soporte de ayuda a la decisión en empresas que, presumiblemente y de forma visible, presentarán una mayor evolución en el mercado en comparación con aquellas otras que no la usen. La descripción lingüística en el contexto de la minería de datos es un tema de alto interés y actualidad.
      Las técnicas de análisis de series de datos temporales han sido ampliamente estudiadas a lo largo de la historia, sobre todo encaminadas hacia la predicción o el pronóstico de eventos o tendencias. En la actualidad se dedica mayor atención a las técnicas de minería de datos aplicadas a las series de datos temporales con la intención de describir o resumir la información contenida en la misma. La idea de realizar los resúmenes usando el lenguaje natural viene motivada por la necesidad de optimizar la comprensión de dichos resúmenes por parte de los usuarios finales, haciendo que éstos sean más fáciles de manejar y en consecuencia más útiles.
      El uso de técnicas de Soft Computing, especialmente el paradigma de Computación con Palabras propuesto por L.A. Zadeh, es especialmente adecuado para la generación de descripciones lingüísticas de datos, permitiendo modelar el significado de los términos lingüísticos empleados en las descripciones, así como el grado de cumplimiento de determinadas expresiones lingüísticas (protoformas) empleadas en la descripción. Otras técnicas de Soft Computing, como los algoritmos genéticos multiobjetivo, han sido también empleadas para explorar el espacio de posibles resúmenes y determinar los más adecuados para los objetivos del usuario.
      El objetivo que se pretende en esta propuesta es el desarrollo de técnicas para la consecución de resúmenes lingüísticos de series de datos temporales que imiten aquellos que podrían haber sido producidos por seres humanos, dentro de una línea de trabajo en marcha que ha producido una tesis doctoral y diversas publicaciones en los últimos cuatro años. Los resultados previos obtenidos en el grupo de investigación se han centrado en la descripción y comparación de series de datos temporales basadas en el valor de la serie, así como descripción en base a tendencias locales. La presente propuesta consiste en la adaptación de las técnicas existentes al caso de otros aspectos como tendencias globales, periodicidad, etc.  
    • Línea de investigación: Minería de datos
  13. Evaluación de usabilidad de bibliotecas digitales
    • Tutor: Juan Manuel Fernández Luna
    • Alumno:
    • Resumen: Las bibliotecas digitales son sistemas de información que permiten gestionar y preservar recursos digitales, así como posibilitar el acceso a los mismos. El diseño de estos sistemas tiene que hacerse siempre pensando en el usuario, por lo que es de vital importancia el interfaz de usuario tenga un alto grado de usabilidad. En este trabajo de fin de máster, se propone un estudio de usabilidad de alguna biblioteca digital, haciendo un estudio del estado del arte, para seguidamente proponer una metodología de evaluación específicamente diseñada para biblitecas digitales. Finalmente, será aplicada con objeto de evaluar una biblioteca digital de forma completa.
    • Línea de investigación: Tecnologías Web y Procesamiento de Información
  14. Aplicación de métodos combinados de clasificación basados en probabilidades imprecisas sobre bases de datos con ruido
    • Tutores: Joaquín Abellán y Carlos Mantas
    • Alumno:
    • Resumen: En los últimos años, se ha trabajado en la conexión entre las probabilidades imprecisas, medidas de incertidumbre y minería de datos. Un conjunto de datos o base de datos, representa una información sobre una o más variables en estudio. Las distintas teorías matemáticas de probabilidades imprecisas, permiten representar de forma diferente esta información y a partir del uso de medidas de información o incertidumbre es posible cuantificar ésta. Con este procedimiento como herramienta base, es posible definir métodos de clasificación, regresión, selección y eliminación de variables, eliminación y filtrado de datos con errores, etc. Los métodos basados en probabilidades clásicas son normalmente bien aplicados en las distintos herramientas de la minería de datos, lo que suele ocurrir es que la ausencia de información perfecta, motivada por escaso tamaño de los datos, errores, etc, hace que la aplicación de probabilidades imprecisas de lugar a métodos más robustos para inferencia y toma de decisiones. En el proceso real de recolección de datos es frecuente la aparición de errores (ruido) debido a diferentes motivos. Nuestro objetivo en este TFM será el de desarrollar técnicas basadas en probabilidades imprecisas en entornos donde se presentan diferentes niveles de ruido en los datos. Se ha demostrado que los clasificadores combinados obtienen buenos resultados en este entorno pero nunca se han aplicado junto con métodos basados en probabilidades imprecisas. Concretamente, en este trabajo se propone presentar métodos de clasificación basados en probabilidades imprecisas que de forma combinada se apliquen sobre bases de datos con distintos niveles de ruido.
    • Línea de investigación: Minería de datos
  15. Métodos basados en probabilidades imprecisas para el filtrado de datos con ruido.
    • Tutores: Joaquín Abellán y Carlos Mantas
    • Alumno:
    • Resumen: En los últimos años, se ha trabajado en la conexión entre las probabilidades imprecisas, medidas de incertidumbre y minería de datos. Un conjunto de datos o base de datos, representa una información sobre una o más variables en estudio. Las distintas teorías matemáticas de probabilidades imprecisas, permiten representar de forma diferente esta información y a partir del uso de medidas de información o incertidumbre es posible cuantificar ésta. Con este procedimiento como herramienta base, es posible definir métodos de clasificación, regresión, selección y eliminación de variables, eliminación y filtrado de datos con errores, etc. Los métodos basados en probabilidades clásicas son normalmente bien aplicados en las distintos herramientas de la minería de datos, lo que suele ocurrir es que la ausencia de información perfecta, motivada por escaso tamaño de los datos, errores, etc, hace que la aplicación de probabilidades imprecisas de lugar a métodos más robustos para inferencia y toma de decisiones. En el proceso real de recolección de datos es frecuente la aparición de errores (ruido) debido a diferentes motivos. Nuestro objetivo en este TFM será el de desarrollar técnicas basadas en probabilidades imprecisas en entornos donde se presentan diferentes niveles de ruido en los datos. Concretamente, en este trabajo se propone presentar métodos basados en probabilidades imprecisas que eliminen registros conflictivos (métodos de filtrado previo) para una posterior aplicación de diferentes métodos de clasificación sobre la base de datos “limpia”.
    • Línea de investigación: Minería de datos
  16. Refinamiento de un sistema basado en optimización de colonias de hormigas para descubrir rutas de evacuación
    • Tutor: Raúl Pérez Rodríguez
    • Alumno: Avilés del Moral, Alejandro
    • Resumen: ERAM (Evacuation Routing using Ant Colony Optimization over Mobile ad hoc networks) es un sistema que propone una estrategia multiagente para descubrir y optimizar rutas de evacuación bajo demanda de forma dinámica. Aprovechándose de planteamientos bioinspirados en colonias de hormigas aplicados a redes ad hoc móviles, ERAM tiene como objetivo la adaptatibilidad e independencia del entorno físico, confiando exclusivamente en el conocimiento de las personas durante evacuaciones masivas en donde las infraestructuras de telecomunicaciones pueden no estar disponibles.

      Dicho conocimiento es introducido en el sistema cooperativo, tanto activamente por los usuarios marcando haber llegado a una zona segura, como pasivamente, por todos los smartphones almacenando su propio movimiento. En este sistema, los agentes usan un mecanismo de comunicación indirecto llamado "estigmergia", un comportamiento típico de los insectos sociales para moverse hacía zonas seguras. Una vez una agente localiza una zona segura, recorre el trayecto hacia atrás, recopilando información geográfica de los nodos intermedios para componer una ruta de evacuación al llegar al nodo inicial. Durante el viaje de vuelta, aplica un algoritmo basado en colonias de hormigas, los agentes segregan un rastro para guiar así a los subsiguientes agentes, reforzando en función del tiempo estimado las rutas físicas cuasi-óptimas.

      Un análisis exhaustivo sobre el sistema ERAM muestra que es posible mejorar y ampliar sus funcionalidades para acercar su comportamiento a situaciones más próximas al mundo real.  El objetivo de este proyecto consiste en ampliar la funcionalidad de este sistema. En concreto, las mejoras irían orientadas básicamente en las siguientes dos líneas de actuación:

      (1) Mejora de la herramienta de simulación: aunque funcional y con cierto margen de configuración, no permite el control total de todos los parámetros ni es capaz de resolver escenarios de gran tamaño muestral en tiempo aceptable. El objetivo de esta línea de trabajo sería la mejora de las capacidades de la herramienta, tanto en eficiencia como en posibilidades de configuración.

      (2) Refinamiento del funcionamiento del framework: El funcionamiento del framework depende en gran medida de los tres pesos que definen el valor de feromona en un nodo. Los resultados que arrojó el primer estudio que se hizo eran prometedores, pero la visualización de las simulaciones pone de manifiesto que algunos aspectos podían ser mejorados. El uso de técnicas de optimización (tales como algoritmos genéticos o optimización por enjambre de particulas) puede ser una vía para realizar una mejor estimación de estos valores, dejando abierta la posibilidad (en función de los resultados experimentales), de dotar al sistema de la capacidad de autoajustar estos parámetros durante el proceso de evacuación.

    • Línea de investigación: Minería de datos
  17. Mapeo de regiones complejas del genoma humano a partir de lecturas de secuenciación de nueva generación
    • Tutores: Manuel Gómez y Fuencisla Matesanz
    • Alumno:
    • Resumen:En los últimos años se han desarrollado nuevas técnicas para secuenciar el genoma de los distintos organismos, NGS. Esto ha supuesto un gran avance para la biología y un reto importante para la bioinformática. El genoma se compone de una sucesión de nucléoticos (adenina, guanina, citosina y timina). Estos 4 nucléotidos se combinan dando origen a una secuencia que contiene la información genética de los organismos. El genoma humano se compone de 6000 millones de estos nucleótidos. La lectura de este genoma, por medio de técnicas de NGS, se realiza en fragmentos pequeños de 70-300 nucleótidos. Estos fragmentos se mapean contra la secuencia conocida del genoma humano, de esta forma podemos determinar el orden en que se suceden los nucleótidos a lo largo del genoma y conocer aquellas variaciones particulares de cada individuo. Algunas regiones del genoma presentan múltiples variaciones con lo que el mapeo supone un reto. En este proyecto intentaremos resolver el mapeo de regiones compleja del genoma humano.  En este proyecto el estudiante deberá construir distintos genomas de referencia, de acuerdo a la variabilidad de las regiones a estudio, y realizar el mapeo (de forma conveniente), utilizando las herramientas de software libre disponibles (bowtie, tophat, cufflinks). Para la implementación de los algoritmos se recomienda la utilización de lenguajes agiles, como pueden ser groovy, python, perl o ruby (a eleccion del estudiante). La ejecución de estas tareas se realizara en entorno Linux, por lo que es requisito indispensable tener conocimientos en el uso del shell y scripts asociados.
    • Línea de investigación: Fundamentos y Aplicaciones de Bioinformática
  18. Estudio analítico de modelos de asociación entre SNPs en enfermedades complejas
    • Tutores: Andrés Cano y Manuel Gómez
    • Alumno:
    • Resumen: Los estudios de genoma completo en enfermedades complejas nos proporcionan datos del genoma humano de muy alta dimensionalidad en los que muchas variables del genoma influyen pero de forma muy reducida en el desarrollo de la enfermedad. Para modelar la interacción de estas variables y asociar los modelos con nuevas rutas biológicas que los expliquen, a menudo se requiere de la combinación de herramientas de aprendizaje automático con el conocimiento del experto para reducir el espacio de búsqueda. Los modestos resultados conseguidos hasta el momento y su enorme dificultad de validación experimental nos llevan a cuestionar el planteamiento base de la investigación que se realiza para descifrar las bases poligénicas de las enfermedades complejas. Por ello proponemos como objetivo principal de este proyecto la realización de un estudio analítico bidimensional que nos permita explorar las posibilidades de distintas soluciones de aprendizaje automático de modelos poligénicos de asociación en enfermedades complejas, siendo una dimensión el grado de conocimiento experto introducido y otra la complejidad del modelo. Los resultados de este estudio esperamos permitan sentar las bases para un proyecto más ambicioso de análisis poligénico de genoma completo.
    • Línea de investigación: Fundamentos y Aplicaciones de Bioinformática

 

Máster: Soft Computing y Sistemas Inteligentes
Mapa Web
sugerencias
Dpto. Ciencias de la Computación e Inteligencia Artificial
E.T.S. Ingeniería Informática y de Telecomunicaciones
Universidad de Granada
 
¡CSS Válido!   Valid XHTML 1.1   AAA validation