Docencia: Trabajos Fin de Máster Dirigidos

Modificado el 19 de Noviembre de 2017

Aquí solo se muestran los Trabajos de Fin de Máster presentados. Puedes encontrar propuestas en esta otra página...


Búsqueda de Correlaciones en Textos

Autor: Andrés Fernández García
Resumen: El principal objetivo del proyecto es encontrar correlaciones en los textos que nos permitan, por un lado, realizar un análisis de sentimientos y, por otro, realizar la búsqueda de semejanzas entre diferentes textos. Para llevar a cabo este objetivo, se ha recopilado información con estructuras diferentes, desde tweets de 140 caracteres hasta noticias completas, pasando por frases o refranes. A continuación se han usado técnicas para el análisis de sentimientos y la búsqueda de correlación entre distintos textos, de modo que se pueda, por un lado, clasificar tweets entre positivos y negativos, correlacionarlos con una frase o refrán; y por otro lado, a partir de noticias de dos periódicos diferentes, ser capaz de relacionar las que están "hablando" del mismo tema. 
Directores: Fernando Sancho Caparrini
Material:

Estudio de Técnicas de Análisis de Sentimiento en el Ámbito de la Reputación online de las empresas

Autor: Gabriel Muñoz Ríos
Resumen: Viendo cómo Internet facilita el crecimiento del volumen de opiniones en tantos y diversos temas, pensamos que sería interesante analizar de qué manera estas opiniones pueden afectar a un tema crucial para las empresas y marcas, su reputación. Este trabajo que aquí­ se presenta tiene como foco analizar el impacto de las marcas empresariales que puede medirse en Internet, en concreto nos centraremos en una parte de la reputación conocida como reputación online de una marca. 
Directores: Fernando Sancho Caparrini
Material:

Gamificación de Sistemas Multi-Agente con Aplicación de la Ciencia del Dato

Autor: David Solís Martín
Resumen: Actualmente, la ciencia del dato y en concreto las técnicas de machine learning están en pleno auge. La generación de grandes cantidades de datos y la evolución tecnológica que posibilidad el procesado y extracción de nuevo conocimiento de estos datos abren nuevas puertas a la investigación y/o en el mundo de los negocios (gracias a la gestión más potente de la Inteligencia de Negocio). Por otro lado, en las últimas décadas se han estado creando un gran número de modelos de multiagencia. A partir de estos modelos se han implementado plataformas (muchos disponibles en Internet), que poseen un potencial considerable para extraer conocimiento a través de la unión de la inteligencia colectiva y el posterior análisis de los datos. El presente trabajo aúna las circunstancias anteriormente mencionadas, partiendo de la idea de gamificar los modelos existentes como una idea de negocio o germen de posible línea de investigación.
Directores: Joaquín Borrego Díaz, Fernando Sancho Caparrini
Material:

Multi-agent environment to support UAVS operations

Autor: Juan Jesús Ruíz Pavón
Resumen: UAVs are usually considered as safety-critical systems. As a result, the presence of a human operator will continue for some time to be essential in task completion, particularly in complex domains, instances of system failures or automation indecision. As technology in UAVs evolves, it is envisioned that a single operator will be able to supervise a multi-vehicle operation. This requirement supports the idea of not just designing more autonomous vehicles, but also working to improve the quality and innovation of the UAV interface. Research in this area has been limited to traditional interfaces, but recent literature refers to 3D virtual environments and multimodal interfaces like a way to go to improve performance in multi-vehicles operations.
Directores: Fernando Sancho Caparrini
Material:

Simulación Urbana con GAMA: Modelado con Sistemas Multiagente y Sistemas de Información Geográfica

Autor: Zoila de Lourdes Ruíz Chávez
Resumen: El presente trabajo analiza la plataforma GAMA como ejemplo de framework que integra ambas soluciones y muestra el modelado de un problema real contemplando todos los escenarios que intervienen en la realidad a ser modelada en dicha plataforma. Esta plataforma permite realizar muchísimos tipos de modelados, diversas opciones de comportamientos de los agentes e integración con las capas temáticas que intervienen como escenarios donde se desenvuelven los agentes. Nos centraremos principalmente en aquellas partes que consideramos  más  novedosas,  proporcionando  únicamente  una información superficial y breve de las más comunes.
Directores: Fernando Sancho Caparrini
Material:

Sistemas Visuales de Consulta en Bases de Datos Orientadas a Grafos con Esquema

Autor: Jaime Oswaldo Salvador Meneses
Resumen: En los últimos años la información almacenada en los sistemas informáticos se la ha gestionado utilizando una representación relacional, dejando de lado la información semántica representada de forma implícita. Este hecho, sumado al gran volumen y a la variedad que presenta, ha constituido un limitante a la hora de realizar análisis de la información. Este trabajo presenta una forma no tradicional de tratamiento de la información en la que la principal característica es la representación en forma de grafo. Para esto, se hace uso de un sistema de almacenamiento orientado a grafos y se desarrolla una aplicación que permite definir un esquema y realizar consultas utilizando traversals sobre una base de datos orientada a grafos.
Directores: Fernando Sancho Caparrini
Material:

Simulación Social

Autor: Edgar Iván Medina Carranco
Resumen: El estudio de los fenómenos sociales resulta de mucho interés, sin embargo, estudiarlos formalmente presenta dificultades. Al tratarse de problemas no lineales, las matemáticas formales a través de las estadísticas o sistemas de ecuaciones diferenciales dan resultados limitados. Las técnicas de simulación por ordenador representan cada vez con mayor fuerza la manera de adquirir conocimientos sobre dichos fenómenos. En el marco de estas técnicas los modelos basados en agentes en los últimos años han ganado protagonismo. Un modelo basado en agentes es un programa para ordenador en el que se definen entes, los agentes, que siguen reglas de comportamiento e interactúan entre sí. Estos entes pueden representar personas, grupos de personas, animales, objetos, relaciones, incluso sentimientos, por lo que las posibilidades son ilimitadas..
Directores: Fernando Sancho Caparrini
Material:

Estimación de Parámetros en Ecuaciones Diferenciales Ordinarias. Aplicación de la Optimización por Enjambres de Partículas

Autor: Giovanny Guerrero Suárez
Resumen: Uno de los problemas más importantes en las ecuaciones diferenciales, ordinarias o en derivadas parciales, asociadas al modelamiento de algún problema o fenómeno de interés, es la estimación de los parámetros que intervienen y cuán sensibles son en cuanto a la solución del problema. La estimación y condiciones que estos parámetros deben cumplir en modelos de poblaciones, por ejemplo, puede garantizar la estabilidad del sistema, en este caso, su permanencia o extinción se convierte en un asunto de mucho interés. Las aplicaciones que cualquier aproximación puede tener en campos como la medicina, ecologia, economía, justifican cualquier intento para encontrar nuevas vías de resolver este problema. En este trabajo, se prueba una nueva metodología para la estimación de parámetros, con la que abordaremos únicamente la estimación de parámetros en las ecuaciones diferenciales ordinarias (EDO’s), utilizando para ello la Optimización por Enjambre (PSO), una aplicación importante de la inteligencia colectiva.
Directores: Fernando Sancho Caparrini
Material:

Nuevas Herramientas Metodológicas Aplicadas al Análisis Social

Autor: Sonia Elizabeth Regalado Bolaños
Resumen: Todo lo que implica el análisis social, en particular el problema de la violencia de género, es lo suficientemente importante y complejo como para justificar la existencia de tantos estudios y proyectos que pretenden revelar esta problemática. En este estudio se propone una aproximación distinta al uso de nuevas herramientas tecnológicas y, consecuentemente, nuevas metodologías de investigación, aplicados al contexto del análisis social, centrando la demostración para un estudio preliminar de la violencia de género en Ecuador. Uno de los objetivos centrales de este estudio es abordar el uso de nuevas metodologías de investigación para datos arrojados por encuestas reales que se realizaron a nivel nacional con el fin de tener una visión más real y global de este problema. Por ello, será necesario que a partir de las encuestas realicemos un proceso de estructuración de la información con el fin de adaptarla al modelo de datos que vamos a manipular.
Directores: Fernando Sancho Caparrini
Material:

Random Forest

Autor: Diego Cabrera Mendieta
Resumen: Los sistemas computacionales distribuidos alrededor del mundo se encuentran almacenando gran cantidad de datos de distintas fuentes. Como un ejemplo, la NASA recoge aproximadamente un Terabyte de datos cada día de sus satélites de observación. Otro ejemplo es el proyecto del Genoma Humano que almacena miles de bytes de billones de bases de datos de información genética. Esta variedad tanto en las fuentes, como en sus características han provocado la necesidad de una gran diversidad de metodologías para la selección, clasificación y extracción de la información. Cuando se analizan datos en el campo científico, se tiene como objetivo encontrar alguna fórmula matemática que describa de manera precisa los datos que están siendo analizados. Esta tarea se torna difícil de tratar a medida que los datos que se analizan se tornan mas complejos. Además en la vida real no siempre se dispone de toda la información necesaria para abordar el problema de manera matemática. Es necesario buscar soluciones en otros campos de la ciencia, como pueden ser la probabilidad y los modelos estadísticos que pueden tratar con este tipo de información compleja e incompleta. Una de estas metodologías son los Random Forest, que por sus recientes alcances en sistemas de clasificación principalmente en el área de visión por computadora y su comparación en resultados con otros métodos estadísticos y de aprendizaje de máquina, lo han situado entre los mejores clasificadores de propósito general disponibles.
Directores: Fernando Sancho Caparrini
Material:

A Study of a Parallel Implementation for the Pixel VELO Subdetector

Autor: Daniel H. Cámpora Pérez
Resumen: The Standard Model (SM) of particle physics describes what the world is composed of in the smallest scale. In its formulation, it states that there are elementary particles, which are divided into three groups, namely quarks, leptons and bosons, and it also conveys a set of rules by which these particles can interact with each other, forming new particles or decaying into other particles. Each of these particles has a set of properties which distinguishes it from the rest. Properties like mass, electric charge or spin are intrinsic to the definition of a certain particle, and the rules the Standard Model formulates for them, are bound to these numbers. The current VELO tracking algorithm implementation, enhanced for the Pixel VELO, is analyzed in chapter 4. The algorithm is further analyzed by taking it apart from the software framework it is in at the moment, and a parallel version of it is further studied. We take the analysis of a parallel version of the algorithm one step further with a GPGPU implementation on chapter 5, exploiting the characteristics of a many-core architecture. The impact of such a parallel architecture is contrasted to our previous results, and the suitability of the VELO reconstruction in a parallel scheme is shown in practice.
Directores: Miguel Ángel Martínez del Amor, Fernando Sancho Caparrini
Material:

Recommender systems: An external service approach for small and medium applications

Autor: Cristóbal Esteban Aizpiri
Resumen: There’s currently a good amount of research done on the topic of recommender systems. However very few of these researches are commercially oriented. They study the way to obtain a recommender system with the best accuracy possible, without deepening in how these methods can be applied to real word applications. In this thesis we will pick some of the currently existing algorithms and we will study the best way to implement them to get a real world recommender system. We will face problems like real time recommender systems or applying recommender system algorithms to medium and small sized datasets. Besides, adding a recommender system to any application requires a big investment in order to hire engineers specialized in this field. Due to this reason, we are developing a generic recommender system that can be accessed via a Web service API by any application that has been registered in the system.
Directores: Andrés Cordón FrancoFernando Sancho Caparrini
Material:

Competencias digitales en el aula: Mapas geográficos

Autor: Jesús Muros Ponce
Resumen: El principal motivo de que este proyecto haya sido desarrollado se debe a que aún existen dentro del ámbito de las competencias digitales, bastantes carencias en determinados sectores. Esto implica que el desarrollo del profesorado y por tanto el del alumnado se vea limitado en ciertas circunstancias. En este proyecto se pretende estudiar esos puntos, que aunque cada vez son menores debido al rápido avance de la tecnología y de las aplicaciones existentes, todavía no están completamente cubiertos, y siempre hay necesidades que aunque a primera vista no parezcan principalmente necesarias, pueden contribuir notablemente en el avance de la educación. Como se puede intuir, los principales afectados en este proyecto son tanto el alumno como el profesor. A continuación se comenta la motivación individualizada para cada una de las partes afectadas.
Directores: Andrés Cordón FrancoFernando Sancho Caparrini
Material:

LPM-DocInv (Asistente Computacional para la Docencia e Investigación en 15 Sistemas Modales de Lógica Proposicional Monomodal)

Autor: Enrique Sarrión Castillo
Resumen: El objetivo fundamental del Trabajo es doble: por una lado la iniciación en la investigación en el  ámbito de la Lógica Modal y por otro la programación de una herramienta computacional que facilite tanto a docentes como a investigadores el estudio y la investigación de quince sistemas normales de lógica proposicional monomodal (que son todos los sistemas normales que se pueden obtener con la combinación de los axiomas D, T, B, 4 y 5). En concreto el programa permite trabajar con las lógicas siguientes: K, KD (abreviadamente D), KT (también llamado KDT y, abreviadamente, T), KB (abreviadamente B), K4, K5, KDB, KD4, KD5, KTB (abreviadamente TB), KT4 (abreviadamente S4), KB4 (también llamado KB5 y KB45), K45, KD45, KTB4 (también llamado KT5, KDB4, KDB5, KTB5, KT45, KTB45 y, abreviadamente, S5).
Directores: Andrés Cordón FrancoFernando Sancho Caparrini
Material: 

Laboratorio de Morfogénesis Artificial

Autor: Pedro Almagro Blanco
Resumen: Por un lado se pretende implementar un laboratorio virtual de morfogénesis artificial con el que el usuario pueda realizar diferentes experimentos, tanto con individuos aislados como aproximando figuras a través de un algoritmo genético. Por otro lado, se pretende experimentar con dicho sistema para entender mejor el comportamiento de dichos individuos y de los sistemas de generación de figuras diseñados, con el fin de estudiar las posibilidades de aplicación a algún campo real, así como estudiar qué métodos de generación aproximan mejor determinadas figuras.
Directores: Andrés Cordón FrancoFernando Sancho Caparrini
Material:

Búsquedas estocásticas sobre sistemas de información geográfica

Autor: César Vergara Martín
Resumen: La innovación que pretendemos mostrar en este sistema radica en la combinación de varias técnicas de inteligencia artificial para lograr un procedimiento de búsqueda estocástica cuyo motor y pulso probabilístico hace uso de la experiencia de los agentes. No consiste en un algoritmo voraz ya que no se molesta en comprobar punto a punto, sino que va mejorando sucesivos resultados que va encontrando sin realizar una búsqueda exhaustiva, por lo que nos puede proporcionar los mejores resultados actuales mientras continúa con la búsqueda. Otra faceta innovadora es su resultado multiproducto, ya que no sólo devuelve el mejor camino encontrado, sino que además nos puede mostrar, por ejemplo, una cierta cantidad de los mejores caminos, los que entren en una tolerancia dada sobre el mejor calculado, los mejores sin un nodo o arista (cortes de calles) en tiempo real sin necesidad de realizar nuevos cálculos, ya que el entorno conoce ya respuestas (posteriormente se puede relanzar el sistema para obtener otras mejores), los nodos más utilizados en cierta cantidad de mejores caminos, para detectar nodos deseables o críticos de paso obligado, una representación de pasillos alternativos sobre el terreno para planificar el paso de grandes cantidades de individuos, aconsejarnos qué criterios podemos utilizar para calcular nuestros propios caminos según su experiencia de adaptación a este grafo concreto (por ejemplo, avanzar por las cotas más bajas), etc.
Directores: Andrés Cordón FrancoFernando Sancho Caparrini
Material: