Docencia: Trabajos Fin de Máster Dirigidos
28. Graph Convolutional Networks
Autor: Manuel Silván Hernández |
Resumen: Las redes neuronales convolucionales o CNN fueron todo un hito en el campo del deep learning por los buenos resultados que demostró el uso de la operación matemática de la convolución dentro de las redes neuronales, sin embargo, solo se podía aplicar en dominios euclídeos. Sin embargo, había redes neuronales que sí podían trabajar en grafos (estructuras de datos no euclídeas) las Graph Neural Networks o GNN, y poco más tarde aparecieron una subfamilia de estas últimas que buscaban generalizar la operación de convolución a los grafos y que dan título a este trabajo, las Graph Convolutional Networks o GCN. Este trabajo pretende dar una aproximación a las GCN de forma básica y general de modo que sea una base para futuras investigaciones, por eso, el trabajo se estructurará de la siguiente manera: Primero habrá una sección que sentará conceptos básicos sobre el aprendizaje automático en grafos, después está el núcleo teórico del trabajo donde se expondrá qué problemas tiene intentar generalizar la convolución a los grafos y como resuelven estas dificultades varios modelos recientes y finalmente se expondrán algunas aplicaciones de algunas GCN en los últimos 5 años en ámbitos distintos para mostrar cómo se llevan esos modelos teóricos a la práctica y la versatilidad que tienen estos modelos. |
Directores: Pedro Almagro Blanco, Fernando Sancho Caparrini |
Fecha: Diciembre 2021 |
27. Selenitas: Un motor de simulación multiagente escrito en Lua
Autor: Enrique López Ortíz |
Resumen: El objetivo de largo recorrido que ha marcado el inicio del desarrollo de Selenitas es la creación de una plataforma de simulación de sistemas multiagente capaz de cubrir las carencias detectadas en otros sistemas (como, por ejemplo, la creación de escenarios complejos y dinámicos), así como mejorar ciertos aspectos de los sistemas existentes (optimizar mecánicas, explorar mecanismos de paralelización para las simulaciones, permitir la distribución de software empaquetado y adaptado a necesidades concretas, etc.), y ofrecer un entorno de exploración e investigación que permitiera una mayor manipulación de los procesos a bajo nivel, algo que en otras plataformas es imposible o altamente complejo |
Directores: Fernando Sancho Caparrini |
Fecha: Diciembre 2020 |
26. Redes Neuronales Spiking
Autor: Marco Antonio Carpio Moreta |
Resumen: Se hace un análisis de las redes neuronales Spiking como sistema de computación efectivo y se compara su funcionamiento con el de los sistemas de redes neuronales artificiales clásicos. |
Directores: Diego Román Cabrera Mendieta, Fernando Sancho Caparrini |
Fecha: Julio 2020 |
25. Planificación de Líneas de Producción basado en Sistemas Multiagente
Autor: Fernando José Jiménez Rivera |
Resumen: Para el sector industrial, el problema de la planificación es uno de los ejes centrales del funcionamiento de cualquier fábrica. Construir una planificación óptima permite reducir costes de producción, mantenimiento y abastecimiento, lo que ayuda a aumentar la producción y, en definitiva, ofrecer más y mejores productos a los clientes. A lo largo de la historia se han seguido multitud de enfoques diferentes para resolver este problema. En la Industria 4.0 se han usado enfoques basados en la Inteligencia Artificial durante los últimos años, entre los que se encuentran los Sistemas Multiagente. Con el objetivo de dar solución a un caso de estudio real sobre planificación industrial, en este trabajo se implementa un sistema multiagente basado en algunos de los métodos encontrados en la literatura. |
Directores: Fernando Sancho Caparrini |
Material: |
24. Fundamentos Matemáticos del Machine Learning
Autor: Paula Pedrazo Degando |
Resumen: El Machine Learning es una rama de la Inteligencia Artificial que se encarga de construir programas que mejoran con la experiencia. Esta disciplina abarca diferentes formas de aprendizaje, que normalmente se dividen en tres: aprendizaje supervisado, aprendizaje no supervisado y aprendizaje por refuerzo. El presente trabajo estudia la primera de ellas, el aprendizaje supervisado, bajo una perspectiva matemática llamada Teoría del Aprendizaje Estadístico. En primer lugar, se presenta el paradigma más importante que utiliza esta teoría, la Minimización del Riesgo Empírico (ERM). A continuación se utilizan las definiciones de ERM para definir un marco mayor, que añade aspectos computacionales a la definición de aprendible: este es el Aprendizaje Probable y Aproximadamente Correcto. Posteriormente, se demuestra que no es posible obtener una máquina de aprendizaje universal, lo que justifica la necesidad de añadir siempre sesgo al aprendizaje. Llegado a este punto, se define uno de los conceptos más importantes dentro del presente trabajo, la dimensión VC, que mide la complejidad de una clase de hipótesis, y se demuestra que una clase de hipótesis puede ser aprendida si y sólo si su dimensión VC es finita. Posteriormente, se presentan el paradigma de Minimización del Riesgo Estructural y Mínima Longitud de Descripción, que permiten obtener clases de hipótesis sencillas cuando la complejidad de la clase de hipótesis es demasiado grande. Por último se muestran dos ejemplos de máquinas de aprendizaje basadas en la Teoría Estadística del Aprendizaje: las Máquinas de Soporte Vectorial y las Redes Neuronales. |
Directores: Fernando Sancho Caparrini |
Material: |
23. Detección de Anomalías en contenedores Kubernetes
Autor: Antonio Ramírez Hurtado |
Resumen: Uno de los puntos clave cuando hablamos de tecnología Big Data es la capacidad de escalabilidad de las plataformas que recolectan, almacenan y sirven datos. Por ello es imprescindible un sistema para monitorizar el estado de la plataforma: generalmente dicho sistema registra logs que quedan almacenados para un posterior análisis.
El sponsor asociado a este Trabajo Fin de Máster despliega plataformas en contenedores ayudado de la herramienta Kubernetes y monitoriza el estado de dichas plataformas con Overscaler (ver introducción). La ingente cantidad de datos generados por Overscaler hace recomendable abordar el problema con técnicas de Ciencias del Dato. El sponsor está especialmente interesado en cubrir algunos de los siguientes objetivos:
- Forma de caracterizar el estado del clúster.
- Encontrar posibles patrones de comportamiento en los estados del clúster, de un nodo o de una aplicación.
- Encontrar anomalías.
- “Enseñar” a una máquina a detectar posibles anomalías en la plataforma.
- ¿Es posible definir la “normalidad” del estado de la plataforma?
En este trabajo pondremos el foco sobre todo en la detección y clasificación de anomalías en una aplicación; por lo que indirectamente, podremos definir cuál es el estado normal de una aplicación, un nodo o un clúster.
|
Directores: Fernando Sancho Caparrini |
Material: |
22. Aplicaciones de la Inteligencia Artificial al Mundo Empresarial
Autor: Di Wu |
Resumen: Este documento comienza con la introducción de las tecnologías que dan soporte a la Inteligencia Artificial, incidiendo en la aplicación de la Inteligencia Artificial en escenarios reales. Nos centraremos principalmente en aplicaciones de las tecnologías de Aprendizaje Automático y en los problemas que todavía se encuentran las pequeñas y medianas empresas en la aplicación efectiva de Inteligencia Artificial en su entorno. Asimismo, evaluaremos la actitud que muestran administradores y empleados en el uso y contacto con la IA, proporcionando opiniones relevantes y posibles acciones a considerar. |
Directores: Fernando Sancho Caparrini |
Material: |
21. Computación con Reservorios: Un Estudio de Clasificación de Dinámicas Complejas
Autor: Jean Carlo Macancela Poveda |
Resumen: Este trabajo se enfoca en realizar un análisis exploratorio acerca de la viabilidad de utilizar redes de estado de eco (un tipo particular de reservorios) para realizar tareas de clustering sobre series temporales provenientes de una colección de autómatas celulares elementales, con el objetivo de agrupar diferentes reglas acorde a la dinámica que presenten los autómatas asociados. Los resultados obtenidos indican que, bajo una adecuada combinación de parámetros y datos, se puede cumplir satisfactoriamente esta tarea. El trabajo se ve inmerso en el área del aprendizaje no supervisado con aplicación a series de tiempo. |
Directores: Fernando Sancho Caparrini, Diego Cabrera Mendieta |
Material: |
20. Reducción de la Dimensionalidad en Machine Learning
Autor: Pablo Moisés Lucero Otorongo |
Resumen: El objetivo principal que se persigue en la elaboración de este trabajo se puede resumir en: Destacar la importancia de la reducción de dimensionalidad en algoritmos generales de Machine Learning. Que de forma detallada podemos subdividir de la siguiente forma:
- Indicar los efectos de la alta dimensionalidad y definir formalmente lo que entendemos por un proceso de reducción de dimensionalidad.
- Describir detalladamente tres de los métodos más habituales y exitosos de reducción de dimensionalidad: Análisis de Componentes Principales (PCA), t-Distributed Stochastic Neighbor Embedding (t-SNE) y Autoencoders (AE).
- Contrastar los métodos de reducción de dimensionalidad tras su aplicación sobre conjuntos de datos (sintéticos y reales) para ofrecer una panorámica más exacta de su utilidad.
|
Directores: Fernando Sancho Caparrini, David Solís Martín |
Material: |
19. Asistente Conversacional para Frigorífico Inteligente
Autor: Inmaculada Perea Fernández |
Resumen: En este trabajo se realiza una introducción a la construcción de chatbots. Se describirá la metodología seguida para construir un prototipo capaz de proporcionar una interfaz de lenguaje natural para un frigorífico inteligente. Se realizará un estudio del estado del arte de las principales tecnologías de procesado de lenguaje natural disponibles en la actualidad, y en especial de la tecnología IBM Watson, por la que se ha optado en este trabajo. Junto a esta tecnología, el chatbot está implementado en Python y utiliza Slack como canal de comunicación, una base de datos local con los productos disponibles en el frigorífico, y una base de datos externa de recetas. El chatbot proporciona recetas al usuario teniendo en cuenta sus preferencias, realiza sugerencias sobre platos y menús, y proporciona información relativa al contenido del frigorífico. También es capaz de reconocer alimentos en imágenes y proporcionar los ingredientes necesarios, así como su método de cocinado. Por último, se realiza una evaluación de los resultados obtenidos, las dificultades encontradas durante la fase de análisis e implementación del prototipo, y algunos posibles escenarios de desarrollo futuros. |
Directores: Fernando Sancho Caparrini |
Material: |
18. Predicción de Frames en Vídeo usando Redes Neuronales Híbridas
Autor: Daniel Corzo García |
Resumen: Utilizar redes neuronales híbridas para realizar predicciones en vídeo es algo que ya se ha empezado a explorar desde hace dos años. En este trabajo encontramos algunas características de dichas redes usando su implementación más directa y general. La implementación consiste en mezclar capas por separado de redes convolucionales y recurrentes, sin recurrir a diseños o capas más específicas. Aparte de una serie de características, también se ha encontrado que bajo ciertas condiciones la red neuronal híbrida presentada puede actuar como un extractor de fondo. |
Directores: Fernando Sancho Caparrini |
Material: |
17. Generación mediante Técnicas de Deep Learning de Mapas de Profundidad de Sistemas de Visión Estéreo para Navegación de Robots Aéreos
Autor: María Polvillo Díaz |
Resumen: Este trabajo nace como respuesta a la participación en el proyecto internacional AEROARMS (AErial RObotic system integrating multiple ARMS and advanced manipulation capabilities for inspection and maintenance) cuyo objetivo es el desarrollo del primer sistema robótico aéreo del mundo con múltiples brazos articulados y capacidades avanzadas de manipulación para ser aplicadas en mantenimiento e inspecciones industriales. En concreto, el objetivo de este proyecto es la generación mediante algoritmos de deep learning de imágenes de profundidad que mejoren la proporcionada por el sensor visual. Se pretende hacer que dicha imagen generada se asemeje en precisión a las medidas de un láser 3D, que no tienen problemas a la hora de trabajar con sombras y entornos con cambios bruscos de iluminación. Esta nueva imagen de profundidad permitiría así mejorar el proceso de mapeado llevado a cabo en AEROARMS. Se exponen resultados de distintos entrenamientos de la red neuronal implementada y se realiza la evaluación de los resultados, obteniendo conclusiones y realizando propuestas de mejora y posibles investigaciones futuras. |
Directores: Fernando Sancho Caparrini, José Ramiro Martinez de Dios |
Material: |
16. Búsqueda de Correlaciones en Textos
Autor: Andrés Fernández García |
Resumen: El principal objetivo del proyecto es encontrar correlaciones en los textos que nos permitan, por un lado, realizar un análisis de sentimientos y, por otro, realizar la búsqueda de semejanzas entre diferentes textos. Para llevar a cabo este objetivo, se ha recopilado información con estructuras diferentes, desde tweets de 140 caracteres hasta noticias completas, pasando por frases o refranes. A continuación se han usado técnicas para el análisis de sentimientos y la búsqueda de correlación entre distintos textos, de modo que se pueda, por un lado, clasificar tweets entre positivos y negativos, correlacionarlos con una frase o refrán; y por otro lado, a partir de noticias de dos periódicos diferentes, ser capaz de relacionar las que están "hablando" del mismo tema. |
Directores: Fernando Sancho Caparrini |
Material: |
15. Análisis de Sentimientos en el Ámbito de la Reputación Online de Empresas
Autor: Gabriel Muñoz Ríos |
Resumen: Viendo cómo Internet facilita el crecimiento del volumen de opiniones en tantos y diversos temas, pensamos que sería interesante analizar de qué manera estas opiniones pueden afectar a un tema crucial para las empresas y marcas, su reputación. Este trabajo que aquí se presenta tiene como foco analizar el impacto de las marcas empresariales que puede medirse en Internet, en concreto nos centraremos en una parte de la reputación conocida como reputación online de una marca. |
Directores: Fernando Sancho Caparrini |
Material: |
14. Gamificación de Sistemas Multi-Agente con Aplicación de la Ciencia del Dato
Autor: David Solís Martín |
Resumen: Actualmente, la ciencia del dato y en concreto las técnicas de machine learning están en pleno auge. La generación de grandes cantidades de datos y la evolución tecnológica que posibilidad el procesado y extracción de nuevo conocimiento de estos datos abren nuevas puertas a la investigación y/o en el mundo de los negocios (gracias a la gestión más potente de la Inteligencia de Negocio). Por otro lado, en las últimas décadas se han estado creando un gran número de modelos de multiagencia. A partir de estos modelos se han implementado plataformas (muchos disponibles en Internet), que poseen un potencial considerable para extraer conocimiento a través de la unión de la inteligencia colectiva y el posterior análisis de los datos. El presente trabajo aúna las circunstancias anteriormente mencionadas, partiendo de la idea de gamificar los modelos existentes como una idea de negocio o germen de posible línea de investigación. |
Directores: Joaquín Borrego Díaz, Fernando Sancho Caparrini |
Material: |
13. Multi-agent Environment to Support UAVS Operations
Autor: Juan Jesús Ruíz Pavón |
Resumen: UAVs are usually considered as safety-critical systems. As a result, the presence of a human operator will continue for some time to be essential in task completion, particularly in complex domains, instances of system failures or automation indecision. As technology in UAVs evolves, it is envisioned that a single operator will be able to supervise a multi-vehicle operation. This requirement supports the idea of not just designing more autonomous vehicles, but also working to improve the quality and innovation of the UAV interface. Research in this area has been limited to traditional interfaces, but recent literature refers to 3D virtual environments and multimodal interfaces like a way to go to improve performance in multi-vehicles operations. |
Directores: Fernando Sancho Caparrini |
Material: |
12. Simulación Urbana con GAMA: Modelado con Sistemas Multiagente y Sistemas de Información Geográfica
Autor: Zoila de Lourdes Ruíz Chávez |
Resumen: El presente trabajo analiza la plataforma GAMA como ejemplo de framework que integra ambas soluciones y muestra el modelado de un problema real contemplando todos los escenarios que intervienen en la realidad a ser modelada en dicha plataforma. Esta plataforma permite realizar muchísimos tipos de modelados, diversas opciones de comportamientos de los agentes e integración con las capas temáticas que intervienen como escenarios donde se desenvuelven los agentes. Nos centraremos principalmente en aquellas partes que consideramos más novedosas, proporcionando únicamente una información superficial y breve de las más comunes. |
Directores: Fernando Sancho Caparrini |
Material: |
11. Sistemas Visuales de Consulta en Bases de Datos Orientadas a Grafos con Esquema
Autor: Jaime Oswaldo Salvador Meneses |
Resumen: En los últimos años la información almacenada en los sistemas informáticos se la ha gestionado utilizando una representación relacional, dejando de lado la información semántica representada de forma implícita. Este hecho, sumado al gran volumen y a la variedad que presenta, ha constituido un limitante a la hora de realizar análisis de la información. Este trabajo presenta una forma no tradicional de tratamiento de la información en la que la principal característica es la representación en forma de grafo. Para esto, se hace uso de un sistema de almacenamiento orientado a grafos y se desarrolla una aplicación que permite definir un esquema y realizar consultas utilizando traversals sobre una base de datos orientada a grafos. |
Directores: Fernando Sancho Caparrini |
Material: |
10. Simulación Social
Autor: Edgar Iván Medina Carranco |
Resumen: El estudio de los fenómenos sociales resulta de mucho interés, sin embargo, estudiarlos formalmente presenta dificultades. Al tratarse de problemas no lineales, las matemáticas formales a través de las estadísticas o sistemas de ecuaciones diferenciales dan resultados limitados. Las técnicas de simulación por ordenador representan cada vez con mayor fuerza la manera de adquirir conocimientos sobre dichos fenómenos. En el marco de estas técnicas los modelos basados en agentes en los últimos años han ganado protagonismo. Un modelo basado en agentes es un programa para ordenador en el que se definen entes, los agentes, que siguen reglas de comportamiento e interactúan entre sí. Estos entes pueden representar personas, grupos de personas, animales, objetos, relaciones, incluso sentimientos, por lo que las posibilidades son ilimitadas.. |
Directores: Fernando Sancho Caparrini |
Material: |
9. Estimación de Parámetros en Ecuaciones Diferenciales Ordinarias. Aplicación de la Optimización por Enjambres de Partículas
Autor: Giovanny Guerrero Suárez |
Resumen: Uno de los problemas más importantes en las ecuaciones diferenciales, ordinarias o en derivadas parciales, asociadas al modelamiento de algún problema o fenómeno de interés, es la estimación de los parámetros que intervienen y cuán sensibles son en cuanto a la solución del problema. La estimación y condiciones que estos parámetros deben cumplir en modelos de poblaciones, por ejemplo, puede garantizar la estabilidad del sistema, en este caso, su permanencia o extinción se convierte en un asunto de mucho interés. Las aplicaciones que cualquier aproximación puede tener en campos como la medicina, ecologia, economía, justifican cualquier intento para encontrar nuevas vías de resolver este problema. En este trabajo, se prueba una nueva metodología para la estimación de parámetros, con la que abordaremos únicamente la estimación de parámetros en las ecuaciones diferenciales ordinarias (EDO’s), utilizando para ello la Optimización por Enjambre (PSO), una aplicación importante de la inteligencia colectiva. |
Directores: Fernando Sancho Caparrini |
Material: |
8. Nuevas Herramientas Metodológicas Aplicadas al Análisis Social
Autor: Sonia Elizabeth Regalado Bolaños |
Resumen: Todo lo que implica el análisis social, en particular el problema de la violencia de género, es lo suficientemente importante y complejo como para justificar la existencia de tantos estudios y proyectos que pretenden revelar esta problemática. En este estudio se propone una aproximación distinta al uso de nuevas herramientas tecnológicas y, consecuentemente, nuevas metodologías de investigación, aplicados al contexto del análisis social, centrando la demostración para un estudio preliminar de la violencia de género en Ecuador. Uno de los objetivos centrales de este estudio es abordar el uso de nuevas metodologías de investigación para datos arrojados por encuestas reales que se realizaron a nivel nacional con el fin de tener una visión más real y global de este problema. Por ello, será necesario que a partir de las encuestas realicemos un proceso de estructuración de la información con el fin de adaptarla al modelo de datos que vamos a manipular. |
Directores: Fernando Sancho Caparrini |
Material: |
7. Random Forest
Autor: Diego Cabrera Mendieta |
Resumen: Los sistemas computacionales distribuidos alrededor del mundo se encuentran almacenando gran cantidad de datos de distintas fuentes. Como un ejemplo, la NASA recoge aproximadamente un Terabyte de datos cada día de sus satélites de observación. Otro ejemplo es el proyecto del Genoma Humano que almacena miles de bytes de billones de bases de datos de información genética. Esta variedad tanto en las fuentes, como en sus características han provocado la necesidad de una gran diversidad de metodologías para la selección, clasificación y extracción de la información. Cuando se analizan datos en el campo científico, se tiene como objetivo encontrar alguna fórmula matemática que describa de manera precisa los datos que están siendo analizados. Esta tarea se torna difícil de tratar a medida que los datos que se analizan se tornan mas complejos. Además en la vida real no siempre se dispone de toda la información necesaria para abordar el problema de manera matemática. Es necesario buscar soluciones en otros campos de la ciencia, como pueden ser la probabilidad y los modelos estadísticos que pueden tratar con este tipo de información compleja e incompleta. Una de estas metodologías son los Random Forest, que por sus recientes alcances en sistemas de clasificación principalmente en el área de visión por computadora y su comparación en resultados con otros métodos estadísticos y de aprendizaje de máquina, lo han situado entre los mejores clasificadores de propósito general disponibles. |
Directores: Fernando Sancho Caparrini |
Material: |
6. A Study of a Parallel Implementation for the Pixel VELO Subdetector
Autor: Daniel H. Cámpora Pérez |
Resumen: The Standard Model (SM) of particle physics describes what the world is composed of in the smallest scale. In its formulation, it states that there are elementary particles, which are divided into three groups, namely quarks, leptons and bosons, and it also conveys a set of rules by which these particles can interact with each other, forming new particles or decaying into other particles. Each of these particles has a set of properties which distinguishes it from the rest. Properties like mass, electric charge or spin are intrinsic to the definition of a certain particle, and the rules the Standard Model formulates for them, are bound to these numbers. The current VELO tracking algorithm implementation, enhanced for the Pixel VELO, is analyzed in chapter 4. The algorithm is further analyzed by taking it apart from the software framework it is in at the moment, and a parallel version of it is further studied. We take the analysis of a parallel version of the algorithm one step further with a GPGPU implementation on chapter 5, exploiting the characteristics of a many-core architecture. The impact of such a parallel architecture is contrasted to our previous results, and the suitability of the VELO reconstruction in a parallel scheme is shown in practice. |
Directores: Miguel Ángel Martínez del Amor, Fernando Sancho Caparrini |
Material: |
5. Recommender systems: An External Service Approach for Small and Medium Applications
Autor: Cristóbal Esteban Aizpiri |
Resumen: There’s currently a good amount of research done on the topic of recommender systems. However very few of these researches are commercially oriented. They study the way to obtain a recommender system with the best accuracy possible, without deepening in how these methods can be applied to real word applications. In this thesis we will pick some of the currently existing algorithms and we will study the best way to implement them to get a real world recommender system. We will face problems like real time recommender systems or applying recommender system algorithms to medium and small sized datasets. Besides, adding a recommender system to any application requires a big investment in order to hire engineers specialized in this field. Due to this reason, we are developing a generic recommender system that can be accessed via a Web service API by any application that has been registered in the system. |
Directores: Andrés Cordón Franco, Fernando Sancho Caparrini |
Material: |
4. Competencias Digitales en el Aula: Mapas Geográficos
Autor: Jesús Muros Ponce |
Resumen: El principal motivo de que este proyecto haya sido desarrollado se debe a que aún existen dentro del ámbito de las competencias digitales, bastantes carencias en determinados sectores. Esto implica que el desarrollo del profesorado y por tanto el del alumnado se vea limitado en ciertas circunstancias. En este proyecto se pretende estudiar esos puntos, que aunque cada vez son menores debido al rápido avance de la tecnología y de las aplicaciones existentes, todavía no están completamente cubiertos, y siempre hay necesidades que aunque a primera vista no parezcan principalmente necesarias, pueden contribuir notablemente en el avance de la educación. Como se puede intuir, los principales afectados en este proyecto son tanto el alumno como el profesor. A continuación se comenta la motivación individualizada para cada una de las partes afectadas. |
Directores: Andrés Cordón Franco, Fernando Sancho Caparrini |
Material: |
3. LPM-DocInv (Asistente Computacional para la Docencia e Investigación en 15 Sistemas Modales de Lógica Proposicional Monomodal)
Autor: Enrique Sarrión Castillo |
Resumen: El objetivo fundamental del Trabajo es doble: por una lado la iniciación en la investigación en el ámbito de la Lógica Modal y por otro la programación de una herramienta computacional que facilite tanto a docentes como a investigadores el estudio y la investigación de quince sistemas normales de lógica proposicional monomodal (que son todos los sistemas normales que se pueden obtener con la combinación de los axiomas D, T, B, 4 y 5). En concreto el programa permite trabajar con las lógicas siguientes: K, KD (abreviadamente D), KT (también llamado KDT y, abreviadamente, T), KB (abreviadamente B), K4, K5, KDB, KD4, KD5, KTB (abreviadamente TB), KT4 (abreviadamente S4), KB4 (también llamado KB5 y KB45), K45, KD45, KTB4 (también llamado KT5, KDB4, KDB5, KTB5, KT45, KTB45 y, abreviadamente, S5). |
Directores: Andrés Cordón Franco, Fernando Sancho Caparrini |
Material: |
2. Laboratorio de Morfogénesis Artificial
Autor: Pedro Almagro Blanco |
Resumen: Por un lado se pretende implementar un laboratorio virtual de morfogénesis artificial con el que el usuario pueda realizar diferentes experimentos, tanto con individuos aislados como aproximando figuras a través de un algoritmo genético. Por otro lado, se pretende experimentar con dicho sistema para entender mejor el comportamiento de dichos individuos y de los sistemas de generación de figuras diseñados, con el fin de estudiar las posibilidades de aplicación a algún campo real, así como estudiar qué métodos de generación aproximan mejor determinadas figuras. |
Directores: Andrés Cordón Franco, Fernando Sancho Caparrini |
Material: |
1. Búsquedas Estocásticas sobre Sistemas de Información Geográfica
Autor: César Vergara Martín |
Resumen: La innovación que pretendemos mostrar en este sistema radica en la combinación de varias técnicas de inteligencia artificial para lograr un procedimiento de búsqueda estocástica cuyo motor y pulso probabilístico hace uso de la experiencia de los agentes. No consiste en un algoritmo voraz ya que no se molesta en comprobar punto a punto, sino que va mejorando sucesivos resultados que va encontrando sin realizar una búsqueda exhaustiva, por lo que nos puede proporcionar los mejores resultados actuales mientras continúa con la búsqueda. Otra faceta innovadora es su resultado multiproducto, ya que no sólo devuelve el mejor camino encontrado, sino que además nos puede mostrar, por ejemplo, una cierta cantidad de los mejores caminos, los que entren en una tolerancia dada sobre el mejor calculado, los mejores sin un nodo o arista (cortes de calles) en tiempo real sin necesidad de realizar nuevos cálculos, ya que el entorno conoce ya respuestas (posteriormente se puede relanzar el sistema para obtener otras mejores), los nodos más utilizados en cierta cantidad de mejores caminos, para detectar nodos deseables o críticos de paso obligado, una representación de pasillos alternativos sobre el terreno para planificar el paso de grandes cantidades de individuos, aconsejarnos qué criterios podemos utilizar para calcular nuestros propios caminos según su experiencia de adaptación a este grafo concreto (por ejemplo, avanzar por las cotas más bajas), etc. |
Directores: Andrés Cordón Franco, Fernando Sancho Caparrini |
Material: |