Nuevo Lab: IAI-Lab

23 de Enero de 2022, 114 vistas

Nace en la Universidad de Sevilla el IAI-Lab: Laboratorio de Inteligencia Artificial Inmersiva con el objetivo de proporcionar a los miembros de la Universidad un lugar donde investigar cómo integrar los últimos avances de la IA/ML con las técnicas más novedosas para experiencias inmersivas (AR+VR). Pulsa aquí para saber más.

Leer más »

Sistemas Deductivos Proposicionales

21 de Diciembre de 2020, 766 vistas

En temas anteriores hemos visto algunos algoritmos para resolver el problema de la deducción, por ejemplo, por medio de Tableros Semánticos o DPLL, todos ellos basados en el hecho de que: $\Sigma\models A \Leftrightarrow \Sigma \cup \{\neg A\}\mbox{ es insatisfactible}$. Sin embargo, esta forma (que sería algo parecido a hacer una reducción al absurdo) no es la más habitual (ni más clásica) de abordar el problema de la deducción. En muchas áreas (por ejemplo, matemáticas, sitio por excelencia de la deducción formal) es más normal acudir al concepto de demostración, que parte de un conjunto de enunciados básico que actúa como conjunto de axiomas (o hipótesis), y que asumimos como ciertos inicialmente, y de un proceso constructivo por el que vamos obteniendo una sucesión de enunciados intermedios, deducibles unos a partir de otros, hasta llegar al resultado que queremos demostrar.

Etiquetas utilizadas: , ,

Formas Prenex, de Skolem y Teorema de Herbrand

18 de Noviembre de 2020, 1216 vistas

Al igual que vimos cómo extender los Tableros Semánticos de LP a LPO, en este capítulo vamos a ver los fundamentos necesarios para extender las Formas Normales y Formas Clausales vistas en LP a un formato igualmente útil en LPO. El objetivo no solo es disponer de fórmulas equivalentes, sino ver hasta qué punto podemos trasladar los algoritmos que se desarrollan para LP al contexto de Primer Orden.

Etiquetas utilizadas: , ,

Formas Normales, Cláusulas y Algoritmo DPLL

10 de Noviembre de 2020, 1228 vistas

En este tema vamos a abordar los métodos más comunes de preprocesamiento de fórmulas LP, que también serán aplicables a fórmulas LPO, y mostraremos uno de los algoritmos centrales para $SAT$ que hace uso de este preprocesamiento, $DPLL$, en el que se basan la gran mayoría de métodos actuales que abordan ese problema.

Etiquetas utilizadas: , ,

Construir un buscador desde cero

3 de Noviembre de 2020, 687 vistas

En esta entrada vemos cómo se pueden implementar de forma muy sencilla buscadores en Espacios de Estados en un lenguaje con características funcionales. La idea no es presentar implementaciones muy eficientes, sino únicamente encontrar patrones comunes y flexibles que permiten estas representaciones y posibles ampliaciones y adaptaciones futuras.

Etiquetas utilizadas: , , , ,


ALGUNAS ENTRADAS ANTERIORES ... AL AZAR

Classical elements in NetLogo: Earth

14 de Mayo de 2016, 1934 vistas

With this post we begin a series of posts that aim to simulate the creation and behavior of the 4 classic elements of nature in NetLogo: Earth, Water, Fire and Air.

In this first post we will see one of the most classical algorithms for the formation of realistic landscapes: the mid point displacement algorithm. This algorithm handles only generate a map of heights above a defined level, then apply a flooding process, color and shading to create more realistic results.

Etiquetas utilizadas: , , , , ,

Entrenamiento de Redes Neuronales: mejorando el Gradiente Descendente

19 de Febrero de 2017, 29504 vistas

El procedimiento utilizado para llevar a cabo el proceso de aprendizaje en una red neuronal se denomina entrenamiento. Aunque hay uno, el del Gradiente Descendiente, que popularmente se impone sobre los demás por su facilidad y extensión de uso, hay muchos otros que pueden resultar interesantes, presentando diferentes características y rendimiento que los pueden hacer más adecuados dependiendo de las características del problema concreto al que nos enfrentemos. En esta entrada haremos un breve recorrido por los algoritmos que hacen uso de aproximaciones numéricas basadas en propiedades diferenciales para conseguir optimizar (minimizar) la función de error. En concreto, nos centraremos en aquellos que realizan mejoras sobre el método del Gradiente Descendiente.

Etiquetas utilizadas: , , , ,