« XML: Aprendizaje Auto… « || Inicio || » Autocodificadores Var… »

GRU: Gated Recurrent Units (LSTM)

Última modificación: 16 de Mayo de 2018, y ha tenido 229 vistas

Etiquetas utilizadas: || || ||

Sesión del Seminario (I+A)A

Ponente: Miguel Ángel Gutiérrez Naranjo

Fecha: 18 Mayo 2018

Resumen: Podemos considerar información secuencial aquella en la que nuestro conocimiento crece con el tiempo. De este modo, el lenguaje natural donde tenemos que leer/oír las palabras una por una (secuencialmente) para poder decidir al final cuál es el mensaje, sería un ejemplo de fuente de información secuencial. Hay otros muchos ejemplos, como los sensores en la industria que toman medidas cada cierto tiempo o las pruebas médicas que recogen datos de la evolución de un paciente. El hecho de que tengamos que tener en cuenta los datos del pasado para poder predecir o clasificar hechos futuros con redes neuronales condiciona la arquitectura de la red. En esta charla veremos cómo se modelan estos problemas y algunas de las soluciones que propone el Deep Learning.

« XML: Aprendizaje Auto… « || Inicio || » Autocodificadores Var… »