Módulos de atención temporal para redes neuronales con memoria externa

dc.contributor.advisorSoto Arriaza, Álvaro Marcelo
dc.contributor.authorPalma Otero, Rodolfo
dc.contributor.otherPontificia Universidad Católica de Chile. Escuela de Ingeniería
dc.date.accessioned2020-06-26T13:36:09Z
dc.date.available2020-06-26T13:36:09Z
dc.date.issued2020
dc.descriptionTesis (Magíster en Ciencias de la Ingeniería)--Pontificia Universidad Católica de Chile, 2020
dc.description.abstractEn este trabajo se introducen dos módulos de atención temporal, los cuales pueden ser acoplados a modelos tradicionales de redes neuronales recurrentes con memoria externa para mejorar el rendimiento de éstos en tareas de procesamiento de lenguaje natural. Los módulos de atención temporal otorgan a los modelos la capacidad de construir una distribución de atención sobre los diferentes instantes de tiempo de la secuencia de entrada, permitiendo posteriormente observar cuáles fueron los elementos considerados relevantes para realizar la inferencia. Esta capacidad agrega atributos de explicabilidad a los modelos. Usando como base la Entity Network (Henaff et al., 2016), se realizaron experimentos en tareas de question answering utilizando el conjunto de datos bAbI tasks. Gracias al uso de los módulos de atención temporal se incrementa la métrica de rendimiento en un 26% al supervisar la atención temporal y en un 13,5% al no hacerlo. Adicionalmente, el uso de de los módulos de atención temporal permite resolver tareas de razonamiento que el modelo original no es capaz de resolver.En este trabajo se introducen dos módulos de atención temporal, los cuales pueden ser acoplados a modelos tradicionales de redes neuronales recurrentes con memoria externa para mejorar el rendimiento de éstos en tareas de procesamiento de lenguaje natural. Los módulos de atención temporal otorgan a los modelos la capacidad de construir una distribución de atención sobre los diferentes instantes de tiempo de la secuencia de entrada, permitiendo posteriormente observar cuáles fueron los elementos considerados relevantes para realizar la inferencia. Esta capacidad agrega atributos de explicabilidad a los modelos. Usando como base la Entity Network (Henaff et al., 2016), se realizaron experimentos en tareas de question answering utilizando el conjunto de datos bAbI tasks. Gracias al uso de los módulos de atención temporal se incrementa la métrica de rendimiento en un 26% al supervisar la atención temporal y en un 13,5% al no hacerlo. Adicionalmente, el uso de de los módulos de atención temporal permite resolver tareas de razonamiento que el modelo original no es capaz de resolver.En este trabajo se introducen dos módulos de atención temporal, los cuales pueden ser acoplados a modelos tradicionales de redes neuronales recurrentes con memoria externa para mejorar el rendimiento de éstos en tareas de procesamiento de lenguaje natural. Los módulos de atención temporal otorgan a los modelos la capacidad de construir una distribución de atención sobre los diferentes instantes de tiempo de la secuencia de entrada, permitiendo posteriormente observar cuáles fueron los elementos considerados relevantes para realizar la inferencia. Esta capacidad agrega atributos de explicabilidad a los modelos. Usando como base la Entity Network (Henaff et al., 2016), se realizaron experimentos en tareas de question answering utilizando el conjunto de datos bAbI tasks. Gracias al uso de los módulos de atención temporal se incrementa la métrica de rendimiento en un 26% al supervisar la atención temporal y en un 13,5% al no hacerlo. Adicionalmente, el uso de de los módulos de atención temporal permite resolver tareas de razonamiento que el modelo original no es capaz de resolver.
dc.format.extentx, 45 páginas
dc.identifier.doi10.7764/tesisUC/ING/29425
dc.identifier.urihttps://doi.org/10.7764/tesisUC/ING/29425
dc.identifier.urihttps://repositorio.uc.cl/handle/11534/29425
dc.language.isoes
dc.nota.accesoContenido completo
dc.rightsacceso abierto
dc.subject.ddc006.3
dc.subject.deweyCiencias de la computaciónes_ES
dc.subject.otherInteligencia artificiales_ES
dc.subject.otherAprendizaje de máquinaes_ES
dc.subject.otherProcesamiento del lenguaje natural (Ciencia de la computación)es_ES
dc.titleMódulos de atención temporal para redes neuronales con memoria externaes_ES
dc.typetesis de maestría
sipa.codpersvinculados73678
sipa.codpersvinculados222878
Files
Original bundle
Now showing 1 - 1 of 1
Loading...
Thumbnail Image
Name:
TESIS_RPalma_Firma Final.pdf
Size:
927.34 KB
Format:
Adobe Portable Document Format
Description:
License bundle
Now showing 1 - 1 of 1
Loading...
Thumbnail Image
Name:
license.txt
Size:
1.31 KB
Format:
Item-specific license agreed upon to submission
Description: