Bridging the visual semantic gap in VLN via semantically richer instructions

dc.contributor.advisorSoto Arriaza, Álvaro Marcelo
dc.contributor.authorOssandón Stanke, Joaquín
dc.contributor.otherPontificia Universidad Católica de Chile. Escuela de Ingeniería
dc.date.accessioned2022-07-18T20:32:52Z
dc.date.available2022-07-18T20:32:52Z
dc.date.issued2022
dc.descriptionTesis (Master of Science in Engineering)--Pontificia Universidad Católica de Chile, 2022
dc.description.abstractLa tarea de Visual-and-Language Navigation (VLN) requiere entender complejas instrucciones de texto en lenguaje natural y navegar en un ambiente natural interior usando únicamente información visual. Mientras es una tarea trivial para el humano, sigue siendo un problema abierto para los modelos de inteligencia artificial. En este trabajo, planteamos como hipótesis que el mal uso de la información visual disponible es la razón principal del bajo rendimiento de los modelos actuales. Para apoyar esta hipótesis, presentamos evidencia experimental mostrando que modelos del estado del arte no son totalmente afectados cuando reciben limitada o incluso nula información visual, indicando un fuerte overfitting al texto de las instrucciones. Para fomentar un uso más adecuado de la información visual, proponemos un nuevo método de aumento de datos que fomenta la inclusión de información visual más explícita en la generación de instrucciones de navegación textuales. Nuestra intuición principal es que los conjuntos de datos actuales incluyen instrucciones textuales que tienen como objetivo informar a un navegante experto, como un ser humano, pero no a un agente de navegación visual principiante, como un modelo de deep learning inicializado aleatoriamente. Específicamente, para cerrar la brecha semántica visual de los conjuntos de datos actuales, aprovechamos los metadatos disponibles para el conjunto de datos Matterport3D que, entre otros, incluye información sobre etiquetas de objetos que están presentes en las escenas. Entrenando un modelo actual con el nuevo conjunto de instrucciones generado aumenta su rendimiento en un 8% en cuanto a tasa de éxito en entornos desconocidos, mientras que probar estas nuevas instrucciones en humanos supera a las instrucciones sintéticas disponibles, lo que demuestra las ventajas de la propuesta de aumento de datos.
dc.format.extentxi, 61 páginas
dc.fuente.origenSRIA
dc.identifier.doi10.7764/tesisUC/ING/64414
dc.identifier.urihttps://doi.org/10.7764/tesisUC/ING/64414
dc.identifier.urihttps://repositorio.uc.cl/handle/11534/64414
dc.information.autorucEscuela de Ingeniería ; Soto Arriaza, Álvaro Marcelo ; S/I ; 73678
dc.information.autorucEscuela de Ingeniería ; Ossandón Stanke, Joaquín ; S/I ; 232549
dc.language.isoen
dc.nota.accesoContenido completo
dc.rightsacceso abierto
dc.subjectVisiones_ES
dc.subjectLenguajees_ES
dc.subjectNavegaciónes_ES
dc.subjectVLNes_ES
dc.subjectRobótica cognitivaes_ES
dc.subject.ddc006.3
dc.subject.deweyCiencias de la computaciónes_ES
dc.subject.otherInteligencia artificiales_ES
dc.subject.otherProcesamiento de imagenes_ES
dc.subject.otherAprendizaje de máquinaes_ES
dc.titleBridging the visual semantic gap in VLN via semantically richer instructionses_ES
dc.typetesis de maestría
sipa.codpersvinculados73678
sipa.codpersvinculados232549
Files
Original bundle
Now showing 1 - 1 of 1
Loading...
Thumbnail Image
Name:
Tesis_JoaquinOssandon.pdf
Size:
41.57 MB
Format:
Adobe Portable Document Format
Description:
License bundle
Now showing 1 - 1 of 1
Loading...
Thumbnail Image
Name:
license.txt
Size:
1.98 KB
Format:
Item-specific license agreed upon to submission
Description: