Facultades, Escuelas e Institutos
Permanent URI for this community
Browse
Browsing Facultades, Escuelas e Institutos by browse.metadata.categoria "Ciencias de la computación"
Now showing 1 - 20 of 92
Results Per Page
Sort Options
- ItemA better mobile browsing experience through pattern recognition and dynamic restructuring of web pages(2010) Larraín Morel, Augusto; Navón Cohen, Jaime; Pontificia Universidad Católica de Chile. Escuela de Ingeniería
- ItemA cloud-based mobile system to support effective collaboration in higher education online courses(2017) Rojas Riethmüller, Juan Sebastián; Neyem, Andrés; Pontificia Universidad Católica de Chile. Escuela de IngenieríaActualmente existen más de cuatro mil cursos MOOC ofrecidos mediante distintas Plataformas MOOC. Estas plataformas son robustas y soportan grandes volúmenes de datos y un alto número de usuarios. Debido a estas características, las instituciones de educación superior han adoptado estas plataformas para extender las prácticas del aula tradicional. La forma más común en que adoptan estas Plataformas MOOC, consiste en desarrollar cursos online exclusivamente para sus estudiantes. Estos cursos reciben el nombre de Small Private Online Courses (SPOCs), y solo pueden ser accedidos por un número reducido de estudiantes de dicha institución. El uso de las Plataformas MOOC permite a las universidades innovar y tener más flexibilidad en sus currículos. Sin embargo, estas plataformas no están preparadas para promover el aprendizaje colaborativo entre los estudiantes, ya que no cuentan con las herramientas necesarias. Respecto a este problema, Mobile Cloud Computing (MCC) ofrece varias ventajas para diseñar un sistema que promueva la colaboración entre estudiantes de educación superior, pero estas ventajas no han sido aprovechadas. Entonces, esta investigación se enfoca en el desarrollo de un sistema basado en MCC para promover la colaboración entre estudiantes en una Plataforma MOOC, en el contexto de la educación superior. Se siguió una metodología de Design Based Research para recopilar información, y producir y testear prototipos funcionales de manera iterativa e incremental. El sistema resultante es MyMOOCSpace, un sistema MCC que incluye dinámicas de colaboración enriquecidas con elementos de gamificación. Se realizaron evaluaciones para medir la usabilidad y el efecto en la colaboración de MyMOOCSpace. Los resultados de usabilidad muestran que los estudiantes se sintieron a gusto interactuando con el sistema, que logra también cumplir los requerimientos técnicos. Finalmente, los resultados muestran que MyMOOCSpace logró generar un aumento en la colaboración y las interacciones entre los estudiantes.
- ItemA differentiable adaptive computation time algorithm for neural networks(2021) Eyzaguirre, Cristóbal; Soto Arriaza, Álvaro Marcelo; Pontificia Universidad Católica de Chile. Escuela de IngenieríaA pesar de las mejoras sustanciales en los resultados que aportan los modelos de redes neuronales, su aplicación generalizada se ha visto limitada por su elevado coste computacional debido a redundancias presentes en este tipo de arquitecturas. M´as a´un, esta tesis postula que dichas ineficiencias no pueden resolverse completamente con métodos estáticos, debido a que algunas redundancias son intrínsecas al problema que se resuelve y, por lo tanto, son dependientes de los datos. Aunque en respuesta a este problema se han propuesto arquitecturas dinámicas que se adaptan a la entrada, todas ellas comparten la limitación de que no son totalmente diferenciables. Ante esta limitación común, nuestro trabajo propone la primera implementación de un algoritmo de tiempo de cómputo dinámico que es totalmente diferenciable: un algoritmo dinámico diferenciable de early exiting que llamamos DACT. Validamos las ventajas de nuestro enfoque, tanto en términos de resultados como de interpretabilidad, utilizando dos de los casos de uso más comunes, y descubrimos que el DACT puede conllevar: i) importantes ganancias de rendimiento cuando sustituye a los enfoques dinámicos existentes, o ii) eliminar las redundancias intrínsecas cuando se utiliza para complementar modelos estáticos. De hecho, en el dominio del procesamiento de lenguaje descubrimos que nuestro enfoque es mejor para reducir el número de bloques Transformer utilizados por los modelos BERT sin pérdida de desempeño en una serie de tareas. Del mismo modo, mostramos una reducción significativa en el número de pasos recurrentes necesarios cuando se aplica a la arquitectura MAC, superando los resultados tanto de los algoritmos adaptativos existentes como de aquellos estáticos comparables, a la vez que se mejora la transparencia del modelo. Además, nuestro modelo muestra una notable estabilidad, respondiendo de forma predecible a los cambios de los hiperparámetros, a la vez que equilibra la precisión y la complejidad de forma razonable.
- ItemA feedback-based framework for process enhancement of causal nets(2015) Pizarro de la Fuente, Nicolás Javier; Sepúlveda Fernández, Marcos Ernesto; Pontificia Universidad Católica de Chile. Escuela de IngenieríaLas técnicas de minería de procesos se utilizan para extraer información útil desde los logs de eventos. Por ejemplo, usando herramientas de descubrimiento de procesos, es factible generar un modelo de proceso que indica el orden de ejecución de las distintas actividades. Sin embargo, los logs de eventos no son siempre objetivos, dado que contienen sólo una muestra de todo el comportamiento posible. Aún cuando se han desarrollado algunas técnicas que permiten reparar estos problemas, ellas se siguen basando en la información del log para funcionar. Dado que ninguna otra fuente de datos permite a los algoritmos existentes mejorar los modelos generados, este trabajo se centra en la creación de una metodología de reparación de modelos de proceso en base a comentarios de usuarios. Esto se realiza iterativamente, definiendo un conjunto de operaciones que permiten a los usuarios proporcionar información adicional, la cual a su vez permite reparar un modelo existente. Este trabajo utiliza redes causales (causal nets) como notación base sobre la cual incorporar los comentarios del usuario, usando tres operadores binarios: causalidad (!), paralelismo (k) e indiferencia (#). Cada uno de ellos representa la relación entre dos actividades según un usuario. Para procesos complejos y con un mayor número de actividades, este trabajo propone además una agrupación mediante subprocesos basada en SESE (Single Entry Single Exit - Entrada Unica Salida Unica). El modelo resultante satisface las operaciones entregadas por los usuarios, manteniendo a su vez la estructura inicial del proceso. Esta metodología ha sido implementada en el programa ProM y fue validada mediante pruebas de usuario.
- ItemA framework for complex event processing(2017) Grez Arrau, Alejandro; Riveros Jaeger, Cristian; Pontificia Universidad Católica de Chile. Escuela de IngenieríaComplex Event Processing (CEP) ha surgido como el campo unificador para las tecnologías que requieren procesar y correlacionar en tiempo real datos heterogéneos y distribuidos. CEP tiene aplicaciones en diversas áreas, lo que ha resultado en que haya un gran número de propuestas para procesar eventos complejos. Sin embargo, los sistemas CEP existentes están basados en soluciones ad-hoc que no se sustentan en bases teóricas sólidas, lo que los hace difíciles de entender, extender y generalizar. Además, son presentados generalmente de manera informal como interfaces de programación, y el utilizar cada uno de ellos requiere aprender un conjunto completamente nuevo de conocimientos. En esta tesis buscamos definir un marco riguroso para CEP. Comenzamos proponiendo un lenguaje formal para especificar eventos complejos, llamado CEPL, que contiene los operadores más comunes utilizados en la literatura y el cual tiene semántica simple y denotacional. Además, formalizamos las llamadas estrategias de selección, que son la piedra angular de CEP y en los sistemas existentes son presentadas sólo como extensiones en su diseño. Con la semántica ya definida, estudiamos cómo evaluar eficientemente CEPL. Obtenemos resultados de optimización basados en la re escritura de fórmulas, proponiendo una forma normal para manejar filtros unarios. Además, damos un modelo computacional formal para CEP basado en transductores y autómatas simbólicos, llamado matchautomata, el cual captura el fragmento regular de fórmulas con predicados unarios. Utilizando técnicas de reescritura y transformando a autómata, mostramos que el fragmento regular de CEPL puede ser evaluado eficientemente (tiempo constante por evento) cuando se utiliza la estrategia de selección next. Con estos resultados, proponemos un marco para evaluar eficientemente CEPL, estableciendo bases sólidas para futuros sistemas CEP.
- ItemA knowledge base approach to improve interpretability and performance of visual question answering task using deep learning models(2019) Riquelme Callejas, Felipe Antonio; Soto Arriaza, Álvaro Marcelo; Pontificia Universidad Católica de Chile. Escuela de IngenieríaLos modelos de Aprendizaje Profundo o Deep Learning son vistos y tratados como cajas negras. Dada una entrada, estos generan una salida a modo de respuesta. Pero no se tiene mas que una noción vaga de lo que llevó al modelo a responder lo que respondió. Sin embargo, en muchas aplicaciones (aplicaciones bancarias, compañías de seguros, asistentes personales, etc) es deseable o incluso necesario saber que llevó al modelo a generar una determinada respuesta. En este trabajo nos enfocamos en el desafío llamado Visual Question Answering (VQA). Este consiste en lograr que un modelo responda preguntas basadas en imágenes que se le presentan. Logramos incorporar una nueva Base de Conocimiento o knowledge base (KB) que contiene relaciones entre objetos del mundo real, lo que ayuda a mejorar la interpretabilidad y el desempeño del modelo mediante la identificación y extracción de información relevante acorde a cada pregunta e imagen que se presenta. La extracción de información de la KB fue supervisada directamente para generar un mapa de atención usado por el modelo para identificar las relaciones relevantes a cada pregunta e imagen. Se muestra cuantitativamente que las predicciones del modelo mejoran con la introducción de la KB. También mostramos cualitativamente la mejora en cuanto a interpretabilidad mediante la atención generada sobre las relaciones de la KB. Adicionalmente, mostramos cómo la KB ayuda a mejorar el desempeño en modelos de VQA que generan explicaciones. Los resultados obtenidos demuestran que el mecanismo de atención empleado en la KB ayuda mejorar la interpretabilidad del modelo. Y la información adicional extraída mejora la representacón interna de éste y por ende también el desempeño.Los modelos de Aprendizaje Profundo o Deep Learning son vistos y tratados como cajas negras. Dada una entrada, estos generan una salida a modo de respuesta. Pero no se tiene mas que una noción vaga de lo que llevó al modelo a responder lo que respondió. Sin embargo, en muchas aplicaciones (aplicaciones bancarias, compañías de seguros, asistentes personales, etc) es deseable o incluso necesario saber que llevó al modelo a generar una determinada respuesta. En este trabajo nos enfocamos en el desafío llamado Visual Question Answering (VQA). Este consiste en lograr que un modelo responda preguntas basadas en imágenes que se le presentan. Logramos incorporar una nueva Base de Conocimiento o knowledge base (KB) que contiene relaciones entre objetos del mundo real, lo que ayuda a mejorar la interpretabilidad y el desempeño del modelo mediante la identificación y extracción de información relevante acorde a cada pregunta e imagen que se presenta. La extracción de información de la KB fue supervisada directamente para generar un mapa de atención usado por el modelo para identificar las relaciones relevantes a cada pregunta e imagen. Se muestra cuantitativamente que las predicciones del modelo mejoran con la introducción de la KB. También mostramos cualitativamente la mejora en cuanto a interpretabilidad mediante la atención generada sobre las relaciones de la KB. Adicionalmente, mostramos cómo la KB ayuda a mejorar el desempeño en modelos de VQA que generan explicaciones. Los resultados obtenidos demuestran que el mecanismo de atención empleado en la KB ayuda mejorar la interpretabilidad del modelo. Y la información adicional extraída mejora la representacón interna de éste y por ende también el desempeño.Los modelos de Aprendizaje Profundo o Deep Learning son vistos y tratados como cajas negras. Dada una entrada, estos generan una salida a modo de respuesta. Pero no se tiene mas que una noción vaga de lo que llevó al modelo a responder lo que respondió. Sin embargo, en muchas aplicaciones (aplicaciones bancarias, compañías de seguros, asistentes personales, etc) es deseable o incluso necesario saber que llevó al modelo a generar una determinada respuesta. En este trabajo nos enfocamos en el desafío llamado Visual Question Answering (VQA). Este consiste en lograr que un modelo responda preguntas basadas en imágenes que se le presentan. Logramos incorporar una nueva Base de Conocimiento o knowledge base (KB) que contiene relaciones entre objetos del mundo real, lo que ayuda a mejorar la interpretabilidad y el desempeño del modelo mediante la identificación y extracción de información relevante acorde a cada pregunta e imagen que se presenta. La extracción de información de la KB fue supervisada directamente para generar un mapa de atención usado por el modelo para identificar las relaciones relevantes a cada pregunta e imagen. Se muestra cuantitativamente que las predicciones del modelo mejoran con la introducción de la KB. También mostramos cualitativamente la mejora en cuanto a interpretabilidad mediante la atención generada sobre las relaciones de la KB. Adicionalmente, mostramos cómo la KB ayuda a mejorar el desempeño en modelos de VQA que generan explicaciones. Los resultados obtenidos demuestran que el mecanismo de atención empleado en la KB ayuda mejorar la interpretabilidad del modelo. Y la información adicional extraída mejora la representacón interna de éste y por ende también el desempeño.
- ItemA principled approach to bridging the gap between RDF data and their schemas.(2013) Díaz Cáceres, Gonzalo Ignacio; Arenas Saavedra, Marcelo Alejandro; Pontificia Universidad Católica de Chile. Escuela de IngenieríaAunque grafos RDF tienen información de su esquema asociados a ellos, en la práctica es muy común encontrar situaciones en que los datos no se conforman totalmente a su esquema. Un ejemplo conspicuo es el de DBpedia, que son datos RDF extraídos desde Wikipedia, una fuente de información públicamente editable. En tales situaciones, se torna interesante estudiar las propiedades estructurales de los datos en sí, dado que el esquema de una descripción incompleta de la organización de una base de datos. En este trabajo nos hemos acercado al estudio de la estructura de un grafo RDF desde primeros principios: proponemos un marco teórico para especificar funciones de estructura, que miden el grado de conformancia entre un grafo RDF y un esquema. En particular, primero se define un lenguaje formal para la especificación de funciones de estructura mediante expresiones que denominamos reglas. Este lenguaje permite a un usuario o a un administrador de una base de datos especificar una regla a la cual un grafo RDF puede conformarse de forma total o parcial.
- ItemAdvancing decomposed conformance checking in process mining(2020) Lee, Wai Lam Jonathan; Muñoz Gama, Jorge; Pontificia Universidad Católica de Chile. Escuela de IngenieríaEn los últimos años, la “process mining” ha ido ganando terreno como herramienta para analizar y mejorar los procesos en la industria, como lo ejemplifican empresas como Disco, Celonis y Minit. Además, muchas herramientas comerciales de process mining se están extendiendo más allá del descubrimiento de procesos a la “conformance checking” que permite comparar el comportamiento observado y modelado para encontrar diferencias entre los dos. Realizar la conformance checking en entornos industriales significa que las técnicas deben poder abordar las diferentes dimensiones de los datos. Por ejemplo, las técnicas de conformance checking tienen que escalar desde procesos de pequeñas empresas hasta organizaciones multinacionales que pueden estar manejando muchos casos por hora. Esta tesis se centra en la conformance checking y aborda especficamente los desafíos que surgen de la aplicación de la conformance checking en diferentes escenarios. Las técnicas basadas en alineación (alignment) son el estado del arte para identificar y explicar las discrepancias entre el comportamiento observado y modelado. Sin embargo, debido a la explosión del espacio de estados con procesos con construcciones paralelas, la alignment puede ser computacionalmente costosa. La primera parte de la tesis se centra en extender las técnicas de descomposición al cálculo de alignment. La tesis muestra que la alignment se puede calcular de forma descompuesta y presenta un algoritmo de conformance checking novedoso que calcula la alignment utilizando el paradigma de dividir y conquistar. En la actualidad, existen muchas técnicas de conformance checking disponibles para los usuarios. Sin embargo, puede resultar difícil seleccionar el mejor algoritmo para el trabajo, ya que depende de los datos de entrada y del objetivo del usuario. La segunda parte de la tesis investiga técnicas de machine learning para ayudar a los usuarios a seleccionar el mejor algoritmo en función de sus datos de entrada. Específicamente, aplica el machine learning al problema de clasificación de si las técnicas de descomposición pueden mejorar el tiempo de cálculo dado el modelo y el event log. La tercera parte de la tesis se centra en la conformance checking en tiempo real. Dado el volumen y la velocidad a la que llegan los datos de eventos, es posible que las organizaciones no almacenen todos los datos generados para el análisis offline y, en su lugar, tengan que recurrir a técnicas en tiempo real. Además, realizar análisis en tiempo real permite a los dueños del proceso reaccionar y resolver los problemas en forma inmediato. Realizar la conformance checking en una configuración en tiempo real tiene sus propios desafíos únicos. Por ejemplo, la técnica de conformance checking tiene que equilibrar el énfasis en la información actual y garantizar que el resultado de conformance sea algo estable a medida que se desarrolla el caso en ejecución. La tesis presenta una novedosa técnica de conformance checking en tiempo real basada en Hidden Markov Model.En los últimos años, la “process mining” ha ido ganando terreno como herramienta para analizar y mejorar los procesos en la industria, como lo ejemplifican empresas como Disco, Celonis y Minit. Además, muchas herramientas comerciales de process mining se están extendiendo más allá del descubrimiento de procesos a la “conformance checking” que permite comparar el comportamiento observado y modelado para encontrar diferencias entre los dos. Realizar la conformance checking en entornos industriales significa que las técnicas deben poder abordar las diferentes dimensiones de los datos. Por ejemplo, las técnicas de conformance checking tienen que escalar desde procesos de pequeñas empresas hasta organizaciones multinacionales que pueden estar manejando muchos casos por hora. Esta tesis se centra en la conformance checking y aborda especficamente los desafíos que surgen de la aplicación de la conformance checking en diferentes escenarios. Las técnicas basadas en alineación (alignment) son el estado del arte para identificar y explicar las discrepancias entre el comportamiento observado y modelado. Sin embargo, debido a la explosión del espacio de estados con procesos con construcciones paralelas, la alignment puede ser computacionalmente costosa. La primera parte de la tesis se centra en extender las técnicas de descomposición al cálculo de alignment. La tesis muestra que la alignment se puede calcular de forma descompuesta y presenta un algoritmo de conformance checking novedoso que calcula la alignment utilizando el paradigma de dividir y conquistar. En la actualidad, existen muchas técnicas de conformance checking disponibles para los usuarios. Sin embargo, puede resultar difícil seleccionar el mejor algoritmo para el trabajo, ya que depende de los datos de entrada y del objetivo del usuario. La segunda parte de la tesis investiga técnicas de machine learning para ayudar a los usuarios a seleccionar el mejor algoritmo en función de sus datos de entrada. Específicamente, aplica el machine learning al problema de clasificación de si las técnicas de descomposición pueden mejorar el tiempo de cálculo dado el modelo y el event log. La tercera parte de la tesis se centra en la conformance checking en tiempo real. Dado el volumen y la velocidad a la que llegan los datos de eventos, es posible que las organizaciones no almacenen todos los datos generados para el análisis offline y, en su lugar, tengan que recurrir a técnicas en tiempo real. Además, realizar análisis en tiempo real permite a los dueños del proceso reaccionar y resolver los problemas en forma inmediato. Realizar la conformance checking en una configuración en tiempo real tiene sus propios desafíos únicos. Por ejemplo, la técnica de conformance checking tiene que equilibrar el énfasis en la información actual y garantizar que el resultado de conformance sea algo estable a medida que se desarrolla el caso en ejecución. La tesis presenta una novedosa técnica de conformance checking en tiempo real basada en Hidden Markov Model.
- ItemAge of information in IOT-based wireless networked control systems(2021) Mena Ríos, Juan Pablo; Núñez Retamal, Felipe Eduardo; Pontificia Universidad Católica de Chile. Escuela de IngenieríaUna correcta ocurrencia en el tiempo de transmisión de la información es fundamental para garantizar el rendimiento de los sistemas de control sobre redes (NCS). A pesar de que esta ocurrencia está intrínsecamente vinculada a la red de comunicación, hoy en día el diseño de los sistemas de control en red considera las capas de control y comunicación de forma separada. Como un paso hacia el cambio de esta perspectiva, este trabajo analiza la interacción entre ambas capas utilizando los conceptos de la edad de la información (AoI) y la edad pico en sistemas de control en red basados en el internet de las cosas (IoT), donde un conjunto de lazos de control independientes operan a través de una red compartida. En particular, el análisis se centra en cómo se comportan las métricas basadas en el concepto de la edad del estado en los esquemas inalámbricos de control de acceso al medio (MAC) típicamente utilizados en las implementaciones de IoT, y cómo este comportamiento se puede utilizar para explicar la calidad de control (QoC) de los lazos insertados en una red específica, la cual esta vinculada con dos indicadores clásicos de NCS: el intervalo de transmisión máximo permitido (MATI) y máximo retardo permitido (MAD). Se revisan diferentes conceptos relevantes para el estudio de sistemas de control en redes. Luego, sobre la base de modelos NCS comúnmente utilizados en la literatura, se derivan expresiones para AoI, la edad pico y la probabilidad de que la edad pico supere un cierto umbral relacionado con la estabilidad del lazo para NCS inalámbricos que utilizan dos tipos distintos de protocolos CSMA/CA y un tipo de TDMA. Además, se establecen algunas ideas sobre la utilidad de ciertos protocolos MAC dependiendo de los requisitos de diseño específicos, y se realizan comparaciones efectivas en el contexto de ejemplos de problemas de diseño. Las principales conclusiones involucran la obtención de diferentes tasas de muestreo óptimas para la edad de la información en los diferentes protocolos analizados para diferentes largos de paquetes. Además, la relación entre la edad pico y la estabilidad de los lazos se logra a través de la determinación de tasas de muestreo óptimas para evitar el exceder un cierto umbral relacionado a la estabilidad del lazo.
- ItemAlgorithm design for the distributed average consensus problem over IoT environments(2018) Oróstica Navarrete, Boris Enrique; Núñez Retamal, Felipe Eduardo; Pontificia Universidad Católica de Chile. Escuela de IngenieríaA medida que las tecnologías de comunicación han ampliado el conjunto de dispositivos con capacidades de red, está surgiendo una nueva concepción de la Internet de las cosas (IoT). Con la incorporación de dispositivos con diagnósticos avanzados y capacidades de actuación, el IoT proporciona un entorno atractivo para controlar procesos externos utilizando sus capacidades de detección, actuación y computación. En este contexto, los algoritmos de consenso son una alternativa atractiva para apoyar el funcionamiento del IoT y para habilitar su potencial como red de control distribuido. En particular, el problema de llegar a un consenso al promedio de algunas cantidades iniciales es un problema desafiante con potencial aplicaciones en el entorno IoT. Aunque los algoritmos de consenso son estrategias maduras y bien estudiadas que se ajustan naturalmente a las redes, su desempeño se deteriora cuando se enfrentan a fenómenos tales como retrasos estocásticos, transmisiones y recepciones secuenciales y falta de fiabilidad en el proceso de intercambio de información; todo presente en un entorno de IoT. En este trabajo, se diseña un nuevo algoritmo para lograr el consenso al promedio en un entorno IoT. Se desarrolla un análisis teórico para comprender sus principios de funcionamiento. Además, el algoritmo está codificado como un protocolo en hardware real el cual se evalúa en una red local de baja escala y en una red pública de gran escala. El algoritmo está inspirado en gossips y converge al promedio en todos los experimentos realizados en un entorno real de IoT donde enfrenta las no idealidades de los fenómenos de comunicación.
- ItemAlgorithms for visual art recommendation : leveraging visual features, metadata and implicit feedback(2019) Messina, Pablo; Parra Santander, Denis; Pontificia Universidad Católica de Chile. Escuela de IngenieríaLos Sistemas Recomendadores nos ayudan a lidiar con la sobrecarga de información mediante la sugerencia de ítems relevantes conforme a nuestras preferencias. Si bien hay una gran cantidad de investigación en áreas como películas o música, la recomendación de obras de arte ha recibido comparativamente poca atención, a pesar del continuo crecimiento del mercado de arte. La mayoría de la investigación previa ha dependido de ratings y metadatos, y unos pocos trabajos recientes han aprovechado descriptores visuales extraídos con redes neuronales convolucionales (CNN) para recomendar arte digital. En este trabajo, contribuimos al área de recomendación de pinturas físicas originales mediante el estudio de algoritmos de recomendación basados en diferentes fuentes de información: metadatos, descriptores visuales hechos a mano, descriptores visuales neuronales e información colaborativa de la retroalimentación implícita de los usuarios. Implementamos y evaluamos nuestros algoritmos usando datos transaccionales de UGallery.com, una tienda de arte en línea. Además, proponemos un modelo de red neuronal novedoso para la tarea de recomendación de arte que combina contenido e información colaborativa. Lo llamamos YT-VBPR ya que esta inspirado en ideas del sistema de recomendación de aprendizaje profundo de Youtube y VBPR (un método de recomendación estado del arte que incorpora información visual). Nuestros resultados muestran que entre todos los métodos probados, YT-VBPR alcanza los mejores resultados. Además, una vez entrenado, YT-VBPR sólo necesita imágenes como entrada para recomendar, permitiendo generalizar fácilmente a nuevos usuarios e ítems sin entrenamiento adicional. Nuestra investigación puede proveer observaciones valiosas a investigadores y desarrolladores en el dominio de recomendación de arte en particular, y también a aquellos interesados en métodos de recomendación con contenido visual en general.
- ItemAn optimal algorithm for strict circular seriation(2021) Armstrong Cruz, Santiago; Guzmán Paredes, Cristóbal; Sing-Long C., Carlos A.; Pontificia Universidad Católica de Chile. Escuela de IngenieríaEl problema de la seriación busca ordenar una secuencia de n objetos cuando la única información que se nos da es una matriz de disimilitud entre todos los pares de objetos. En la seriación lineal, el objetivo es encontrar un em orden lineal de los objetos manera que sea consistente con su disimilitud. Para este problema se conocen los algoritmos óptimos O(n2). Una generalización del problema anterior es seriación circular, donde el objetivo es encontrar un em orden circular. En esta tesis estudiamos el problema de la seriación circular. Nuestras contribuciones se pueden resumir de la siguiente manera. Primero, presentamos em matrices circulares de Robinson como la clase natural de matrices de disimilitud para el problema de seriación circular. En segundo lugar, para el caso de em matrices de disimilitud circular estrictas de Robinson proporcionamos un algoritmo O(n2) óptimo para el problema de seriación circular. Finalmente, proponemos un modelo estadístico para analizar el buen planteamiento (well-posedness en el sentido de Hadamard) del problema de seriación circular para grandes valores de n. En particular, establecemos tasas del orden O(log(n)/n) para la distancia entre cualquier orden circular encontrado al resolver el problema de seriación circular al orden subyacente del modelo, en la métrica de Kendall-tau.
- ItemAnálisis de la sintaxis aprendida por BETO, un modelo de lenguaje en español basado en transformers(2021) Quiñones, Alejandro; Soto Arriaza, Álvaro Marcelo; Pontificia Universidad Católica de Chile. Escuela de IngenieríaAvances en la interpretabilidad y comprensión de modelos como BERT han sido de utilidad para el desarrollo de mejores herramientas, más seguras y comprensibles. Sin embargo, muchas explicaciones del funcionamiento del modelo son en base a capacidades lingüísticas aprendidas, significando que los resultados son solo aplicables para los modelos basados en el inglés. En esta tesis se estudian las capacidades sintácticas de BETO, la versión de BERT en español, desarrollando la comprensión del modelo. Se muestra que BETO posee capacidades sintácticas, incluso mayores que las de BERT, presentes en distintas heads del modelo. Además, se realizan estudios con respecto a las competencias, limitaciones y estructura de este conocimiento. Se encuentra que las activaciones del modelo se producen en patrones similares cuando se procesan relaciones parecidas. Se indica que la principal causa para que el modelo falle en reconocer relaciones sintácticas es cuando éstas se estructuran de manera poco común. Se muestra que el modelo posee parte del contexto sintáctico que falla en reconocer, sugiriendo un desacuerdo en la formación del árbol sintáctico con respecto a las anotaciones originales. También, la falta de conocimiento sintáctico del modelo podría significar una reducción en su rendimiento al evaluarlo en responder preguntas. Por último, se demuestra que heads con bajo conocimiento sintáctico logran un alto reconocimiento de la sintaxis cuando trabajan en conjunto, indicando la presencia de un conocimiento distribuido.
- ItemAnalysis of students' self-regulatory strategies in MOOCS and their impact on academic performance.(2019) Maldonado Mahauad, Jorge Javier; Pérez Sanagustín, Mar; Pontificia Universidad Católica de Chile. Escuela de IngenieríaLos Cursos Abiertos Masivos y en Línea (MOOCs – Massive Open Online Courses) se han convertido en una fuente de contenido digital que puede ser abordado de forma atemporal y desde cualquier lugar. Los MOOCs ofrecen contenidos de calidad a millones de estudiantes de todo el mundo, brindando nuevas oportunidades de aprendizaje. Sin embargo, sólo una fracción de los que inician un MOOC logran terminarlo, dejando a miles de estudiantes comprometidos sin alcanzar sus metas. Investigaciones recientes sugieren que una de las razones por la que a los estudiantes les resulta difícil de terminar el MOOC es que tienen problemas para planificar, ejecutar y monitorear su proceso de aprendizaje de manera autónoma; es decir, no autorregulan su proceso de aprendizaje de forma efectiva para lograr terminar con éxito un MOOC. En esta tesis, se explorará las posibilidades que ofrece la Analítica del Aprendizaje (LA – Learning Analytics) para investigar las estrategias de aprendizaje que los estudiantes utilizan cuando autorregulan su su aprendizaje en entornos en línea como son los MOOCs. El principal objetivo de esta investigación es desarrollar instrumentos y métodos para medir las estrategias de autorregulación del aprendizaje (SRL – Self Regulated Learning) de los estudiantes (p. ej. cognitivas, metacognitivas y de gestión de recursos de estudio) en los MOOCs y analizar su relación con los resultados del aprendizaje de los estudiantes. Como enfoque metodológico, esta tesis utiliza métodos mixtos como línea base para la organización y planificación de la investigación, combinando datos de trazas de eventos de los estudiantes con datos de auto-reporte para comprender mejor el SRL en los MOOCs. La principal contribución de la tesis es triple. Primero, propone un instrumento para medir los perfiles de SRL de los estudiantes en los MOOC. Este instrumento se validó mediante un análisis factorial exploratorio y confirmatorio con 4,627 respuestas recopiladas en tres MOOCs. En segundo lugar, presenta una metodología basada en técnicas de minería de datos y minería de procesos para extraer los patrones de SRL de los estudiantes en los MOOC. La metodología se aplicó en tres MOOCs de Coursera (self-paced) con datos de 3,458 estudiantes, en los que se identificaron seis patrones de interacción. Luego, esta metodología se adaptó y aplicó en un esfuerzo de replicación para analizar un MOOC en edX síncrono con datos de 50,776 estudiantes donde se identificaron doce patrones de interacción. La tercera contribución, es un conjunto de estudios empíricos que muestra la relación entre las estrategias de SRL y el rendimiento académico, utilizando datos de seis MOOCs (self-paced) en Coursera y dos MOOC síncronos en Open edX. Estos estudios empíricos permitieron determinar las variables demográficas de auto-reporte de los estudiantes (p. ej. género, conocimiento previo y ocupación) y estrategias auto-reportadas de SRL (p. ej. establecimiento de objetivos, planificación estratégica) que fueron identificadas como las más relevantes para predecir el rendimiento académico. En conclusión, esta tesis ofrece un conjunto de instrumentos y métodos que podrían ser utilizados por otros investigadores en diferentes contextos para estudiar el SRL en MOOCs. Los resultados de esta investigación abren nuevas vías para la personalización y adaptación del contenido de un MOOC de acuerdo con los comportamientos autorregulados de los estudiantes y establecen las bases para el estudio de la SRL como un proceso en otros entornos de aprendizaje con soporte digital.
- ItemAplicación de minería de procesos y optimización del proceso de mantención de equipos LHD(2021) Velásquez Aedo, Nicolás Felipe Alfonso; Anani, Angelina; Pontificia Universidad Católica de Chile. Escuela de IngenieríaExiste un amplio desarrollo de técnicas orientadas a definir cuáles son los componentes críticos de un equipo, y cuándo y cómo deben pasar por un proceso de mantenimiento, sin embargo, aún existe una oportunidad de mejora en cuanto al desarrollo y eficiencia del proceso mismo de mantención. La investigación, desarrollada con el apoyo de una importante minera subterránea en Chile, tiene por objetivo poner a prueba la hipótesis de que la implementación de técnicas de minería de procesos (sub-disciplina de las Ciencias de Datos) en los ciclos de mantenimiento de equipos mineros (LHD - Load Haul Dump) permitirá optimizar el flujo de trabajo. Esto se logra mediante análisis orientado a procesos. Para ello, se requiere llevar datos de bajo nivel a un log de eventos apropiado. Este trabajo presenta la primera integración de DES y minería de procesos para generar un log de eventos desde data de bajo nivel y determinar los cuellos de botella y su impacto en el ciclo de mantenimiento de los equipos de minería subterránea. El diagnóstico generado desglosa pérdidas operativas de aproximadamente 23.800 hrs de equipo detenido por año, con un costo, por no producción de cerca de 1,12 MUSD/año. La detección de estas brechas permite identificar oportunidades de mejora, evaluar cada caso y definir acciones correctivas para lograr una mejor gestión del proceso de mantención.
- ItemAplicación de procesamiento de lenguaje natural sobre una encuesta de satisfacción(2021) Álvarez Arismendi, Carlos; Gazmuri S., Pedro; Pontificia Universidad Católica de Chile. Escuela de IngenieríaSe emplearon técnicas de Procesamiento de Lenguaje Natural sobre una encuesta de satisfacción de la industria del retail con el objetivo de obtener información relevante del texto contestado que no se puede obtener a partir de los indicadores de nivel de satisfacción tradicionales. El trabajo se enfocó en el análisis de diferentes modelos de clasificación multi-label de texto y de resumen extractivo de texto. Se construyó un baseline de clasificación de texto en que se utilizó FastText para modelar el lenguaje. Se expone un análisis de cómo distintos factores del preprocesamiento de texto afectan en el rendimiento de clasificación. Los resultados indican que la corrección de faltas de ortografía mejora la clasificación de los textos y el aumento artificial de datos aumenta la precisión, pero disminuye la exhaustividad. La implementacion del modelo de propósito general BERT mejora sustancialmente el rendimiento de clasificación de textos respecto del baseline. Se muestra que la corrección ortográfica es relevante en el rendimiento de clasificación y que los textos cortos se clasifican de mejor manera. Los experimentos de resumen extractivo de texto logran resumir los hechos relevantes mejor que métodos propuestos en otros trabajos y mejor que seleccionando al azar. La incorporación de información de clasificación de texto mejora la calidad del resumen extraído. Se comparan los resultados de la clasificación de las encuestas con los índices de satisfacción tradicionales. Se encuentra que los clientes comentan sobre más aspectos negativos que positivos y que éstos no se ven reflejados en el índice de satisfacción.
- ItemAprendiendo modelos sparse para algoritmos de deep reinforcement learning basados en policy gradient(2021) Meléndez Salinas, Christian; Löbel Díaz, Hans-Albert; Pontificia Universidad Católica de Chile. Escuela de IngenieríaLos modelos de redes neuronales han sido ampliamente utilizados durante la última década, debido principalmente a su gran versatilidad y capacidad de obtener un alto rendimiento al resolver diversos problemas. Una de las posibles causas de este fenómeno parece ser la estructura jerárquica y la gran cantidad de parámetros que poseen, ya que les otorga un gran poder expresivo. Sin embargo, esta gran complejidad puede ser perjudicial, ya que puede generar: i) overfitting, ii) parámetros redundantes para la tarea que se está resolviendo y iii) cómputo innecesario. Una forma de reducir la complejidad del modelo es a través de regularización sparse, la cual consiste en una penalización dentro de la función objetivo del problema de optimización que fuerza el uso de menos parámetros o neuronas. Se han explorado formas de reducir la complejidad de los modelos de redes neuronales a través de regularización en contextos de aprendizaje supervisado, sin embargo, no se ha explorado el efecto que tiene en un contexto de aprendizaje reforzado basado en policy gradient. El presente trabajo estudia la posibilidad de obtener modelos menos complejos en aprendizaje reforzado utilizando algoritmos basados en policy gradient. Esto se hace comparando distintos tipos de regularización sparse, enfocándose en la obtención de modelos menos complejos en cuanto al uso de neuronas. Los resultados de este estudio indican que sí es posible encontrar modelos que utilicen una baja cantidad de neuronas a través de regularización sparse, siendo aquella aplicada sobre las activaciones la que obtuvo mejores resultados en cuanto a rendimiento y nivel de sparsity. Además, se muestra que modelos menos complejos poseen neuronas más especializadas que podrían ayudar a interpretar modelos en cuanto al rol que cumplen grupos de neuronas dentro de una política.
- ItemAugmenting deep learning models using continual and meta learning strategies(2022) Hurtado González, Julio Andrés; Soto Arriaza, Álvaro Marcelo; Pontificia Universidad Católica de Chile. Escuela de IngenieríaLos modelos de aprendizaje profundo son entrenados con conjuntos de datos finitos con una distribución fija, y se prueban en conjuntos que siguen la misma distribución. Este proceso difiere mucho de como aprendemos los humanos, donde nos enfrentamos a diferentes situaciones que debemos aprender a resolver continuamente. Los modelos de aprendizaje profundo no son capaces de adaptarse continuamente a nuevas tareas o situaciones. Cuando un modelo ya entrenado se enfrenta con una nueva tarea, debe ser re entrenado para adaptarse a los nuevos datos. Este entrenamiento modifica completamente los pesos del modelo para enfocarse en la nueva tarea, causando que el modelo olvide lo previamente aprendido. Este problema es conocido como olvido catastrófico, y es el responsable de que el rendimiento de tareas entrenadas previamente baje drásticamente. En esta tesis nos enfocamos en dos ideas para aliviar el problema del olvido. La primera idea es aprender pesos que favorezcan la transferencia de conocimiento entre tareas, lo que disminuye la necesidad de modificar los pesos del modelo, reduciendo el olvido. La segunda idea es facilitar la reutilización de los pesos del modelo, es decir, entregar herramientas al modelo para que una nueva tarea utilice la información ya adquirida y la complemente con aprendizaje de la propia tarea. Las dos grandes contribuciones de esta tesis consisten en dos métodos que utilizan estas ideas para aliviar el problema del olvido catastrófico en problemas de aprendizaje continuo. Estas contribuciones muestran que incentivar la reutilización de los pesos es un factor importante para reducir el olvido.
- ItemBases y diseño preliminar de plataforma web de formación, fomento y desarrollo del emprendimiento local en industrias creativas(2015) Downey Romero, Kalu Margarita; Alaniz Muñoz, Sebastián Andrés; Pontificia Universidad Católica de Chile. Facultad de ComunicacionesEste proyecto llevado a cabo para optar al grado de Magíster en Comunicación Social, con mención en Comunicación y Educación, intenta colaborar con el desarrollo del emprendimiento en Industrias Creativas en Chile, siendo un aporte en el crecimiento del capital humano creativo y de la cultura local. Con esa motivación, esta iniciativa ha sido elaborada para cimentar las bases de desarrollo de una plataforma interactiva y digital de educación no formal, que a su vez busca ser un espacio dedicado a contribuir en la formación, el aprendizaje y el fomento del emprendimiento chileno en Industrias Creativas. Un sitio que permita orientar a quienes tengan la intención y motivación de emprender con iniciativas vinculadas a las artesanía, las artes visuales, la fotografía, el teatro, la danza, las artes circenses, el editorial, la música, el audiovisual, la arquitectura, el diseño y los nuevos medios, y que les permita también encontrarse, dialogar entre ellos, ser parte de una comunidad y aprender de manera significativa sobre cómo desarrollar un emprendimiento creativo sostenible en el tiempo.
- ItemBlur adaptive sparse representation of random patches for race recognition on blurred images(2016) Heinsohn Manetti, Daniel Ignacio; Mery Quiroz, Domingo; Pontificia Universidad Católica de Chile. Escuela de IngenieríaA pesar de que el reconocimiento de caras, en ambientes no controlados, ha sido ampliamente estudiado en los últimos 25 años, el estado del arte en estos algoritmos continúan con bajos rendimientos en imágenes borrosas. En este documento se aborda el reconocimiento de rostros en imágenes que se encuentran borrosas, al ejecutar un algoritmo que es una modificación del algoritmo Adaptive Sparse Representation of Random Patches (ASR+). Este algoritmo extrae, al azar, parches de cada una de las imágenes de sujetos previamente enlistados. Luego, ASR+ construye un diccionario adaptivo el cual concatena los ‘mejores’ diccionarios de cada sujeto. Finalmente, usando este diccionario, cada parche de la imagen de prueba es clasificado acorde a la metodología de Sparse Representation Classification (SRC). En la fase de prueba, la imagen en cuestión es clasificada por mayoría de votos de los parches previamente clasificados. En este artículo proponemos bASR+, o blur ASR+, que crea diccionarios con distintos niveles de desenfoque sintético a partir de distintos niveles de desenfoque gaussiano.Cada set de imágenes borrosas será descrito por una métrica de nitidez. Cuando se inicia el reconocimiento de la imagen de prueba, la métrica de nitidez s de la imagen es calculada y comparada a la métrica de nitidez de cada uno de los set de imágenes. Luego, se selecciona el diccionario que más se parece a la métrica s. Así, un diccionario adaptivo es contruído a partir del set de imágenes borrosas y la metodología ASR+ continúa para realizar el reconocimiento. Se diseñaron experimentos basados en imágenes borrosas, que fueron creadas tomando fotografías des-enfocadas, a las imágenes de cara de sujetos de la base de datos AR, desplegadas en un monitor. En nuestros experimentos, bASR+ sobrepasa a los algoritmos del estado del arte y software comerciales obteniendo reconocimientos de 85.6% en imágenes sumamente borrosas.