3.01 Tesis doctorado
Permanent URI for this collection
Browse
Browsing 3.01 Tesis doctorado by browse.metadata.categoria "Ciencias de la computación"
Now showing 1 - 8 of 8
Results Per Page
Sort Options
- ItemAdvancing decomposed conformance checking in process mining(2020) Lee, Wai Lam Jonathan; Muñoz Gama, Jorge; Pontificia Universidad Católica de Chile. Escuela de IngenieríaEn los últimos años, la “process mining” ha ido ganando terreno como herramienta para analizar y mejorar los procesos en la industria, como lo ejemplifican empresas como Disco, Celonis y Minit. Además, muchas herramientas comerciales de process mining se están extendiendo más allá del descubrimiento de procesos a la “conformance checking” que permite comparar el comportamiento observado y modelado para encontrar diferencias entre los dos. Realizar la conformance checking en entornos industriales significa que las técnicas deben poder abordar las diferentes dimensiones de los datos. Por ejemplo, las técnicas de conformance checking tienen que escalar desde procesos de pequeñas empresas hasta organizaciones multinacionales que pueden estar manejando muchos casos por hora. Esta tesis se centra en la conformance checking y aborda especficamente los desafíos que surgen de la aplicación de la conformance checking en diferentes escenarios. Las técnicas basadas en alineación (alignment) son el estado del arte para identificar y explicar las discrepancias entre el comportamiento observado y modelado. Sin embargo, debido a la explosión del espacio de estados con procesos con construcciones paralelas, la alignment puede ser computacionalmente costosa. La primera parte de la tesis se centra en extender las técnicas de descomposición al cálculo de alignment. La tesis muestra que la alignment se puede calcular de forma descompuesta y presenta un algoritmo de conformance checking novedoso que calcula la alignment utilizando el paradigma de dividir y conquistar. En la actualidad, existen muchas técnicas de conformance checking disponibles para los usuarios. Sin embargo, puede resultar difícil seleccionar el mejor algoritmo para el trabajo, ya que depende de los datos de entrada y del objetivo del usuario. La segunda parte de la tesis investiga técnicas de machine learning para ayudar a los usuarios a seleccionar el mejor algoritmo en función de sus datos de entrada. Específicamente, aplica el machine learning al problema de clasificación de si las técnicas de descomposición pueden mejorar el tiempo de cálculo dado el modelo y el event log. La tercera parte de la tesis se centra en la conformance checking en tiempo real. Dado el volumen y la velocidad a la que llegan los datos de eventos, es posible que las organizaciones no almacenen todos los datos generados para el análisis offline y, en su lugar, tengan que recurrir a técnicas en tiempo real. Además, realizar análisis en tiempo real permite a los dueños del proceso reaccionar y resolver los problemas en forma inmediato. Realizar la conformance checking en una configuración en tiempo real tiene sus propios desafíos únicos. Por ejemplo, la técnica de conformance checking tiene que equilibrar el énfasis en la información actual y garantizar que el resultado de conformance sea algo estable a medida que se desarrolla el caso en ejecución. La tesis presenta una novedosa técnica de conformance checking en tiempo real basada en Hidden Markov Model.En los últimos años, la “process mining” ha ido ganando terreno como herramienta para analizar y mejorar los procesos en la industria, como lo ejemplifican empresas como Disco, Celonis y Minit. Además, muchas herramientas comerciales de process mining se están extendiendo más allá del descubrimiento de procesos a la “conformance checking” que permite comparar el comportamiento observado y modelado para encontrar diferencias entre los dos. Realizar la conformance checking en entornos industriales significa que las técnicas deben poder abordar las diferentes dimensiones de los datos. Por ejemplo, las técnicas de conformance checking tienen que escalar desde procesos de pequeñas empresas hasta organizaciones multinacionales que pueden estar manejando muchos casos por hora. Esta tesis se centra en la conformance checking y aborda especficamente los desafíos que surgen de la aplicación de la conformance checking en diferentes escenarios. Las técnicas basadas en alineación (alignment) son el estado del arte para identificar y explicar las discrepancias entre el comportamiento observado y modelado. Sin embargo, debido a la explosión del espacio de estados con procesos con construcciones paralelas, la alignment puede ser computacionalmente costosa. La primera parte de la tesis se centra en extender las técnicas de descomposición al cálculo de alignment. La tesis muestra que la alignment se puede calcular de forma descompuesta y presenta un algoritmo de conformance checking novedoso que calcula la alignment utilizando el paradigma de dividir y conquistar. En la actualidad, existen muchas técnicas de conformance checking disponibles para los usuarios. Sin embargo, puede resultar difícil seleccionar el mejor algoritmo para el trabajo, ya que depende de los datos de entrada y del objetivo del usuario. La segunda parte de la tesis investiga técnicas de machine learning para ayudar a los usuarios a seleccionar el mejor algoritmo en función de sus datos de entrada. Específicamente, aplica el machine learning al problema de clasificación de si las técnicas de descomposición pueden mejorar el tiempo de cálculo dado el modelo y el event log. La tercera parte de la tesis se centra en la conformance checking en tiempo real. Dado el volumen y la velocidad a la que llegan los datos de eventos, es posible que las organizaciones no almacenen todos los datos generados para el análisis offline y, en su lugar, tengan que recurrir a técnicas en tiempo real. Además, realizar análisis en tiempo real permite a los dueños del proceso reaccionar y resolver los problemas en forma inmediato. Realizar la conformance checking en una configuración en tiempo real tiene sus propios desafíos únicos. Por ejemplo, la técnica de conformance checking tiene que equilibrar el énfasis en la información actual y garantizar que el resultado de conformance sea algo estable a medida que se desarrolla el caso en ejecución. La tesis presenta una novedosa técnica de conformance checking en tiempo real basada en Hidden Markov Model.
- ItemAnalysis of students' self-regulatory strategies in MOOCS and their impact on academic performance.(2019) Maldonado Mahauad, Jorge Javier; Pérez Sanagustín, Mar; Pontificia Universidad Católica de Chile. Escuela de IngenieríaLos Cursos Abiertos Masivos y en Línea (MOOCs – Massive Open Online Courses) se han convertido en una fuente de contenido digital que puede ser abordado de forma atemporal y desde cualquier lugar. Los MOOCs ofrecen contenidos de calidad a millones de estudiantes de todo el mundo, brindando nuevas oportunidades de aprendizaje. Sin embargo, sólo una fracción de los que inician un MOOC logran terminarlo, dejando a miles de estudiantes comprometidos sin alcanzar sus metas. Investigaciones recientes sugieren que una de las razones por la que a los estudiantes les resulta difícil de terminar el MOOC es que tienen problemas para planificar, ejecutar y monitorear su proceso de aprendizaje de manera autónoma; es decir, no autorregulan su proceso de aprendizaje de forma efectiva para lograr terminar con éxito un MOOC. En esta tesis, se explorará las posibilidades que ofrece la Analítica del Aprendizaje (LA – Learning Analytics) para investigar las estrategias de aprendizaje que los estudiantes utilizan cuando autorregulan su su aprendizaje en entornos en línea como son los MOOCs. El principal objetivo de esta investigación es desarrollar instrumentos y métodos para medir las estrategias de autorregulación del aprendizaje (SRL – Self Regulated Learning) de los estudiantes (p. ej. cognitivas, metacognitivas y de gestión de recursos de estudio) en los MOOCs y analizar su relación con los resultados del aprendizaje de los estudiantes. Como enfoque metodológico, esta tesis utiliza métodos mixtos como línea base para la organización y planificación de la investigación, combinando datos de trazas de eventos de los estudiantes con datos de auto-reporte para comprender mejor el SRL en los MOOCs. La principal contribución de la tesis es triple. Primero, propone un instrumento para medir los perfiles de SRL de los estudiantes en los MOOC. Este instrumento se validó mediante un análisis factorial exploratorio y confirmatorio con 4,627 respuestas recopiladas en tres MOOCs. En segundo lugar, presenta una metodología basada en técnicas de minería de datos y minería de procesos para extraer los patrones de SRL de los estudiantes en los MOOC. La metodología se aplicó en tres MOOCs de Coursera (self-paced) con datos de 3,458 estudiantes, en los que se identificaron seis patrones de interacción. Luego, esta metodología se adaptó y aplicó en un esfuerzo de replicación para analizar un MOOC en edX síncrono con datos de 50,776 estudiantes donde se identificaron doce patrones de interacción. La tercera contribución, es un conjunto de estudios empíricos que muestra la relación entre las estrategias de SRL y el rendimiento académico, utilizando datos de seis MOOCs (self-paced) en Coursera y dos MOOC síncronos en Open edX. Estos estudios empíricos permitieron determinar las variables demográficas de auto-reporte de los estudiantes (p. ej. género, conocimiento previo y ocupación) y estrategias auto-reportadas de SRL (p. ej. establecimiento de objetivos, planificación estratégica) que fueron identificadas como las más relevantes para predecir el rendimiento académico. En conclusión, esta tesis ofrece un conjunto de instrumentos y métodos que podrían ser utilizados por otros investigadores en diferentes contextos para estudiar el SRL en MOOCs. Los resultados de esta investigación abren nuevas vías para la personalización y adaptación del contenido de un MOOC de acuerdo con los comportamientos autorregulados de los estudiantes y establecen las bases para el estudio de la SRL como un proceso en otros entornos de aprendizaje con soporte digital.
- ItemAugmenting deep learning models using continual and meta learning strategies(2022) Hurtado González, Julio Andrés; Soto Arriaza, Álvaro Marcelo; Pontificia Universidad Católica de Chile. Escuela de IngenieríaLos modelos de aprendizaje profundo son entrenados con conjuntos de datos finitos con una distribución fija, y se prueban en conjuntos que siguen la misma distribución. Este proceso difiere mucho de como aprendemos los humanos, donde nos enfrentamos a diferentes situaciones que debemos aprender a resolver continuamente. Los modelos de aprendizaje profundo no son capaces de adaptarse continuamente a nuevas tareas o situaciones. Cuando un modelo ya entrenado se enfrenta con una nueva tarea, debe ser re entrenado para adaptarse a los nuevos datos. Este entrenamiento modifica completamente los pesos del modelo para enfocarse en la nueva tarea, causando que el modelo olvide lo previamente aprendido. Este problema es conocido como olvido catastrófico, y es el responsable de que el rendimiento de tareas entrenadas previamente baje drásticamente. En esta tesis nos enfocamos en dos ideas para aliviar el problema del olvido. La primera idea es aprender pesos que favorezcan la transferencia de conocimiento entre tareas, lo que disminuye la necesidad de modificar los pesos del modelo, reduciendo el olvido. La segunda idea es facilitar la reutilización de los pesos del modelo, es decir, entregar herramientas al modelo para que una nueva tarea utilice la información ya adquirida y la complemente con aprendizaje de la propia tarea. Las dos grandes contribuciones de esta tesis consisten en dos métodos que utilizan estas ideas para aliviar el problema del olvido catastrófico en problemas de aprendizaje continuo. Estas contribuciones muestran que incentivar la reutilización de los pesos es un factor importante para reducir el olvido.
- ItemBuilding a query language for the web of data : efficiency in an open world(2015) Ugarte C., Martín I.; Arenas Saavedra, Marcelo Alejandro; Pontificia Universidad Católica de Chile. Escuela de IngenieríaAl consultar bases de datos incompletas es importante tener la posibilidad de extender los resultados cuando hay información adicional disponible. Esta funcionalidad ha sido ampliamente adoptada para consultar la Web Semántica, dado que la información en la Web es inherentemente incompleta. Desafortunadamente, la implementación de esta funcionalidad en SPARQL, el lenguaje recomendado por el World Wide Web Consotrium (W3C) para consultar datos en la Semantic Web, trae consigo algunos efectos negativos. Dos de los más importantes son un incremento en la complejidad de evaluar consultas, y un conflicto entre SPARQL y el supuesto de mundo abierto. Diferentes caminos han sido tomados para arreglar estos problemas, de los cuales el más adoptado ha sido restringir SPARQL a patrones bien-diseñados. Sin embargo, aun sigue abierto el problema de determinar si éste es el enfoque correcto en términos de complejidad de evaluación y poder expresivo. El punto de partida de esta tesis el estudio de las propiedades fundamentales que debiese satisfacer un lenguaje de consultas para la Web Semántica, en particular considerando que la información es incompleta.Para esto, investigamos las técnicas que han sido desarrolladas en la lógica de primer orden para caracterizar sintácticamente propiedades semánticas. Luego presentamos un marco teórico que nos permite aplicar estas técnicas al caso de SPARQL, definiendo lenguajes que resultan naturales para capturar las propiedades deseadas. También estudiamos las propiedades computacionales de estos lenguajes para entender su aplicabilidad en implementaciones del mundo real. Lo primero que hacemos es mostrar que los enfoques adoptados anteriormente no son suficientes para conciliar la semántica de SPARQL con el hecho de que la información en la Web es incompleta. Luego definimos un nuevo operador para obtener información opcional, el cual nace naturalmente de las técnicas que estudiamos en lógica de primer orden. Este operador nos permite definir fragmentos de SPARQL con buenas propiedades en términos de poder expresivo y complejidad de evaluación. Luego, nos enfocamos en consultas SPARQL de tipo CONSTRUCT, que son aquellas que generan como resultado el mismo tipo de estructuras que reciben como entrada (grafos RDF). Bajo este fragmento somos capaces de definir un lenguaje de consultas que es simple y a la vez captura las nociones semánticas de interés. Por último, mostramos que este lenguaje presenta, sorprendentemente, una menor complejidad de evaluación que los fragmentos que han sido presentados anteriormente.
- ItemDeriving configurable process models using process mining(2019) Arriagada Benítez, Mauricio; Sepúlveda Fernández, Marcos Ernesto; Pontificia Universidad Católica de Chile. Escuela de IngenieríaUtilizado con frecuencia en grandes organizaciones con sucursales en diferentes ubicaciones, un modelo de proceso configurable reune las características más comunes que se comparten entre diferentes sucursales. Este modelo de proceso configurable puede configurarse para derivar un modelo de proceso específico para cada sucursal. El proceso de configuración generalmente se realiza de forma manual, lo cual es un reto por dos razones. Por un lado, cuando el número de puntos de configuración aumenta en el modelo de proceso configurable, el tamaño del espacio de búsqueda aumenta exponencialmente. Por otro lado, la persona que realiza la configuración puede carecer de una perspectiva holística para tomar la decisión correcta para todos los nodos configurables. Hoy en día, en muchos escenarios de negocios, los sistemas de información que apoyan la ejecución de procesos de negocios crean registros de eventos, que contienen datos que reflejan cómo se están realizando los procesos. En esta tesis, proponemos tres estrategias que utilizan estos datos de eventos para derivar automáticamente un modelo de proceso a partir de un modelo de proceso configurable, tal que el modelo generado sea el que mejor representa las características del proceso en una sucursal específica. La primera estrategia se basa en una búsqueda exhaustiva, la segunda se basa en un enfoque evolutivo genético y la tercera se basa en una heurística codiciosa. Hemos implementado estas tres estrategias diferentes en ProM como parte de nuestra propuesta para derivar un modelo de proceso. Hemos probado estas estrategias utilizando registros de eventos realistas que representan el comportamiento de diferentes variantes de proceso, tal como se registran en un sistema de educación superior, y también utilizamos un caso real de municipalidades en Holanda.
- ItemDynamic composition of rest services(2014) Bellido Angulo, Jesús Edwin; Alarcón Choque, Rosa Ángela; Pontificia Universidad Católica de Chile. Escuela de IngenieríaLa composición de servicios es uno de los principios de la arquitectura orientada al servicio; esto hace posible el reúso y permite a los programadores combinar los servicios existentes para crear nuevos servicios que podrían ser parte de otra composición. La composición dinámica requiere que los servicios componentes sean elegidos en tiempo de ejecución de un conjunto de servicios con igual o similar funcionalidad. La adopción de los servicios REST en la industria ha ocasionado un creciente número de servicios de este tipo, muchos con similar funcionalidad. Las técnicas existentes de composición dinámica son orientadas a métodos, mientras que el estilo REST esta orientado al recurso; y solo considera servicios web tradicionales (WSDL/SOAP). El estilo de arquitectura REST ha atraído un gran interés de la industria debido a las propiedades no-funcionales que este estilo favorece. En esta tesis, contribuimos al área de composición de servicios REST proponiendo tres técnicas orientadas a mejorar la composición estática y dinámica de este tipo de servicios. Primero, introducimos una técnica de composición estática proponiendo un conjunto de patrones de control de flujo fundamentales en el contexto de composiciones descentralizadas de servicios REST. En contraste con los enfoques actuales, nuestra propuesta es implementada usando HTTP y tomando en cuenta los principios arquitecturales de REST. Después, presentamos una técnica que mejora la composición dinámica dentro del dominio de la seguridad extendiendo ReLL to ReLL-S y permitiendo a clientes de máquinas interactuar con recursos seguros, donde las condiciones de seguridad podrían cambiar de forma dinámica.Finalmente, proponemos SAW-Q, una extensión de Simple Additive Weighting (SAW), como una técnica novedosa de composición dinámica que sigue los principios del estilo REST. Adicionalmente, SAW-Q modela los atributos de calidad como una función de la demanda de solicitudes que espera atender el usuario en lugar de los tradicionales valores constantes. Nosotros hemos probado estas técnicas aplicando a los servicios compuestos resultantes pruebas de estrés. Nuestro resultado valida nuestra hipótesis principal indicando mejoría respecto a los técnicas existentes. Esto también muestra que las ideas presentadas en esta tesis representan una contribución relevante del estado del arte de la composición de servicios REST.
- ItemFerroelectric memory and architecture for deep neural network training in resistive crossbar arrays.(2019) Alessandri Amenábar, Cristóbal; Abusleme Hoffman, Ángel Christian; Guzmán Carmine, Christian Dani; Seabaugh, Alan Carter; Pontificia Universidad Católica de Chile. Escuela de IngenieríaLas redes neuronales profundas (DNN, por sus siglas en inglés) pueden realizar tareas cognitivas como el reconocimiento de voz y la detección de objetos con alta precisión. Sin embargo, el costo computacional para realizar tareas de inferencia con DNNs es un desafío para las aplicaciones móviles, mientras que el tiempo y la energía necesarios para entrenar los modelos pueden ser prohibitivos incluso en grandes centros de datos. El costo computacional de las redes neuronales profundas está dominado por multiplicaciones y acceso a memoria. Por esta razón, se ha propuesto utilizar matrices de elementos resistivos para minimizar el movimiento de datos y realizar multiplicaciones de manera eficiente en el dominio analógico. Uno de los principales desafíos de estas arquitecturas es la resolución limitada y la no linealidad de las memorias resistivas disponibles en la actualidad. En esta tesis, esta limitación se aborda de dos maneras: desarrollando un modelo para diseñar y optimizar memorias multiniveles basadas en materiales ferroeléctricos, y diseñando una arquitectura para mitigar las limitaciones de matrices resistivas para el entrenamiento de DNNs. Primero, se estudian los dispositivos ferroeléctricos para implementar memorias multinivel. Los ferroeléctricos son materiales cerámicos que pueden tener dos estados de polarización no volátiles. En su forma policristalina, estos materiales se componen de una multitud de granos con estados de polarización independientes, lo que permite memorias densas, no volátiles y multinivel compatibles con los procesos estándar de fabricación de semiconductores. Sin embargo, modelar la dinámica de los ferroeléctricos policristalinos es un desafío debido a las variaciones estadísticas en la composición de sus granos. Para este propósito, se desarrolló un modelo para extraer las propiedades estadísticas de un ferroeléctrico y una simulación de Monte Carlo que puede describir y predecir su dinámica de polarización y variabilidad. Este modelo proporciona las herramientas para caracterizar y optimizar materiales ferroeléctricos, y para diseñar y evaluar dispositivos, circuitos y arquitecturas para redes neuronales y otras aplicaciones. En segundo lugar, se presentan mejoras en la arquitectura para entrenar modelos de redes neuronales en matrices resistivas. Se propone y evalúa un esquema preciso para la actualización de pesos en paralelo en una matriz resistiva. Al utilizar señales de ancho de pulso y modulación en frecuencia, el valor de los elementos resistivos puede actualizarse en paralelo con mayor precisión que las técnicas existentes basadas en la multiplicación estocástica. Este esquema produce una multiplicación con redondeo estocástico, que es óptimo para entrenar redes neuronales con resolución limitada. Finalmente, se estudia el mapeo de modelos de redes neuronales a hardware con pesos no negativos. Para analizar diferentes esquemas de mapeo, una multiplicación general de matrices se descompone en una multiplicación de matrices con elementos no negativos realizados en una matriz resistiva, seguida de un conjunto limitado de operaciones de suma y resta descritas por una matriz de conexiones. Las condiciones matemáticas para la existencia de esta descomposición se derivan y aplican a modelos de redes neuronales. Sobre la base de este análisis, se diseña un esquema de mapeo eficiente, que mitiga el efecto de la no linealidad y la resolución limitada de los elementos resistivos. Estas arquitecturas se evalúan con simulaciones implementadas en MATLAB y mediante la extensión del software de código abierto Keras para incorporar elementos de peso no ideal y la descomposición de la matriz de conexiones.
- ItemRegulation for dynamic spectrum management.(2016) Basaure, Arturo; Marianov Kluge, Vladimir; Hämmäinen, Heikki; Pontificia Universidad Católica de Chile. Escuela de IngenieríaLa administración del espectro radioeléctrico está en el corazón del acceso a Internet móvil e inalámbrico y es por eso de importancia vital para asegurar los procesos más importantes de nuestra sociedad moderna. El incremento en la demanda por nuevos servicios urge a las autoridades de regulación nacional (NRAs) a promover un uso más eficiente del espectro. En este contexto, las tecnologías de acceso dinámico del espectro (DSA) y su relacionado manejo dinámico (DSM) pueden proveer nuevos medios para administrar el espectro, asignando dinámicamente aquel espectro que no está siendoeficientemente utilizado (espacios blancos).Esta tesis combina el modelamiento basado en el agente con la dinámica desistemas para estudiar el manejo del espectro desde el punto de vista de la economía neoinstitucionaldinámica. Es decir, este trabajo combina las teorías económicas de costos de transacción con la evolutiva para analizar al ecosistema de las TICs, que se caracteriza por constantes cambios.DSA disminuye los costos asociados a las transacciones de espectro y ayuda a definir claramente los derechos de uso del espectro. De esta forma, DSA cumple con las condiciones básicas para implementar un esquema Coasiano, llevando al espectro gradualmente a un régimen basado en derechos de propiedad.Apoyándose en los escenarios analizados, esta tesis muestra que las redes de linterior son las más prometedoras para implementar tecnologías DSA. Éstas redes, que transmiten en frecuencias más altas, requieren una menor coordinación para obtener los beneficios mutuos debido a las transacciones de espectro. Por esta razón, esta tesis enfatiza que las reformas a la política de espectro, que persigan permitir transacciones,deberían enfocarse en las frecuencias más altas y en las implementaciones de redes del interior, tales como small-cells, 5G, IoT y servicios M2M. Las autoridades deberían entonces permitir una mayor flexibilidad en la asignación de las frecuencias más altas, ya sea a través de un régimen de derechos de propiedad o a través de un licenciamiento con condiciones flexibles, que permitan a las redes del interior responder con mayor flexibilidad a las volatilidades de la demanda. Más aún, estas reformas deberían llevar a una mayor descentralización del espectro e incentivar una innovación centrada en el usuario final.Finalmente, esta tesis compara a DSA con otros mecanismos alternativos, tales como roaming nacional y multihoming del usuario final (end-user multihoming). Cada uno de estos tres mecanismos puede mejorar la eficiencia económica de las redes móviles.En las redes del interior, mientras end-user multihoming y roaming nacional solucionan problemas de cobertura, DSA puede adicionalmente aumentar la eficiencia solucionando problemas de congestión. En las redes del exterior, national roaming y end-user multihoming pueden solucionar problemas de cobertura.