Colecciones Institucionales
Permanent URI for this community
Browse
Browsing Colecciones Institucionales by browse.metadata.categoria "Ciencias de la computación"
Now showing 1 - 20 of 215
Results Per Page
Sort Options
- Item2T1M-based double memristive crossbar architecture for in-memory computing(2016) Vourkas, Ioannis; Papandroulidakis, Georgios; Sirakoulis, Georgios Ch.; Abusleme Hoffman, Ángel Christian
- ItemA better mobile browsing experience through pattern recognition and dynamic restructuring of web pages(2010) Larraín Morel, Augusto; Navón Cohen, Jaime; Pontificia Universidad Católica de Chile. Escuela de Ingeniería
- ItemA Cloud-based Mobile System for Improving Vital Signs Monitoring During Hospital Transfers(2015) Neyem, Andrés; Valenzuela, Guillermo; Risso, Nicolas; Rojas Riethmuller, Juan S.; Benedetto Causa, José Ignacio; Carrillo, Marie J.
- ItemA cloud-based mobile system to support effective collaboration in higher education online courses(2017) Rojas Riethmüller, Juan Sebastián; Neyem, Andrés; Pontificia Universidad Católica de Chile. Escuela de IngenieríaActualmente existen más de cuatro mil cursos MOOC ofrecidos mediante distintas Plataformas MOOC. Estas plataformas son robustas y soportan grandes volúmenes de datos y un alto número de usuarios. Debido a estas características, las instituciones de educación superior han adoptado estas plataformas para extender las prácticas del aula tradicional. La forma más común en que adoptan estas Plataformas MOOC, consiste en desarrollar cursos online exclusivamente para sus estudiantes. Estos cursos reciben el nombre de Small Private Online Courses (SPOCs), y solo pueden ser accedidos por un número reducido de estudiantes de dicha institución. El uso de las Plataformas MOOC permite a las universidades innovar y tener más flexibilidad en sus currículos. Sin embargo, estas plataformas no están preparadas para promover el aprendizaje colaborativo entre los estudiantes, ya que no cuentan con las herramientas necesarias. Respecto a este problema, Mobile Cloud Computing (MCC) ofrece varias ventajas para diseñar un sistema que promueva la colaboración entre estudiantes de educación superior, pero estas ventajas no han sido aprovechadas. Entonces, esta investigación se enfoca en el desarrollo de un sistema basado en MCC para promover la colaboración entre estudiantes en una Plataforma MOOC, en el contexto de la educación superior. Se siguió una metodología de Design Based Research para recopilar información, y producir y testear prototipos funcionales de manera iterativa e incremental. El sistema resultante es MyMOOCSpace, un sistema MCC que incluye dinámicas de colaboración enriquecidas con elementos de gamificación. Se realizaron evaluaciones para medir la usabilidad y el efecto en la colaboración de MyMOOCSpace. Los resultados de usabilidad muestran que los estudiantes se sintieron a gusto interactuando con el sistema, que logra también cumplir los requerimientos técnicos. Finalmente, los resultados muestran que MyMOOCSpace logró generar un aumento en la colaboración y las interacciones entre los estudiantes.
- ItemA differentiable adaptive computation time algorithm for neural networks(2021) Eyzaguirre, Cristóbal; Soto Arriaza, Álvaro Marcelo; Pontificia Universidad Católica de Chile. Escuela de IngenieríaA pesar de las mejoras sustanciales en los resultados que aportan los modelos de redes neuronales, su aplicación generalizada se ha visto limitada por su elevado coste computacional debido a redundancias presentes en este tipo de arquitecturas. M´as a´un, esta tesis postula que dichas ineficiencias no pueden resolverse completamente con métodos estáticos, debido a que algunas redundancias son intrínsecas al problema que se resuelve y, por lo tanto, son dependientes de los datos. Aunque en respuesta a este problema se han propuesto arquitecturas dinámicas que se adaptan a la entrada, todas ellas comparten la limitación de que no son totalmente diferenciables. Ante esta limitación común, nuestro trabajo propone la primera implementación de un algoritmo de tiempo de cómputo dinámico que es totalmente diferenciable: un algoritmo dinámico diferenciable de early exiting que llamamos DACT. Validamos las ventajas de nuestro enfoque, tanto en términos de resultados como de interpretabilidad, utilizando dos de los casos de uso más comunes, y descubrimos que el DACT puede conllevar: i) importantes ganancias de rendimiento cuando sustituye a los enfoques dinámicos existentes, o ii) eliminar las redundancias intrínsecas cuando se utiliza para complementar modelos estáticos. De hecho, en el dominio del procesamiento de lenguaje descubrimos que nuestro enfoque es mejor para reducir el número de bloques Transformer utilizados por los modelos BERT sin pérdida de desempeño en una serie de tareas. Del mismo modo, mostramos una reducción significativa en el número de pasos recurrentes necesarios cuando se aplica a la arquitectura MAC, superando los resultados tanto de los algoritmos adaptativos existentes como de aquellos estáticos comparables, a la vez que se mejora la transparencia del modelo. Además, nuestro modelo muestra una notable estabilidad, respondiendo de forma predecible a los cambios de los hiperparámetros, a la vez que equilibra la precisión y la complejidad de forma razonable.
- ItemA feedback-based framework for process enhancement of causal nets(2015) Pizarro de la Fuente, Nicolás Javier; Sepúlveda Fernández, Marcos Ernesto; Pontificia Universidad Católica de Chile. Escuela de IngenieríaLas técnicas de minería de procesos se utilizan para extraer información útil desde los logs de eventos. Por ejemplo, usando herramientas de descubrimiento de procesos, es factible generar un modelo de proceso que indica el orden de ejecución de las distintas actividades. Sin embargo, los logs de eventos no son siempre objetivos, dado que contienen sólo una muestra de todo el comportamiento posible. Aún cuando se han desarrollado algunas técnicas que permiten reparar estos problemas, ellas se siguen basando en la información del log para funcionar. Dado que ninguna otra fuente de datos permite a los algoritmos existentes mejorar los modelos generados, este trabajo se centra en la creación de una metodología de reparación de modelos de proceso en base a comentarios de usuarios. Esto se realiza iterativamente, definiendo un conjunto de operaciones que permiten a los usuarios proporcionar información adicional, la cual a su vez permite reparar un modelo existente. Este trabajo utiliza redes causales (causal nets) como notación base sobre la cual incorporar los comentarios del usuario, usando tres operadores binarios: causalidad (!), paralelismo (k) e indiferencia (#). Cada uno de ellos representa la relación entre dos actividades según un usuario. Para procesos complejos y con un mayor número de actividades, este trabajo propone además una agrupación mediante subprocesos basada en SESE (Single Entry Single Exit - Entrada Unica Salida Unica). El modelo resultante satisface las operaciones entregadas por los usuarios, manteniendo a su vez la estructura inicial del proceso. Esta metodología ha sido implementada en el programa ProM y fue validada mediante pruebas de usuario.
- ItemA framework for annotating CSV-like data(2016) Arenas Saavedra, Marcelo Alejandro; Maturana, F.; Riveros Jaeger, Cristian; Vrgoc, Domagoj
- ItemA framework for complex event processing(2017) Grez Arrau, Alejandro; Riveros Jaeger, Cristian; Pontificia Universidad Católica de Chile. Escuela de IngenieríaComplex Event Processing (CEP) ha surgido como el campo unificador para las tecnologías que requieren procesar y correlacionar en tiempo real datos heterogéneos y distribuidos. CEP tiene aplicaciones en diversas áreas, lo que ha resultado en que haya un gran número de propuestas para procesar eventos complejos. Sin embargo, los sistemas CEP existentes están basados en soluciones ad-hoc que no se sustentan en bases teóricas sólidas, lo que los hace difíciles de entender, extender y generalizar. Además, son presentados generalmente de manera informal como interfaces de programación, y el utilizar cada uno de ellos requiere aprender un conjunto completamente nuevo de conocimientos. En esta tesis buscamos definir un marco riguroso para CEP. Comenzamos proponiendo un lenguaje formal para especificar eventos complejos, llamado CEPL, que contiene los operadores más comunes utilizados en la literatura y el cual tiene semántica simple y denotacional. Además, formalizamos las llamadas estrategias de selección, que son la piedra angular de CEP y en los sistemas existentes son presentadas sólo como extensiones en su diseño. Con la semántica ya definida, estudiamos cómo evaluar eficientemente CEPL. Obtenemos resultados de optimización basados en la re escritura de fórmulas, proponiendo una forma normal para manejar filtros unarios. Además, damos un modelo computacional formal para CEP basado en transductores y autómatas simbólicos, llamado matchautomata, el cual captura el fragmento regular de fórmulas con predicados unarios. Utilizando técnicas de reescritura y transformando a autómata, mostramos que el fragmento regular de CEPL puede ser evaluado eficientemente (tiempo constante por evento) cuando se utiliza la estrategia de selección next. Con estos resultados, proponemos un marco para evaluar eficientemente CEPL, estableciendo bases sólidas para futuros sistemas CEP.
- ItemA kernel module for pulse-coupled time synchronization of sensor networks(2017) Wang, Y.; Mosalakanti, K.; Núñez Retamal, Felipe Eduardo; Deligeorges, S.; Doyle, F.
- ItemA knowledge base approach to improve interpretability and performance of visual question answering task using deep learning models(2019) Riquelme Callejas, Felipe Antonio; Soto Arriaza, Álvaro Marcelo; Pontificia Universidad Católica de Chile. Escuela de IngenieríaLos modelos de Aprendizaje Profundo o Deep Learning son vistos y tratados como cajas negras. Dada una entrada, estos generan una salida a modo de respuesta. Pero no se tiene mas que una noción vaga de lo que llevó al modelo a responder lo que respondió. Sin embargo, en muchas aplicaciones (aplicaciones bancarias, compañías de seguros, asistentes personales, etc) es deseable o incluso necesario saber que llevó al modelo a generar una determinada respuesta. En este trabajo nos enfocamos en el desafío llamado Visual Question Answering (VQA). Este consiste en lograr que un modelo responda preguntas basadas en imágenes que se le presentan. Logramos incorporar una nueva Base de Conocimiento o knowledge base (KB) que contiene relaciones entre objetos del mundo real, lo que ayuda a mejorar la interpretabilidad y el desempeño del modelo mediante la identificación y extracción de información relevante acorde a cada pregunta e imagen que se presenta. La extracción de información de la KB fue supervisada directamente para generar un mapa de atención usado por el modelo para identificar las relaciones relevantes a cada pregunta e imagen. Se muestra cuantitativamente que las predicciones del modelo mejoran con la introducción de la KB. También mostramos cualitativamente la mejora en cuanto a interpretabilidad mediante la atención generada sobre las relaciones de la KB. Adicionalmente, mostramos cómo la KB ayuda a mejorar el desempeño en modelos de VQA que generan explicaciones. Los resultados obtenidos demuestran que el mecanismo de atención empleado en la KB ayuda mejorar la interpretabilidad del modelo. Y la información adicional extraída mejora la representacón interna de éste y por ende también el desempeño.Los modelos de Aprendizaje Profundo o Deep Learning son vistos y tratados como cajas negras. Dada una entrada, estos generan una salida a modo de respuesta. Pero no se tiene mas que una noción vaga de lo que llevó al modelo a responder lo que respondió. Sin embargo, en muchas aplicaciones (aplicaciones bancarias, compañías de seguros, asistentes personales, etc) es deseable o incluso necesario saber que llevó al modelo a generar una determinada respuesta. En este trabajo nos enfocamos en el desafío llamado Visual Question Answering (VQA). Este consiste en lograr que un modelo responda preguntas basadas en imágenes que se le presentan. Logramos incorporar una nueva Base de Conocimiento o knowledge base (KB) que contiene relaciones entre objetos del mundo real, lo que ayuda a mejorar la interpretabilidad y el desempeño del modelo mediante la identificación y extracción de información relevante acorde a cada pregunta e imagen que se presenta. La extracción de información de la KB fue supervisada directamente para generar un mapa de atención usado por el modelo para identificar las relaciones relevantes a cada pregunta e imagen. Se muestra cuantitativamente que las predicciones del modelo mejoran con la introducción de la KB. También mostramos cualitativamente la mejora en cuanto a interpretabilidad mediante la atención generada sobre las relaciones de la KB. Adicionalmente, mostramos cómo la KB ayuda a mejorar el desempeño en modelos de VQA que generan explicaciones. Los resultados obtenidos demuestran que el mecanismo de atención empleado en la KB ayuda mejorar la interpretabilidad del modelo. Y la información adicional extraída mejora la representacón interna de éste y por ende también el desempeño.Los modelos de Aprendizaje Profundo o Deep Learning son vistos y tratados como cajas negras. Dada una entrada, estos generan una salida a modo de respuesta. Pero no se tiene mas que una noción vaga de lo que llevó al modelo a responder lo que respondió. Sin embargo, en muchas aplicaciones (aplicaciones bancarias, compañías de seguros, asistentes personales, etc) es deseable o incluso necesario saber que llevó al modelo a generar una determinada respuesta. En este trabajo nos enfocamos en el desafío llamado Visual Question Answering (VQA). Este consiste en lograr que un modelo responda preguntas basadas en imágenes que se le presentan. Logramos incorporar una nueva Base de Conocimiento o knowledge base (KB) que contiene relaciones entre objetos del mundo real, lo que ayuda a mejorar la interpretabilidad y el desempeño del modelo mediante la identificación y extracción de información relevante acorde a cada pregunta e imagen que se presenta. La extracción de información de la KB fue supervisada directamente para generar un mapa de atención usado por el modelo para identificar las relaciones relevantes a cada pregunta e imagen. Se muestra cuantitativamente que las predicciones del modelo mejoran con la introducción de la KB. También mostramos cualitativamente la mejora en cuanto a interpretabilidad mediante la atención generada sobre las relaciones de la KB. Adicionalmente, mostramos cómo la KB ayuda a mejorar el desempeño en modelos de VQA que generan explicaciones. Los resultados obtenidos demuestran que el mecanismo de atención empleado en la KB ayuda mejorar la interpretabilidad del modelo. Y la información adicional extraída mejora la representacón interna de éste y por ende también el desempeño.
- ItemA Lessons-learned Mobile System for Construction Companies: Motivation and Design(2014) Ferrada Calvo, Ximena Veronica; Sepúlveda Fernández, Marcos Ernesto; Serpell Bley, Alfredo; Daniela Núñez; Neyem, AndresConstruction projects are an important source of organizational knowledge. Though, it is common to find that most lessons learned in construction projects are lost because most companies never take care of collecting them. To change this situation, a mobile lesson-learned system application with interface for smartphones and web in a cloud environment is proposed. This article focuses on the design of a prototype of the system and the main characteristics of its architecture. It is concluded that the application of mobile technology on the field would facilitate the use of the system, been an appropriate tool for knowledge management. (C) 2014 The Authors. Published by Elsevier Ltd.
- ItemA low-complexity channel training method for efficient SVD beamforming over MIMO channels(2021) Kettlun, Felipe; Rosas de Andraca, Fernando Ernesto; Oberli Graf, Christian RobertAbstract Singular value decomposition (SVD) beamforming is an attractive tool for reducing the energy consumption of data transmissions in wireless sensor networks whose nodes are equipped with multiple antennas. However, this method is often not practical due to two important shortcomings: it requires channel state information at the transmitter and the computation of the SVD of the channel matrix is generally too complex. To deal with these issues, we propose a method for establishing an SVD beamforming link without requiring feedback of actual channel or SVD coefficients to the transmitter. Concretely, our method takes advantage of channel reciprocity and a power iteration algorithm (PIA) for determining the precoding and decoding singular vectors from received preamble sequences. A low-complexity version that performs no iterations is proposed and shown to have a signal-to-noise-ratio (SNR) loss within 1 dB of the bit error rate of SVD beamforming with least squares channel estimates. The low-complexity method significantly outperforms maximum ratio combining diversity and Alamouti coding. We also show that the computational cost of the proposed PIA-based method is less than the one of using the Golub–Reinsch algorithm for obtaining the SVD. The number of computations of the low-complexity version is an order of magnitude smaller than with Golub–Reinsch. This difference grows further with antenna array size.
- ItemA manual categorization of new quality issues on automatically-generated tests(2023) Galindo-Gutierrez, Geraldine; Narea Carvajal, Maximiliano Agustín; Fernández, Blanco AlisonDiverse studies have analyzed the quality of automatically generated test cases by using test smells as the main quality attribute. But recent work reported that generated tests might suffer from a number of quality issues not considered previously, thus suggesting that not all test smells have been identified yet. Little is known about these issues and their frequency within generated tests. In this paper, we report on a manual analysis of an external dataset consisting of 2,340 automatically generated tests. This analysis aimed at detecting new quality issues, not covered by past recognized test smells. We use thematic analysis to group and categorize the new quality issues found. As a result, we propose a taxonomy of 13 new quality issues grouped in four categories. We also report on the frequency of these new quality issues within the dataset and present eight recommendations that test generators may consider to improve the quality and usefulness of the automatically generated tests. As an additional contribution, our results suggest that (i) test quality should be evaluated not only on the tests themselves, but considering also the tested code; and (ii) automatically generated tests present flaws that are unlikely to be found in manually created tests and thus require specific quality checking tools.
- ItemA Mobile Cloud Shared Workspace to Support Homecare for Respiratory Diseases in Chile(2015) Neyem, Andrés; Risso, Nicolas A.; Carrillo, Marie J.; Farías Cancino, Angélica; Gajardo, Macarena J.
- ItemA morphological database for 606 Colombian bird species(2018) Montoya, Paola; Gonzalez, Mailyn A.; Tenorio, Elkin A.; Pablo Lopez-Ordonez, Juan; Pinto Gomez, Alejandro; Cueva, Diego; Acevedo, Aldemar; Angarita Yanes, Camilo; Arango Martinez, Hector Manuel; Armesto Sanguino, Luis Orlando; Betancur, Jefry S.; Caguazango Castro, Angela; Calderon Leyton, Jhon Jairo; Viviana Calpa-Anaguano, Edna; Cardenas-Posada, Ghislaine; Castano Diaz, Michael; Chaparro-Herrera, Sergio; Diago-Munoz, Nicolas; Franco Espinosa, Laura; Gomez Bernal, Luis German; Gonzalez-Zapata, Fanny L.; Gutierrez Zamora, Eduardo Aquiles; Gutierrez-Zuluaga, Ana M.; Lizcano Jimenez, Robinson Stivel; Lopera-Salazar, Andrea; Martinez Alvarado, Dariel; Maya Giron, Ana Maria; Medina, Wilderson; Montealegre-Talero, Carolina; Parra, Juan L.; Perez-Pena, Sebastian; Ramirez Ramirez, Francis; Reyes, Julian; Fabio Rivera-Gutierrez, Hector; Rosero Mora, Yuri; Trujillo-Torres, Carlos M.; Camilo Vidal-Maldonado, Cristian; Salgado-Negret, Beatriz
- ItemA multi-cast algorithm for robust average consensus over internet of things environments(2019) Oróstica, Boris; Nuñez Retamal, Felipe Eduardo
- ItemA Network Approach to the Formation of Self-assembled Teams(2020) Ichhaporia, R.; Gomez Zara, Diego Alonso; DeChurch, L.; Contractor, N.Which individuals in a network make the most appealing teammates? Which invitations are most likely to be accepted? And which are most likely to be rejected? This study explores the factors that are most likely to explain the selection, acceptance, and rejection of invitations in self-assembling teams. We conducted a field study with 780 participants using an online platform that enables people to form teams. Participants completed an initial survey assessing traits, relationships, and skills. Next, they searched for and invited others to join a team. Recipients could then accept, reject, or ignore invitations. Using Exponential Random Graph Models (ERGMs), we studied how traits and social networks influence teammate choices. Our results demonstrated that (a) agreeable leaders with high psychological collectivism send invitations most frequently, (b) previous collaborators, leaders, competent workers, females, and younger individuals receive the most invitations, and (c) rejections are concentrated in the hands of a few. © 2020, Springer Nature Switzerland AG.
- ItemA principled approach to bridging the gap between RDF data and their schemas.(2013) Díaz Cáceres, Gonzalo Ignacio; Arenas Saavedra, Marcelo Alejandro; Pontificia Universidad Católica de Chile. Escuela de IngenieríaAunque grafos RDF tienen información de su esquema asociados a ellos, en la práctica es muy común encontrar situaciones en que los datos no se conforman totalmente a su esquema. Un ejemplo conspicuo es el de DBpedia, que son datos RDF extraídos desde Wikipedia, una fuente de información públicamente editable. En tales situaciones, se torna interesante estudiar las propiedades estructurales de los datos en sí, dado que el esquema de una descripción incompleta de la organización de una base de datos. En este trabajo nos hemos acercado al estudio de la estructura de un grafo RDF desde primeros principios: proponemos un marco teórico para especificar funciones de estructura, que miden el grado de conformancia entre un grafo RDF y un esquema. En particular, primero se define un lenguaje formal para la especificación de funciones de estructura mediante expresiones que denominamos reglas. Este lenguaje permite a un usuario o a un administrador de una base de datos especificar una regla a la cual un grafo RDF puede conformarse de forma total o parcial.
- ItemA systematic literature review about technologies for self-reporting emotional information(2017) Fuentes Toro, Carolina; Herskovic, Valeria; Rodríguez Ramírez, Iyubanit; Gerea Petculescu, Carmen; Maıra Marques; Pedro O. Rossel
- ItemAdaptive Image Segmentation Based on Histogram Transition Zone Analysis(2016) Acuña González, Rafael G.; Mery Quiroz, Domingo; Klette, Reinhard