3.01 Tesis magíster
Permanent URI for this collection
Browse
Browsing 3.01 Tesis magíster by browse.metadata.fuente "SRIA"
Now showing 1 - 20 of 247
Results Per Page
Sort Options
- Item3D Modeling of site-city effects using spectral element method. Application to Viña del Mar city, Chile(2019) Soto Moncada, Valeria Paz; Sáez Robert, Esteban; Pontificia Universidad Católica de Chile. Escuela de IngenieríaIn recent years, seismic wave propagation analyses have become a powerful tool to evaluate the site effects in a given region. While many approaches are available, the Spectral Element Method (SEM) has been widely used for that purpose because of its flexibility and computational efficiency. Basin shape, material nonlinearity and heterogeneity are import ant effects; however, the multiple inter and structures, known as site-- actions between the soil city effects (SCI), can also play a crucial role in analyses of densely populated areas. There are many options to model this kind of interaction, especially if the buildings are partially embedded in the soil. This paper evaluates the importance of the proper SCI modeling against more standard uncoupled approaches, focusing on the local interaction between the soil and a group of buildings including inelastic s oil behavior. We focus our work on the case of downtown Viña del Mar, a touristic coastal city of central Chile, where the observation of a reiterated distribution of damage in reinforced concrete buildings during two major earthquakes has motivated numero us studies. For that purpose, a realistic 3D numerical model of the area was created, considering the existing buildings. The opensource code SPEED was used to perform the wave propagation simulation, which combines the spectral element method with a disc ontinuous Galerkin approach. A geophysical study was conducted to estimate the model parameters; in addition, shear modulus degradation and damping curves were extracted from laboratory tests to account for the nonre linearity of the soil. In general, the sults indicate that the inclusion of the SCI is beneficial to the structure's response in most cases, and that the SCI modeling needs to consider the level of embedment to obtain more precise results.
- ItemA compound real option approach for determining the optimal investment path for residential PV-Storage Systems(2019) Hassi, Benjamín A.; Reyes Torres, Tomás H.; Pontificia Universidad Católica de Chile. Escuela de IngenieríaEl uso de sistemas residenciales de almacenamiento fotovoltaico puede producir beneficios económicos para los propietarios y se ha expandido rápidamente en los últimos años. Las grandes incertidumbres con respecto a la rentabilidad de estos sistemas hacen necesario incorporar flexibilidades en sus evaluaciones económicas. Este documento ofrece un nuevo método para evaluar la flexibilidad de tener la opción compuesta de retrasar y ampliar progresivamente la capacidad de módulos fotovoltaicos y baterías durante un tiempo de inversión. La flexibilidad se modela como una opción real compuesta, cuyo valor se calcula utilizando un nuevo método que denominamos Compound Least Square Monte Carlo (CLSM). Aplicamos el modelo a un sistema residencial de almacenamiento fotovoltaico en Chile. Nuestros resultados muestran que un hogar debe invertir en sistemas de almacenamiento fotovoltaico en el 60% de los posibles escenarios futuros. Además, en el 36% de los escenarios futuros, se recomienda dividir la inversión en dos o más etapas. El valor de la flexibilidad compuesta sugiere que los inversionistas deben usar el método CLSM propuesto en la valoración económica de proyectos de múltiples etapas, ya que considerar únicamente la flexibilidad de posponer la inversión podría promover decisiones subóptimas.
- ItemA family of centrality measures based on subgraph(2019) Salas Cornejo, Jorge; Riveros Jaeger, Cristian; Pontificia Universidad Católica de Chile. Escuela de IngenieríaEsta tesis introduce las bases teóricas de un nuevo enfoque para las medidas de centralidad sobre bases de datos de grafos. El principio fundamental de este enfoque es simple: mientras más subgrafos relevantes envuelvan a un vértice, más central será dentro de la red. La idea de ”subgrafos relevantes” se formaliza eligiendo una familia de subgrafos que, dado un grafo G y un vértice v en G, esta asigna un conjunto de subgrafos conexos de G que contienen a v. Cualquiera de estas familias define una medida de centralidad al contar la cantidad de subgrafos asignados a cada vértice, i.e, un vértice será más importante para la red si pertenece a más subgrafos dentro de la familia. Se muestran ejemplo de este enfoque, en particular, se propone all-subgraphs centrality, una medida de centralidad que toma en cuenta todos los posibles subgrafos. Se analizan las propiedades fundamentales sobre familias de subgrafos que garantizan propiedades deseables sobre la medida de centralidad. Interesantemente, all-subgraphs centrality satisface todas estas propiedades, mostrando su robustes como noción de centralidad. Finalmente, se prueba la complejidad computacional del conteo de ciertas familias de subgrafos y se muestra un algoritmo de tiempo polinomial para computar all-subgraphs centrality cuando el grafo posee tree width acotado.
- ItemA global data warehouse for astronomy(2018) Machin Matos, Javier Ismael; Pichara Baksai, Karim Elías; Pontificia Universidad Católica de Chile. Escuela de IngenieríaThere have been many attempts to gather and integrate numerous astronomical data sources to create a centralized, organized and consolidated database with visualization and analysis add-on tools. Unfortunately, most of those attempts have been inefficient, mainly, because they lack a holistic scheme that allows for heterogeneous data integration, highlevel pre-processing and visualization capabilities within the same structure. In industry, the same problem was tackled back in 1960, where the concept of the Data Warehouse was introduced as the most promising solution for the majority of the organizations. In this paper, we bring Data Warehousing to astronomy in theory and practice. We develop and implement an integrated astronomical Data Warehouse that allows users to visually process and analyze astronomical data in real time, narrowing down exploratory analyses, and providing an active interaction with data. In the current version, we implement a twolayer- based architecture that provides an interactive and user-friendly environment, with advanced visualization capabilities for data manipulation and data mining applied to time domain astronomy.
- ItemA multiresolution stability analysis for quantitative magnetic resonance imaging(2022) Guerra Pérez, Martín A.; Sing-Long C., Carlos A.; Pontificia Universidad Católica de Chile. Escuela de IngenieríaLas imágenes cuantitativas por resonancia magnética (QMRI) son una forma de obtencion de imágenes por resonancia magnética (MRI) que, a diferencia de lo que los métodos estándar de MRI buscan, estos métodos apuntan a recuperar parámetros cuantitativos que describan propiedades físicas del tejido involucrado en el proceso de obtención de imágenes médicas. Los métodos que siguen el enfoque de QMRI típicamente buscan aproximar los parámetros de relajación de los materiales magnetizados (mapeos T1 y T2). La principal dificultad en la reconstrucción de estos parámetros está en que con métodos de optimización estándar el problema resultante tiene una alta dimensionalidad y es no convexo. Existen diferentes formas de buscar una aproximación de los parámetros que evitan esta complicación como magnetic resonance fingerprinting (MRF). Aun así, el alto costo computacional de este hacen difícil que sea una solución en el largo plazo. Creemos que se puede modelar el método de reconstrucción tal que la no convexidad no sea mucho problema. Para lograrlo demostramos propiedades fundamentales del mapeo de Bloch y desarrollamos un análisis multirresolución para el enfoque de QMRI, el cual al resolver el problema a diferentes escalas podría evitar el problema de estancarse en un mínimo local. Mas precisamente desarrollamos una aproximación multirresolución de la ecuación de Bloch. Aún así, el problema a resolver sigue estando muy mal condicionado para asegurar una reconstrucción satisfactoria. Nuestros resultados numéricos muestran que incluso la reconstrucción de la variable lineal del problema causa suficientes problemas.
- ItemA radiation-tolerant, 1 GSPS switched capacitor array for a particle physics experiment(2022) Campeny, Agustín; Abusleme Hoffman, Ángel Christian; Kuleshov, Sergey; Pontificia Universidad Católica de Chile. Escuela de IngenieríaEn la medida que los experimentos de física de partículas se han vuelto más complejos y ambiciosos durante los últimos años, con ejemplos como el Large Hadron Collider (LHC) or the Jiangmen Underground Neutrino Observatory (JUNO), estos han involucrado un mayor número de canales de detectores de partículas a ser adquiridos. Mientras que los circuitos Conversores Análogo-a-Digital (ADC) han sido la elección obvia cuando se trata de adquisición de datos, con un gran número de arquitecturas y alternativas comerciales disponibles, estos no son siempre la mejor solución en aplicaciones de señales pulsadas rápidas con un gran número de canales. Los circuitos de memoria analógica tienen la función de “estiramiento temporal” de pulsos individuales, que pueden luego ser adquiridas por un ADC más lento, ofreciendo un mejor desempeño, eficiencia de potencia y costo reducido comparado con una adquisición en tiempo real con un ADC rápido individual. El proyecto Charge Monitoring Board (CMB) para el espectrómetro de muones del experimento ATLAS en CERN tiene la función de monitorear alrededor de 40.000 canales de detectores Thin Gap Chamber contra variaciones en su nivel base, que se espera que ocurran en la actualización de alta luminosidad del LHC. Esta tesis presenta el diseño e implementación de una nueva topología de un circuito integrado de memoria analógica de arreglo de capacitores conmutados (SCA) como un dispositivo de adquisición para las CMBs, propuesta con una alternativa de baja potencia a soluciones comerciales como el chip DRS4. Simulaciones de la implementación muestran resultados prometedores con respecto a la tasa de muestreo y el consumo de potencia, y entregan una buena intuición sobre posibles optimizaciones sobre excursión de voltaje y resolución para un diseño futuro.
- ItemA realistic in silico abdominal phantom for quantitative susceptibility mapping(2022) Silva, Javier I.; Tejos Núñez, Cristián Andrés; Uribe Arancibia, Sergio A.; Pontificia Universidad Católica de Chile. Escuela de IngenieríaLa aplicación de mapas cuantitativos de susceptibilidad (QSM) ha cobrado un reciente interés en regiones fuera del cerebro, debido a su potencial como biomarcador de sobrecarga de hierro hepático y enfermedad crónica de riñón. No obstante, a diferencia del cerebro, la aplicación de QSM en el abdomen requiere modificar el proceso de reconstrucción para lidiar con las contribuciones adicionales en la señal de fase, provenientes de los gases y el tejido graso. Los trabajos más recientes abordan el problema de las contribuciones de grasa mediante distintas estrategias, pero no evalúan el desempeño de estas ni cómo los errores propagados desde las etapas de pre-procesamiento afectan a los mapas reconstruidos. En este trabajo presentamos un fantoma abdominal de QSM con texturas realistas, el cual puede ser empleado para evaluar y comparar el desempeño de diferentes estrategias de QSM abdominal. Hemos elaborado este fantoma empleando un modelo flexible, que permite emular distintos escenarios de susceptibilidad y contribuciones a la señal de resonancia magnética. A modo de validar su potencial como ground truth, hemos empleado el fantoma para evaluar cómo la estrategia de adquisiciones en fase y la estrategia basada en separación de agua y grasa por Iterative Graph Cuts (ICG) afectan el desempeño de los algoritmos de QSM. Las simulaciones realizadas muestran que el fantoma efectivamente simula valores de susceptibilidad con texturas de apariencia realista, a la vez que presenta una correcta evolución de la señal de fase. Por otro lado, los experimentos de reconstrucción dejan en evidencia el potencial de nuestro fantoma para identificar las fortalezas y debilidades de las distintas estrategias estudiadas, como la tendencia de IGC a propagar errores residuales en regiones con cambios abruptos de susceptibilidad, o la robustez de los métodos de reconstrucción basados en regularización por variación total (TV).
- ItemA stochastic model for bus injection in a public transport service(2018) Morales Lazen, Diego; Gazmuri S., Pedro; Pontificia Universidad Católica de Chile. Escuela de IngenieríaRandomness affecting the operation of public transport systems generates significant increments in waiting times. A strategy to deal with this randomness is bus injection, in which buses are kept in specific points along the route ready to be dispatched when an event such as an extremely long headway occurs. In this work, a stochastic model based on the second moment of the headways distribution is developed to determine if one or more buses are worth reserving for injection in a public transport service. A single stop approach is initially used to determine an expression for the optimal headway threshold triggering the injection. Then, a model for the complete service is developed and used to determine when the empty bus should be injected within the headway once the decision to inject it has been taken. We show that the bus should be injected approximately when 57% of the headway has passed. Simulations with real data are used to test the proposed model, proving its accuracy in terms of measuring the impact on waiting times. The results show that reserving a bus to be injected can be better than operating the entire fleet continuously.
- ItemA theoretical framework for the design of high-fidelity test lungs for mechanical ventilators based on a thermodynamic approach(2022) Calderón Espinoza, Ignacio Alonso; Chiang Sánchez, Luciano Eduardo; Pontificia Universidad Católica de Chile. Escuela de IngenieríaLa pandemia de COVID-19 que aún persiste en la actualidad provocó una sobredemanda de ventiladores mecánicos alrededor del mundo. Muchos equipos de investigación han intentado desarrollar ventiladores. Sin embargo, asegurar su correcto funcionamiento y fiabilidad es un reto. Un enfoque eficiente para probar y validar ventiladores es usar pulmones de prueba. En esta tesis se presenta un nuevo modelo matemático teórico. Se presenta un sistema de ventilador mecánico-paciente basado en un enfoque termodinámico. El pulmón se modela en base a la dinámica de una masa-amortiguadorresorte (no lineal), sistema con caracterización de los pulmones del paciente a través de funciones de segmentos lineales de presión-volumen por partes en lugar de considerar conformidades lineales o constantes. El flujo de aire y la presión se modelan según ecuaciones de flujo de aire compresible en lugar de aproximaciones lineales. Se realizaron simulaciones computacionales de curvas de presión y volumen versus tiempo y se compararon con datos de ocho pacientes reales bajo ventilación mecánica invasiva (IMV). Este modelo propuesto permite reproducir con un alto grado de fidelidad las curvas de presión, caudal y volumen de la vida real. Lo más notable es que la forma de las curvas de presión, flujo y volumen simuladas se parecen mucho a la pacientes de la vida real. Los gráficos de dispersión dan pendientes cercanas a 1,0 y un valor de R2 superior al 93%. Los parámetros del modelo matemático se obtienen de las curvas reales del paciente cuyo comportamiento quiere ser reproducido. Por lo tanto, el modelo matemático presentado aquí se puede utilizar como una herramienta de diseño para una configuración de pulmón de prueba tal como se describe en esta tesis
- ItemAchieving a proactive policy for patient flow management in a complex hospital network through reinforcement learning(2024) De Geyter Messina, Matías; Vera Andreo, Jorge; Larraín Izquierdo, Homero; Pontificia Universidad Católica de Chile. Escuela de IngenieríaLa toma de decisiones en el cuidado de la salud es un problema complejo debido a la incertidumbre y la realidad dinámica. Un tema muy importante está relacionado con las decisiones sobre admisiones de pacientes. En una red de atención médica compuesta por varios hospitales, debería ser conveniente considerar la capacidad combinada de todo el sistema. Por lo tanto, además de las admisiones a un hospital, también es posible transferir pacientes a otros. Estas decisiones dependen no solo de la condición médica del paciente, sino también de la capacidad actual de las diferentes áreas de los hospitales. En este trabajo, hemos formulado el problema como un Proceso de Decisión de Markov, y lo abordamos utilizando un enfoque de Aprendizaje por Refuerzo donde se estima el costo futuro esperado utilizando un modelo XGBoost, combinado con simulación, basado en la metodología de Q-learning. Basándonos en la política obtenida a traves del aprendizaje por refuerzo y en nociones de la literatura, se proponen pautas generales de gestión hospitalaria, que resultan en una política simplificada y fácil de implementar con resultados prometedores, incluída una reducción en el tiempo de servicio promedio en un 13.38% y una reducción del tamaño de la lista de espera del 65.86%. En comparación con el escenario base, hay una reducción en los costos totales del 71.44%, donde los costos sociales (debidos a los tiempos de espera y los costos de oportunidad de las camas para pacientes) se reducen en un 87.30%.
- ItemAge of information in IOT-based wireless networked control systems(2021) Mena Ríos, Juan Pablo; Núñez Retamal, Felipe Eduardo; Pontificia Universidad Católica de Chile. Escuela de IngenieríaUna correcta ocurrencia en el tiempo de transmisión de la información es fundamental para garantizar el rendimiento de los sistemas de control sobre redes (NCS). A pesar de que esta ocurrencia está intrínsecamente vinculada a la red de comunicación, hoy en día el diseño de los sistemas de control en red considera las capas de control y comunicación de forma separada. Como un paso hacia el cambio de esta perspectiva, este trabajo analiza la interacción entre ambas capas utilizando los conceptos de la edad de la información (AoI) y la edad pico en sistemas de control en red basados en el internet de las cosas (IoT), donde un conjunto de lazos de control independientes operan a través de una red compartida. En particular, el análisis se centra en cómo se comportan las métricas basadas en el concepto de la edad del estado en los esquemas inalámbricos de control de acceso al medio (MAC) típicamente utilizados en las implementaciones de IoT, y cómo este comportamiento se puede utilizar para explicar la calidad de control (QoC) de los lazos insertados en una red específica, la cual esta vinculada con dos indicadores clásicos de NCS: el intervalo de transmisión máximo permitido (MATI) y máximo retardo permitido (MAD). Se revisan diferentes conceptos relevantes para el estudio de sistemas de control en redes. Luego, sobre la base de modelos NCS comúnmente utilizados en la literatura, se derivan expresiones para AoI, la edad pico y la probabilidad de que la edad pico supere un cierto umbral relacionado con la estabilidad del lazo para NCS inalámbricos que utilizan dos tipos distintos de protocolos CSMA/CA y un tipo de TDMA. Además, se establecen algunas ideas sobre la utilidad de ciertos protocolos MAC dependiendo de los requisitos de diseño específicos, y se realizan comparaciones efectivas en el contexto de ejemplos de problemas de diseño. Las principales conclusiones involucran la obtención de diferentes tasas de muestreo óptimas para la edad de la información en los diferentes protocolos analizados para diferentes largos de paquetes. Además, la relación entre la edad pico y la estabilidad de los lazos se logra a través de la determinación de tasas de muestreo óptimas para evitar el exceder un cierto umbral relacionado a la estabilidad del lazo.
- ItemAgendamiento de pacientes de quimioterapia: Optimización de reglas de Decisión(2023) Barriga Vuylsteke, Sebastián Andrés; Lorca Gálvez, Álvaro Hugo; Cataldo Cornejo, Alejandro; Pontificia Universidad Católica de Chile. Escuela de IngenieríaEl cáncer es una enfermedad que anualmente mata a millones de personas. El número de pacientes que la padecen se encuentra en crecimiento sostenido, con particular riesgo en los países más desarrollados (Fondo de Investigación Mundial de Cáncer, 2021). Para su tratamiento, una de las técnicas médicas tradicionales es la quimioterapia, la que consta de infusiones de drogas específicas durante distintos ciclos, los cuales definen los protocolos de atención del tratamiento. El agendamiento de pacientes de quimioterapia presenta una alta dificultad matemática y computacional, además de la necesidad de poder ser implementable de forma sencilla. El problema se puede separar en dos: planificación inter-día y agendamiento intra-día. En esta investigación se aborda el último mediante análisis de reglas básicas de decisión, y se pone a prueba su rendimiento con técnicas de optimización y simulación conjuntas. Se utilizaron datos agregados de un centro de cáncer de Chile, y mediante ellos se generaron casos de estudio representativos para validar las distintas reglas y técnicas utilizadas. En particular, se comprobó el buen rendimiento que presenta la regla de asignar a todos los pacientes en base a su tiempo esperado de atención, por sobre asumir casos pesimistas u optimistas según sus distintos tipos de cáncer. Además, sumando técnicas de penalización, prohibición y el uso de ciertos resguardos conservadores, se logró generar mejores reglas de decisión. Estas, si bien en su naturaleza continúan siendo simples y por ende fáciles de implementar, presentan mejoras por sobre la regla básica de agendar utilizando los tiempos esperados de atención de cada cáncer. El principal aporte de esta investigación radica en una propuesta metodológica de optimización y simulación, la que es aplicable tanto en problemas de agendamiento, en particular de quimioterapia, pero también potencialmente en otras áreas o industrias.
- ItemAlteración del período circadiano del reloj proteico KaiABC mediante diseño racional del estado de transición de replegamiento de la proteína metamórfica KaiB(2023) Retamal Farfán, Ignacio Andrés; Ramírez Sarmiento, César Antonio; Rivera Valdés, Maira; Pontificia Universidad Católica de Chile. Escuela de IngenieríaLa proteína metamórfica KaiB regula el reloj biológico de cianobacterias KaiABC mediante la interconversión de su estructura. Este tipo de proteínas pueden adoptar más de un estado termodinámicamente estable y responsable de su función biológica, lo que desafía a la clásica noción de “una secuencia - una estructura - una función”. Durante el día, KaiB forma un homotetrámero (gsKaiB), mientras que por la noche se transforma a un monómero (fsKaiB). Este cambio en el estado oligomérico va acompañado con cambios en su estructura secundaria y terciaria en su mitad C-terminal. Previo a este trabajo, el mecanismo de metamorfosis y los residuos relevantes para la formación de la transición metamórfica eran desconocidos. En la presente tesis, mediante simulaciones de dinámica molecular con modelos basados en estructura (SBMs) de doble cuenca, se dilucidan los estados de transición y el mecanismo de metamorfosis de KaiB, el cual sigue como ruta gs2⇄2gs⇄2fs, con la disociación del dímero de gs como el paso limitante del proceso. Utilizando criterios de probabilidad de formación de contactos nativos y cambios en frustración energética local, se identificaron 5 residuos relevantes para la formación del estado de transición de la interconversión monomérica gs⇄fs (R5, T18, R23, K37 y K58). A partir de los análisis de frustración energética, se propusieron mutantes que estabilizaran a estos residuos en el estado de transición, las que se evaluaron en fsKaiB, gsKaiB y el complejo fsKaiB-KaiC. Apuntando al objetivo de alterar el período del reloj mediante la modulación cinética de la transformación de KaiB, se consideraron aquellas mutantes que minimizaran la frustración energética en las estructuras del estado de transición y estados finales, las cuales fueron T18C, K37I y K37V. Adicionalmente, se ha reportado que al mutar el residuo arginina 23 por cisteína (R23C) cambia el periodo del reloj a 26 h, lo que probablemente se deba a su interacción con KaiC. Esta observación se condice con nuestros análisis de frustración, en donde se observa que la mutante R23C disminuye la frustración local del residuo en su estado fsKaiB-KaiC. Es por esto que se realizaron experimentos preliminares reconstituyendo el reloj KaiABC silvestre in vitro, que se complementaron con el diseño de un sistema de tomas de muestra automatizado, logrando observar la oscilación del estado de fosforilación de KaiC con un período de 24 h. En base a los resultados obtenidos se proyecta que el uso de herramientas bioinformáticas, como SBMs duales y análisis de frustración energética, son relevantes para comprender el mecanismo de transformación de proteínas metamórficas oligoméricas e incluso podrían ser usadas en el diseño de relojes biológicos sintéticos.
- ItemAn algorithm for block diagram processing and the DiaBloS tool for systems simulation(2024) Rojas Sepúlveda, Matías Nicolás Alejandro; Torres Torriti, Miguel Attilio; Pontificia Universidad Católica de Chile. Escuela de IngenieríaVisual diagrammatic programming and block diagrams have been a valuable tool for systems modeling and simulation for several decades in research, development, and educational purposes. Despite the existing mature commercial and free software tools, there is no such kind of tool for the Python programming environment. Little information concerning algorithms to process block diagrams that represent dynamical systems and simulate the corresponding models can be found in the public domain. This is likely because simulation systems based on block diagram descriptions that have become de facto industry standards use proprietary solutions, even if their origins can be traced back to work done in research centers and universities more than seven decades ago. Therefore, the main contributions of this work can be summarized in: i) the development of an algorithm and its detailed description for processing block diagrams (multigraphs), ii) the development of DiaBloS, an open source software tool for Python that implements a diagrammatic visual programming interface and the associated block diagram processing algorithms. The latter contribution aims at code design simplicity, modularity, portability, extensibility of its functionality, and providing an open source tool for Python that could satisfy educational purposes while contributing to the understanding of algorithms for processing block diagrams. Other goals like performance, interface responsiveness aesthetics and code optimization were intentionally treated as secondary goals. We expect this contribution will not only serve as a basis for new developments in visual programming systems, but also provide a free open tool accessible to educators in many areas involving systems modeling and simulation. The numerical accuracy of DiaBloS has been validated to be the same as that achieved by commercial and open code-based existing integration routines implementing the fixed-step RK45 method. Application examples are also provided to demonstrate its capabilities and simplicity. This work also provides an overview of the evolution of existing graph-based modeling paradigms. This overview could also have a reference value, as it brings together many ideas that are connected, but spread in such a way that it becomes difficult to have a general articulated picture of the developments in the field of graphical programming tools and algorithms for processing multigraphs.
- ItemAn autocorrelation-based bayesian estimator for acoustic-radiation-force-induced displacements(2023) Klemmer Chandía, Stefan Werner; Cuadra, Patricio de la; Mura Mardones, Joaquín Alejandro; Pontificia Universidad Católica de Chile. Escuela de IngenieríaLos algoritmos de estimación de desplazamiento juegan un rol crítico en los métodos de elastografía por ultrasonido. Los estimadores bayesianos han mostrado resultados prometedores en la última década, pero su costo computacional impide su implementación en tiempo real. En esta tesis, una nueva función de verosimilitud llamada autocorrelation kernel” (ACK) es incorporada a la estimación bayesiana. Al contrario de funciones anteriores, ACK permite evaluar directamente la probabilidad de desplazamientos sub-muestra sin necesitar sobremuestreo ni interpolación. Se generaron imágenes de modo B representativas de shear wave elasticity imaging (SWEI). Primero, la fuerza de radiación acústica fue simulada. Segundo, el método de elementos finitos fue utilizado para simular desplazamientos de ondas cortantes. Por último, un programa de simulación de ultrasonido fue utilizado para producir imágenes de tejido en movimiento con textura apropiada. La función de verosimilitud propuesta fue comparada contra la clásica correlación cruzada normalizada (NCC). Ambas fueron combinadas con un prior de norma L1 para calcular la probabilidad a posteriori. Adicionalmente, un prior de norma L2 fue probado con ACK. El desplazamiento fue estimado a partir de las imágenes de modo B simuladas y los resultados fueron comparados en términos de su sesgo, variabilidad y la raíz del error cuadrático medio (RMSE). NCC tuvo un mejor desempeño que ACK. Esta mejoró la estimación inicial no bayesiana entre 24.2% y 42.5% en términos de su RMSE. ACK mejoró esta estimación en tan solo 16.6% a 36.7% con norma L1 y entre 19.3% y 33.8% con norma L2. Respecto al tiempo de cómputo, cada evaluación de ACK fue en promedio ´ 28.6% más rápida que las de NCC. No obstante, la convergencia del algoritmo de optimización no-lineal no fue acelerada.
- ItemAn information theory approach on deciding spectroscopic folIow ups(2019) Astudillo Bessi, Javiera; Pichara Baksai, Karim Elías; Pontificia Universidad Católica de Chile. Escuela de IngenieríaLa clasificación y caracterización de estrellas variables y fenómenos transientes son críticos para la astrofísica y cosmología. Estos objetos son estudiados principalmente a través de series de tiempo fotométricas o información espectroscópica. Las series de tiempo son generalmente usadas para el descubrimiento y clasificación de objetos, mientras que la espectroscopía provee un mayor entendimiento, tales como las propiedades físicas. Ambos tipos de datos son valiosos, sin embargo los espectros son mucho más costosos en términos de tiempo de observación. Es por esto último que la mayoría de los proyectos de recolección de datos astronómicos, actuales y futuros, están enfocados en series de tiempos. En este contexto, sería valioso saber cuáles objetos priorizaría para la observación de sus espectros, dado que ya disponemos de sus series de tiempo. Para ello, proponemos una metodología que determina cuales objetos priorizar para la observación de su espectro, por medio de la ganancia de información en un marco probabilístico. En primer lugar, entrenamos dos clasificadores: uno que utiliza solo información fotométrica y otro que usa esta última en conjunto con información espectroscópica. Luego, para cada objeto estimamos los espectros más probables a partir de su serie de tiempo. Combinamos ambos componentes para la elaboración de varias estrategias que guían la selección de objetos a los cuales observar su espectro. La mejor estrategia depende del uso que se le quiera dar. Si seleccionamos un 5% (127) de los objetos a observar, corregimos las clasificaciones de un 37% (47) de los objetos seleccionados, en comparación a un 20% (25) si se seleccionan de acuerdo a una estrategia base. Mejoramos la probabilidad asignada a la clase real de cada objeto en un 0.13, en comparación al 0.11 obtenido por la estrategia base. Por otra parte, detectamos 46% de los objetos cuya clasificación es corregible si se observa el espectro, con la selección de un 4% de los objetos disponibles. Nuestra propuesta provee un marco general para estrategias de seguimiento y puede ser extendida más allá de la clasificación e incluir otras formas de seguimientos distintas de la espectroscopía.
- ItemAn information theory approach on deciding spectroscopic follow UPS(2019) Astudillo Bessi, Javiera Fernanda; Pichara Baksai, Karim Elías; Pontificia Universidad Católica de Chile. Escuela de IngenieríaLa clasificación y caracterización de estrellas variables y fenómenos transientes son críticos para la astrofísica y cosmología. Estos objetos son estudiados principalmente a través de series de tiempo fotométricas o información espectroscópica. Las series de tiempo son generalmente usadas para el descubrimiento y clasificación de objetos, mientras que la espectroscopía provee un mayor entedimiento, tales como las propiedades físicas. Ambos tipos de datos son valiosos, sin embargo los espectros son mucho más costosos en términos de tiempo de observación. Es por esto último que la mayoría de los proyectos de recolección de datos astronómicos, actuales y futuros, están enfocados en series de tiempos. En este contexto, sería valioso saber cuáles objetos priorizar para la observación de sus espectros, dado que ya disponemos de sus series de tiempo. Para ello, proponemos una metodología que determina cuáles objetos priorizar para la observación de su espectro, por medio de la ganancia de información en un marco probabilístico. En primer lugar, entrenamos dos clasificadores: uno que utiliza solo información fotométrica y otro que usa esta última en conjunto con información espectroscópica. Luego, para cada objeto estimamos los espectros más probables a partir de su serie de tiempo. Combinamos ambos componentes para la elaboración de varias estrategias que guian la selección de objetos a los cuales observar su espectro. La mejor estrategia depende del uso que se le quiera dar. Si seleccionamos un 5% (127) de los objetos a observar, corregimos las clasificaciones de un 37% (47) de los objetos seleccionados, en comparación a un 20% (25) si se seleccionan de acuerdo a una estrategia base. Mejoramos la probabilidad asignada a la clase real de cada objeto en un 0.13, en comparación al 0.11 obtenido por la estrategia base. Por otra parte, detectamos 46% de los objetos cuya clasificación es corregible si se observa el espectro, con la selección de un 4% de los objetos disponibles. Nuestra propuesta provee un marco general para estrategias de seguimiento y puede ser extendida más allá de la clasificación e incluir otras formas de seguimientos distintas de la espectroscopía.
- ItemAn optimization based methodology for defining marketing campaign segments(2019) Salazar Santander, César Ignacio; Mac Cawley Vergara, Alejandro Francisco; Pontificia Universidad Católica de Chile. Escuela de IngenieríaEl objetivo de esta investigación fue presentar y validar una metodología diseñada para apoyar la toma de decisiones en el contexto de definición de target de campaña. Busca ofrecer al tomador de decisiones un complemento que le permite ubicar, de forma óptima, a aquellos clientes que deberían presentar mejor afinidad frente a una acción comercial a ejercer. Para realizar esto, se procedió a definir un dominio de consumidores y a generar agrupaciones micro-segmentadas a través de la selección de variables descriptoras y una metodología de división homogénea de características. Posteriormente, se definió una métrica de efectividad y se construyó un modelo de programación mixta multi-objetivo híbrido entre clustering y modelo de propensisón. El foco de este se orientó en torno a la selección de consumidores que maximizan la efectividad de campaña y, en paralelo, minimizan la disimilitud entre personas a alcanzar. Luego, se diseñó una metodología de validación experimental pensada en generar comparaciones de efectividad entre: (i) criterios de asignación tradicionales y (ii) los resultados del modelo. Se realizaron experimentos contrastando metodología vs criterios de asignación tradicionales para una acción comercial. Para distintos n, el modelo supera a los criterios estándares. Por ejemplo, si n = 100, efectividades de 3.10% vs 2.26% respectivamente. Si n = 3500, 2.41% vs 2.32%. Al mismo tiempo, lo propuesto plantea targets de campaña más precisos, ya que, al observar los porcentajes de expansión de variables, se puede constatar que para distintos n, el modelo expande su rango de forma más controlada respecto a los criterios del retailer. Por último, se concluye que el modelo rescata de forma satisfactoria las relaciones multi-dimensionales entre las variables involucradas en la decisión.
- ItemAnálisis bioinformático y modelación matemática de un consorcio microbiano infantil bajo el consumo de oligosacáridos de leche materna(2023) Proschle Donoso, Tomás Alonso; Garrido Cortés, Daniel; Pontificia Universidad Católica de Chile. Escuela de IngenieríaLa microbiota intestinal infantil desempeña un papel crucial en la salud y el desarrollo durante la primera infancia. La colonización temprana por bacterias beneficiosas en el tracto gastrointestinal contribuye a la maduración del sistema inmunológico, la digestión eficiente de nutrientes y la prevención de trastornos metabólicos. La alimentación con leche materna durante los primeros 6 meses de vida proporciona al infante nutrientes esenciales y azúcares complejos como los oligosacáridos de leche materna (HMOs), que actúan como prebióticos selectivos para microorganismos beneficiosos. El género Bifidobacterium se destaca por ser uno de los principales grupos capaces de degradar HMOs y representa más del 70% de la comunidad microbiana intestinal durante la lactancia. Dentro del intestino del infante existe una comunidad bacteriana compleja, lo que plantea la interrogante de cómo se desarrollan las relaciones ecológicas entre estos microorganismos. Este estudio se centró en caracterizar las interacciones clave entre las especies que componen un consorcio microbiano artificial, formado por siete bacterias relevantes de la microbiota infantil. Utilizando la metodología leave-one-out para cultivos in vitro de la comunidad propuesta, cultivados en lactosa y HMOs representativos, se llevaron a cabo análisis multivariables y análisis metatranscriptómicos. Además, se desarrolló un modelo matemático que permitió determinar la dinámica de degradación y consumo de azúcares complejos a nivel de comunidad. Se observó una dominación por parte de Bifidobacterium bifidum, sustentado por análisis funcionales de los consorcios. También, se encontró una disminución significativa en la degradación de HMOs en su ausencia, evidenciable en el modelo matemático planteado. La presencia de Bifidobacterium bifidum redujo significativamente la presencia de Bifidobacterium infantis, lo que evidenció una competencia directa entre estas especies. La eliminación de Escherichia coli del consorcio provocó una activación transcripcional generalizada de las demás especies, lo cual también se observó en los análisis multivariables. Se sugiere que para investigaciones futuras se utilice la metodología de análisis de redes de co-expresión génica ponderada (WGCNA) para identificar correlaciones entre módulos funcionales de genes presentes en los experimentos.
- ItemAnálisis de clusters y de trayectorias de motivación de estudiantes de un curso de programación en modalidad remota de emergencia(2022) Jahr Andrade, Andrés Sebastián; Herskovic, Valeria; Muñoz Gama, Jorge; Pontificia Universidad Católica de Chile. Escuela de IngenieríaLa pandemia de COVID-19 trajo consigo consecuencias no solo en el ámbito de salud y económico, sino que también en educación. Las personas se vieron obligadas a cumplir estrictos protocolos sanitarios los cuales implicaron, entre otras cosas, restricciones de desplazamiento y cuarentenas. En consecuencia, sin mas opción, los centros educacionales se vieron obligados a pasar a un formato remoto, modalidad conocida como aprendizaje remoto de emergencia, o emergency remote teaching (ERT). ERT tiene consecuencias para profesores y estudiantes, las cuales podrían afectar la motivación y, por ende, el aprendizaje de estos últimos. Con la finalidad de analizar dicha situación se realizaron 3 encuestas en un curso universitario de programación, las cuales incluían preguntas del Motivated Strageties for Learning Questionnaire (MSLQ), cuestionario autoreporte que evalúa la motivación académica de los estudiantes en distintas escalas; preguntas demográficas y descriptivas, y preguntas respecto a la preocupación por el COVID-19. A partir de lo anterior, se generaron perfiles de estudiantes utilizando el método de clusterización k-means y se analizaron sus diferencias con diversas pruebas estadísticas. Adicionalmente, se generaron trayectorias de motivación considerando los 3 periodos estudiados. A raíz de ello se descubrió la existencia de 4 perfiles de estudiantes. El perfil más adaptativo tuvo una alta motivación, además de verse más preparado y menos frustrado con las condiciones del ERT. Sin embargo, tuvo los niveles mas altos de preocupación por el COVID-19. El perfil menos adaptativo, se comporto en general como un espejo de las variables del más adaptativo, siendo el cluster con mayor representación de mujeres. En lo que respecta a trayectorias, se evidenciaron diversas variaciones motivacionales a través del tiempo. Por último, se mostraron claras diferencias entre las trayectorias de los estudiantes más y menos preocupados por el COVID-19.