3.01 Tesis magíster
Permanent URI for this collection
Browse
Browsing 3.01 Tesis magíster by browse.metadata.categoria "Astronomía"
Now showing 1 - 9 of 9
Results Per Page
Sort Options
- ItemAutomatic classification of poorly sampled variable stars(2016) Castro Leal, Nicolás Pablo; Pichara Baksai, Karim Elías; Pontificia Universidad Católica de Chile. Escuela de IngenieríaLa aplicación de métodos de clasificación automática en catálogos de observación astronómica ha revolucionado el proceso de identificación de estrellas. Hoy en día, muchos estudios generan catálogos conformados por un gran número de series de mediciones, o ”curvas de luz”, que representan los cambios en el brillo de objetos estelares en el tiempo. Desafortunadamente, las observaciones toman varios años en completarse, lo que produce series de tiempo parciales que normalmente no son analizadas hasta que todas las observaciones son completadas. Esto sucede porque los métodos de clasificación más modernos dependen de una variedad de descriptores estadísticos que presentan un grado creciente de dispersión a medida que el número de observaciones decrece, lo que disminuye su precisión. En este trabajo, proponemos método que mejora el rendimiento de los clasificadores automáticos de estrellas variables al incorporar las desviaciones producidas por la escasez de observaciones. Nuestro algoritmo utiliza Procesos Gaussianos de regresión para formar un modelo probabilístico de los valores observados para cada curva de luz. Luego, basado en este modelo, se generan muestras aleatorias de los descriptores de las curvas.Finalmente, a partir de estas muestras, se utiliza una técnica de bagging para incrementar la precisión de la clasificación. El resultado de este modelo, es un vector de clasificación que representa la probabilidad de pertenecer a cada una de las posibles clases de estrellas variables. Realizamos pruebas en los catálogos MACHO y OGLE; los resultados muestran que nuestro método logra mejorar las predicciones de modelos clásicos. Consideramos que estos resultados muestran la importancia de tomar en cuenta el error de los descriptores estimados, al clasificar curvas de luz, y como los procesos de observación los impactan.
- ItemAutomatic identification of spectral lines(2016) Riveros, Andrés A.; Pichara Baksai, Karim Elías; Pontificia Universidad Católica de Chile. Escuela de IngenieríaLa astronomía enfrenta nuevos desafíos en cuanto a cómo analizar big data, y por lo tanto, como buscar o predecir eventos/patrones de interés. Nuevas observaciones en regiones de longitudes de onda previamente inexploradas están disponibles gracias a instrumentos como el Atacama Large Millimeter Array (ALMA). Dada esta creciente cantidad de datos de alta resolución espectral, cualquier análisis no automatizado constituiría un esfuerzo más allá de la capacidad humana. Actualmente, la clasificación de líneas de emisión significa decidir si una línea de emisión pertenece a un isótopo específico. Esta clasificación es principalmente hecha comparando las líneas observadas con líneas de emisión de isótopos conocidas. Un algoritmo de clasificación automático reduciría dramáticamente los esfuerzos humanos para analizar datos espectrales, permitiendo a los astrónomos enfocar sus esfuerzos en análisis más detallados. En este trabajo, proponemos un algoritmo que utiliza un modelo sparse para representar el espectro y automáticamente clasificar líneas de emisión. Para esto, utilizamos conjuntos de datos de líneas espectrales para determinar un set de vectores base que represente la presencia de líneas de emisión teóricas. Luego, para clasificar líneas en un espectro dado, se minimiza la diferencia entre el espectro y una combinación lineal de los vectores base determinados. El output del modelo corresponde a un vector de probabilidad que representa la distribución de la predicción sobre un set de posibles isótopos. Realizamos pruebas de nuestro algoritmo con datos experimentales de Splatalogue y datos simulados del proyecto ASYDO. El resultado del análisis muestra que el algoritmo es capaz de identificar líneas de emisión con una precisión del 90% cuando ni blending ni casos hiperfinos están presentes. En tanto que la separación de longitud de onda entre líneas decrece (menor o igual que 1 MHz) la precisión baja a un 82%. El código fuente del algoritmo, los datos sintéticos y la lista de identificaciones sugerida están públicamente disponibles*.
- ItemAutomatic survey-invariant classification of variable stars(2018) Benavente Escandón, Patricio; Pichara Baksai, Karim Elías; Pontificia Universidad Católica de Chile. Escuela de IngenieríaLas técnicas de aprendizaje de máquina han sido aplicadas con éxito en la clasificación de estrellas variables en sondeos astronómicos bien estudiados. Estos conjuntos de datos han estado disponibles el tiempo suficiente para que los astrónomos analicen en profundidad una serie de fuentes variables y generen catálogos prácticos con estrellas variables identificadas. El producto de estos estudios son datos etiquetados que permiten entrenar modelos supervisados con éxito. Sin embargo, cuando estos modelos son aplicados ciegamente a datos provenientes de nuevos sondeos celestes su desempeño disminuye de manera considerable. Más aún, los datos sin etiqueta son generados a una tasa muchísimo mayor que la de su contraparte etiquetada, ya que el etiquetado es un proceso manual que toma tiempo. Las técnicas de adaptación de dominio apuntan a aprender en un dominio donde hay etiquetas disponibles — el dominio fuente — y mediante alguna adaptación clasificar con éxito en otro dominio—el dominio objetivo. Proponemos un modelo probabilístico completo que representa la distribución conjunta de las características de dos conjuntos de datos distintos, así como una transformación probabilística desde las características de uno de los conjuntos de datos hacia el otro. Esto permite transferir datos etiquetados a un sondeo donde éstos no están disponibles y efectivamente aplicar un modelo de clasificación en un sondeo nuevo. Nuestro modelo representa las características de cada dominio como una mezcla de Gaussianas y modela la transformación como una translación, rotación y escalación de cada componente por separado. Realizamos pruebas usando tres catálogos de variabilidad diferentes: EROS, MACHO y HiTS. Presentamos las diferencias entre ellos, como la cantidad de observaciones por estrella, cadencia, tiempo de observación, y bandas ópticas observadas, entre otros.
- ItemClustering based feature learning on variable stars(2016) Mackenzie Kiessler, Cristóbal; Pichara Baksai, Karim Elías; Pontificia Universidad Católica de Chile. Escuela de IngenieríaEl éxito de la clasificación automática de estrellas variables depende en gran medida de la representación de la curva de luz. Comúnmente, una curva de luz es representada como un vector de descriptores estadísticos diseñados por astrónomos llamados características. Estas características son costosas de calcular, requieren mucho tiempo de investigación para desarrollar y no garantizan un buen rendimiento de clasificación. Hoy en día la representación de curvas de luz no es automática; los algoritmos deben ser diseñados y ajustados para cada set de datos. La cantidad de datos astronómicos que se generará en el futuro requerirá de procesos de análisis automáticos y escalables. En este trabajo presentamos un algoritmo de aprendizaje de características diseñado para objetos variables. Nuestro método funciona a través de la extracción de un gran número de subsecuencias de curvas de luz, de las cuales se extraen subsecuencias representantes de los patrones más comunes a través de un algoritmo de clustering.Estos representantes son usados para transformar curvas de luz de un conjunto etiquetado a una representación que puede ser usada con un clasificador. El algoritmo propuesto aprende características de datos etiquetados y no etiquetados, lo que elimina el sesgo de usar solo datos etiquetados. Evaluamos nuestro método en las bases de datos MACHO y OGLE; los resultados muestran que nuestro rendimiento de clasificación es tan bueno como y en algunos casos mejor que el rendimiento que se logra usando las características tradicionales, mientras que el costo computacional es significativamente menor. Con estos resultados prometedores, creemos que nuestro método constituye un paso significativo hacia la automatización de los procesos de clasificación de curvas de luz.
- ItemDeep multi-survey classification of variable stars(2018) Aguirre Orellana, Carlos Alfonso; Pichara Baksai, Karim Elías; Pontificia Universidad Católica de Chile. Escuela de IngenieríaDurante la última década, se ha realizado una gran cantidad de esfuerzo en clasificar estrellas variables utilizando diferentes técnicas de aprendizaje automático. Típicamente, las curvas de luz se representan como vectores de descriptores estadísticos los cuales se utilizan para entrenar distintos algoritmos. Estos descriptores demandan grandes poderes de cómputo,haciendo imposible crear formas escalables y eficientes de clasificar automáticamente estrellas variables. Además, las curvas de luz de diferentes catálogos no se pueden integrar y analizar juntas de manera inmediata. Por ejemplo, al tener variaciones en la cadencia y filtros, las distribuciones de características se vuelven parciales y requieren costosos modelos de calibración de datos. La gran cantidad de datos que se generarán pronto hacen necesario desarrollar arquitecturas de aprendizaje automático escalables. Estas arquitecturas deben ser capaces de analizar curvas de luz de diferentes catálogos sin costosas técnicas de integración. Las redes neuronales convolucionales han mostrado resultados impresionantes en la clasificación y representación de imágenes. Son capaces de clasificar objetos en imágenes con altos niveles de precisión. En este trabajo, presentamos un novedoso modelo de aprendizaje profundo para la clasificación de curvas de luz, basado principalmente en unidades convolucionales. Nuestra arquitectura recibe como entrada las diferencias entre el tiempo yla magnitud de las curvas de luz. Captura los patrones de clasificación esenciales independientemente de la cadencia y el filtro, y sin la necesidad de calcular ninguna característica estadística. Probamos nuestro método usando tres catálogos diferentes: OGLE-III; Corot; y VVV, que difieren en filtros, cadencia y área del cielo. Mostramos que además del beneficio de la escalabilidad, nuestro modelo obtiene niveles de precisión comparables con el estado del arte en clasificación de estrellas variables.
- ItemGas depletion inside the dust gaps in the HD163296 protoplanetary disk(2023) Soto Martínez, Daniela del Carmen; Guzmán Veloso, Viviana; Pontificia Universidad Católica de Chile. Instituto de AstrofísicaThe main objective of this work is to study the gas distribution, traced by the emission lines produced by the abundance of molecules presents in the gas, detected in millimeter waves, in the protoplanetary disk of the young star HD 163296, which have a big disk and clear rings around it. We research for the distribution of the gas emission, using ALMA data measured in the cycle 6, through several different sources. More specifically we are looking for resolve the gas structure based on 12CO, 13CO and C18O molecular line emission, to determine their distribution on the disk and how they participate in the planets formation process. As a summary of what the reader can found in the body of this work, it start with the introduction - in 1 - about what are the protoplanetary disks, the interest in the chemistry to study how the planet can be form. To continue in 2, with the description of the observation and data reduction techniques used to clean data and get the images. Then, we present method implemented to estimate the gas density in the 3, and the results in 4. Discussion and analysis of results in 5, and finally a summary with main results extracted of our work in 6.
- ItemIntegration and characterization of a polarized radio frequency source for UAV-based telescope calibration(2021) Carrero Muñoz, Felipe Ernesto; Dünner Planella, Rolando; Pontificia Universidad Católica de Chile. Escuela de IngenieríaEn cosmología experimental, el estudio de la Radiación de Fondo de Microondas (CMB) requiere mediciones precisas de fluctuaciones de temperature de fracción de Kelvin y de señales extendidas de polarización que pueden estar hasta 4 órdenes de magnitud por debajo de la señal principal de 2.725 K. Así, los efectos sistemáticos introducidos por los radiotelescopios deben ser precisamente caracterizados para asegurar que las señales medidas representan apropiadamente los fenómenos físicos subyacentes. La calibración en polarización de estos telescopios mediante el novedoso uso de radiofuentes artificiales llevadas por vehículos aéreos no tripulados (VANT) se perfila como una alternativa con varios beneficios frente a métodos tradicionales. Para explorar esta alternativa, el Centro de Astro-Ingeniería (AIUC) de la Pontificia Universidad Católica de Chile se ha embarcado en el diseño y desarrollo de un calibrador polarizado para la calibración de radio telescopios mediante vehículos aéreos no tripulados. Esta tesis apunta a integrar, caracterizar y probar una fuente de RF que pueda ser montada en un VANT para calibrar telescopios de CMB sensibles a la polarización. Los objetivos de este trabajo son el desarrollo de una estructura mecánica para albergar los componentes; la integración y prueba de la electrónica de RF; el diseño e implementación de experimentos de caracterización; simulaciones electromagnéticas en 150 GHz del telescopio Cosmology Large Angular Scale Surveyor (CLASS); y una prueba de vuelo del sistema integrado. Para estos fines, se emplearán: el software de modelado CAD SolidWorks (Dassault Systèmes), para diseñar y validar la estructura de montaje; una cámara anecoica equipada con un robot CNC, un analizador espectral y bolómetros, para realizar la caracterización del sistema de RF; y el software de modelado electromagnético GRASP (Ticra), para las simulaciones electromagnéticas. El resultado de este trabajo es una fuente de RF autocontenida y caracterizada, que puede ser llevada por VANTs para utilizarse en calibraciones más precisas de radiotelescopios de CMB sensibles a la polarización.
- ItemSupervised detection of anomalous light-curves in massive astronomical catalogs.(2014) Nun Bitrán, Isadora Tatiana; Pichara Baksai, Karim Elías; Pontificia Universidad Católica de Chile. Escuela de IngenieríaEl desarrollo de sondeos sinópticos del cielo en los últimos años ha generado cantidades masivas de datos. Su análisis requiere por lo tanto recursos que superan las capacidades humanas. Por esta razón, las técnicas de aprendizaje de máquina se han vuelto esenciales para procesar esta información y extraer todo el conocimiento posible. En este trabajo se presenta una nueva metodología automática para descubrir objetos anómalos en grandes catálogos astronómicos. De manera de aprovechar toda la información que se tiene de estos objetos, el método propuesto se basa en un algoritmo supervisado. En particular, se entrena un clasificador random forest con objetos de clases conocidas y se obtienen los votos de clasificación para cada uno de ellos. En una segunda instancia, se modela la repartición de estos votos con una red de Bayes consiguiendo así su distribución conjunta. La idea tras de esto es que un objeto desconocido podrá ser detectado como anomalía en la medida que sus votos de clasificación tengan una baja probabilidad conjunta bajo este modelo. Nuestro método es apropiado para explorar bases de datos masivas dado que el proceso de entrenamiento se realiza de forma offline. Testeamos nuestro algoritmo en 20 millones de curvas de luz del catálogo MACHO y generamos una lista de candidatos anómalos. Luego de realizar un análisis, los dividimos en dos clases principales de anomalías: artefactos y anomalías intrínsecas. Los artefactos se deben principalmente a variaciones de la masa de aire, cambios estacionales, mala calibración o errores instrumentales y fueron por lo tanto removidos de la lista de anomalías y agregados al set de entrenamiento. Después de re-entrenar y ejecutar nuevamente el modelo llevamos a cabo una fase de post-análisis consistente en buscar información de los candidatos en todos los catálogos públicos disponibles. Dentro de nuestra lista identificamos ciertos objetos escasos pero conocidos tales como estrellas Cefeidas, variables azules, variables cataclísmicas y fuentes de rayos X. Sin embargo, para ciertas anomalías no se encontró información adicional. Fuimos capaces de agrupar algunas de estas en nuevas clases variables. No obstante, otras, que emergieron como únicas en su comportamiento, tendrán que ser examinadas por telescopios de manera de realizar un análisis en profundidad.El desarrollo de sondeos sinópticos del cielo en los últimos años ha generado cantidades masivas de datos. Su análisis requiere por lo tanto recursos que superan las capacidades humanas. Por esta razón, las técnicas de aprendizaje de máquina se han vuelto esenciales para procesar esta información y extraer todo el conocimiento posible. En este trabajo se presenta una nueva metodología automática para descubrir objetos anómalos en grandes catálogos astronómicos. De manera de aprovechar toda la información que se tiene de estos objetos, el método propuesto se basa en un algoritmo supervisado. En particular, se entrena un clasificador random forest con objetos de clases conocidas y se obtienen los votos de clasificación para cada uno de ellos. En una segunda instancia, se modela la repartición de estos votos con una red de Bayes consiguiendo así su distribución conjunta. La idea tras de esto es que un objeto desconocido podrá ser detectado como anomalía en la medida que sus votos de clasificación tengan una baja probabilidad conjunta bajo este modelo. Nuestro método es apropiado para explorar bases de datos masivas dado que el proceso de entrenamiento se realiza de forma offline. Testeamos nuestro algoritmo en 20 millones de curvas de luz del catálogo MACHO y generamos una lista de candidatos anómalos. Luego de realizar un análisis, los dividimos en dos clases principales de anomalías: artefactos y anomalías intrínsecas. Los artefactos se deben principalmente a variaciones de la masa de aire, cambios estacionales, mala calibración o errores instrumentales y fueron por lo tanto removidos de la lista de anomalías y agregados al set de entrenamiento. Después de re-entrenar y ejecutar nuevamente el modelo llevamos a cabo una fase de post-análisis consistente en buscar información de los candidatos en todos los catálogos públicos disponibles. Dentro de nuestra lista identificamos ciertos objetos escasos pero conocidos tales como estrellas Cefeidas, variables azules, variables cataclísmicas y fuentes de rayos X. Sin embargo, para ciertas anomalías no se encontró información adicional. Fuimos capaces de agrupar algunas de estas en nuevas clases variables. No obstante, otras, que emergieron como únicas en su comportamiento, tendrán que ser examinadas por telescopios de manera de realizar un análisis en profundidad.
- ItemTime series variability tree for fast light curve retrieval(2017) Valenzuela Pugh, Lucas; Pichara Baksai, Karim Elías; Pontificia Universidad Católica de Chile. Escuela de IngenieríaDurante los últimos diez años, se han hecho esfuerzos considerables por desarrollar algoritmos para la clasificación automática de estrellas variables. Esto ha sido logrado principalmente mediante la aplicación de métodos de aprendizaje de máquina en conjuntos de datos donde los objetos celestes son representados como curvas de luz. Estos clasificadores necesitan conjuntos de entrenamiento para aprender los patrones subyacentes que permiten la separación entre clases. Desgraciadamente, construir conjuntos de entrenamiento para curvas de luz es un proceso costoso que demanda cantidades considerables de esfuerzo humano. Además, muchas veces los astrónomos buscan identificar un tipo particular de estrellas variables. En este caso, no es razonable esperar la disponibilidad de conjuntos de entrenamiento formados mayoritariamente por otras clases de variabilidad. Con el propósito de facilitar la creación de conjuntos de entrenamiento y la identificación de curvas de luz particulares, desarrollamos un motor de búsqueda eficiente, que permite encontrar en un conjunto de datos las curvas de luz más similares a una curva objetivo específica, sin la necesidad de datos etiquetados. Además presentamos una función de similaridad específica para curvas de luz, basada en una novedosa estructura de datos, que permite escalar la búsqueda a grandes conjuntos de objetos no etiquetados. Nuestros experimentos muestran que nuestro modelo ejecuta búsquedas rápidas, obtiene alta precisión y escala a grandes cantidades de datos