3.22 Tesis doctorado
Permanent URI for this collection
Browse
Browsing 3.22 Tesis doctorado by Title
Now showing 1 - 20 of 35
Results Per Page
Sort Options
- ItemAlmost 1-1 extensions, equicontinuous systems and residually finite groups(2024) Gómez Ortiz, Jaime Andrés; Cortéz, María Isabel; Pontificia Universidad Católica de Chile. Facultad de MatemáticasThe purpose of this document is to present our study on the various properties of almost 1-1 extensions of G-odometers with regards to the realization of Choquet simplices, mean-equicontinuity, and the construction of specific almost 1-1 exten- sions of equicontinuous systems. These systems can be viewed as a topological generalization of equicontinuous systems with diverse behavior on some aspects as entropy, the set of probability invariant measures, and more. Each problem is addressed within a general framework without assuming any amenable property on the acting group, except for the last problem where amenability was essential for constructing a specific type of almost 1-1 extensions. This thesis is divided into three parts, with the first two chapters presenting the results of two different manuscripts that are published and submitted, respectively.
- ItemAnalysis of irregularly spaced time series(2019) Ojeda Echeverri, César Andrés; Palma M., Wilfredo; Pontificia Universidad Católica de Chile. Facultad de MatemáticasIn this thesis, we propose novel stationary time series models that can be used when the observations are taken on irregularly spaced times. First, we present a model with a firstorder moving average structure, and then we generalized it to consider an autoregressive component. We called the first model irregularly spaced first-order moving average and the second one irregularly spaced first-order autoregressive moving average. Their definitions and properties are established. We present their state-space representations and their one-step linear predictors. The behavior of the maximum likelihood estimator is studied through Monte Carlo experiments. Illustrations are presented with real and simulated data.
- ItemC*-algebric methods for transport phenomena(2023) Polo Ojito, Danilo; De Nittis, Giuseppe; Pontificia Universidad Católica de Chile. Facultad de Matemáticas
- ItemClassification and modeling of time series of astronomical data(2018) Elorrieta López, Felipe; Eyheramendy Duerr, Susana; Pontificia Universidad Católica de Chile. Facultad de MatemáticasWe are living in the era of Big Data, where several tools have been developed to deal with large amount of data. These technological advances have allowed the rise of the astronomical surveys. These surveys are capable to take observations from the sky and from them generate information ready to be analyzed. Among the observations available there are light curves of astronomical objects, such as, variable stars, transients or supernovae. Generally, the light curves are irregularly measured in time, since it is not always possible to get observational data from optical telescopes. This issue makes the light curves analysis an interesting statistical challenge, because there are few statistical tools to analyze irregular time series. In addition, due to the large amount of light curves available in each survey, automated processes are also required to analyze all the information efficiently. Consequently, in this thesis two goals are addressed: the classification of the light curves from the implementation of data mining algorithms and the temporal modeling of them. Regarding the classification of light curves, our contribution was to develop a classifier for RR Lyrae variable stars in the Vista Variables in the Via Lactea (VVV) nearin frared survey. It is important to detect RR-Lyraes since they are essential to build a three-dimensional map of the Galactic bulge. In this work, the focus is on RRab type ab (i.e., fundamental-mode pulsators). The final classifier is built following eight key steps that include the choice of features, training set, selection of aperture, and family of classifiers. The best classification performance was obtained by the AdaBoost classifier which achieves an harmonic mean between false positives and false negatives of ≈ 7%. The performance is estimated using cross validation and through the comparison with two independent data sets that were classified by human experts. The classifier implemented has already made it possible to identify some RRab in the outer bulge and the southern galactic disk areas of the VVV. In addition, I worked on modeling light curves. I develop new models to fit irregularly spaced time series. Currently there are few tools to model this type of time series. One example is the Continuous Autoregressive model of order one, CAR(1), however some assumptions must be satisfied in order to use this model. A new alternative to fit irregular time series, that we call the irregular autoregressive model (IAR model), is proposed. The IAR model is a discrete representation of the CAR(1) model which provide more flexibility, since it is not limited by Gaussian time series. However, both the CAR(1) and IAR model are only able to estimate positive autocorrelations. In order to fit negatively correlated irregular time series a Complex irregular autoregressive model (CIAR model) was also developed. For both models maximum likelihood estimation procedures are proposed. Furthermore, the finite sample performance of the parameters estimation is assessed by Monte Carlo simulations. Finally, for both models some applications are proposed on astronomical data. Applications include the detection of multiperiodic variable stars and the verification of the correct estimation of the parameters in models commonly used to fit astronomical light curves.
- ItemEssential minimum in families(2023) Morales Inostroza, Marcos; Kiwi Krauskopf, Jan Beno; Sombra, Martín; Pontificia Universidad Católica de Chile. Facultad de Matemáticas
- ItemFibred non-hyperbolic quadratic families(2024) Domínguez Calderón, Igsyl; Ponce Acevedo, Mario; Pontificia Universidad Católica de Chile. Facultad de MatemáticasThe aim of this thesis is two-folding. In the initial instance, we have made signifIcant progress in the problem of density of hyperbolic components within the context of fibred quadratic polynomial dynamics by demonstrating the existence of robust non- hyperbolic fibred quadratic polynomials. Secondly, we present a more complex class of invariant sets that are distinct from the invariant curves for fibred polynomial dynamics, called multi-curves. Furthermore, a construction for multi-curves in quadratic polynomial dynamics is shown, resulting in the attainment of not only invariant multi-curves, but also with the characteristic of being attracting.
- ItemFitting time-varying parameters to astronomical time series(2022) Soto Vásquez, Darlin Macarena; Motta, Giovanni; Galea Rojas, Manuel Jesús; Pontificia Universidad Católica de Chile. Facultad de Matemáticas
- ItemFlexible bayesian inference for families of random densities.(2020) Galasso Díaz, Bastián; González Burgos, Jorge Andrés; Pontificia Universidad Católica de Chile. Facultad de MatemáticasA main goal of this thesis is to propose and study novel flexible Bayesian models for setups that entail families of random densities. Two specific contexts will be examined: one involves phase-varying point processes, whereas the other involves functional principal component analysis. The common denominator underlying these contexts is the need to model families of random measures to each of which corresponds a different data generating process. On both contexts, prior processes will be used so to devise priors on the target objects of interest. In more detail, one context entails separating amplitude variation from phase variation in a multiple point process setting. In this framework, I pioneer the development of priors on spaces of warping maps by proposing a novel Bayesian semiparametric approach for modeling registration of multiple point processes. Specifically, I develop induced priors for warp maps via a Bernstein polynomial prior so to learn about the structural measure of the point process and about the phase variation in the process. Theoretical properties of the induced prior, including support and posterior consistency, are established under a fairly mild proviso. Also, numerical experiments are conducted to assess the performance of this new approach; finally, a real data application in climatology illustrates the proposed methodology. The other context that will be considered in this thesis involves modeling families of random densities using functional principal component analysis through the so-called Karhunen–Loève decomposition. For this, I develop a data-driven prior based on the Karhunen–Loève decomposition which can be used to borrowing strength across samples. The proposed approach defines a prior on the space of families of densities. Theoretical properties are developed to ensure that the trajectories from an infinite mixture belong to L 2 which is a necessary condition for the Karhunen–Loève decomposition to hold. Numerical experiments are conducted to assess the performance of the proposed approach against competing methods, and we offer an illustration by revisiting Galton’s height parents dataset.
- ItemInference from RDS data over Directed Networks(2023) Sepúlveda Peñaloza, Alejandro Adrián; Beaudry, Isabelle; Pontificia Universidad Católica de Chile. Facultad de MatemáticaEl muestreo dirigido por los encuestados (Respondent-Driven Sampling, RDS) es una técnica utilizada para recolectar datos de poblaciones humanas socialmente conectadas que no tienen un marco de muestreo definido. Un paso fundamental para realizar inferencias basadas en el diseño de datos RDS es estimar las probabilidades de muestreo. Tradicionalmente, se ha asumido que una cadena de Markov de primer orden sobre una red completamente conectada y no dirigida representa adecuadamente el RDS. Sin embargo, este modelo simplificado no tiene en cuenta que la red puede ser dirigida y homofílica. Este trabajo propone métodos para abordar estos problemas y estimar la prevalencia de un estado de infección en redes de este tipo.Las principales contribuciones metodológicas de esta tesis son tres: primero, la introducción de un modelo de configuración de red parcialmente dirigida y homofílica; segundo, el desarrollo de dos representaciones matemáticas del proceso de muestreo RDS en el modelo propuesto; y tercero, la propuesta de un modelo bayesiano que considera una red dirigida y el número de conexiones entre nodos infectados y no infectados para estimar la prevalencia del estado de infección.Se realizaron estudios de simulación para demostrar que las probabilidades de muestreo resultantes con nuestras propuestas son similares a las del RDS tradicional, mejorando la estimación de prevalencia bajo diversos escenarios realistas, asumiendo que dichas probabilidades son conocidas. La estimación de la prevalencia del estado de infección se realiza bajo fuertes suposiciones sobre la red, como la ausencia de homofilia o la dirección de los bordes.Para la aplicación del modelo, se utilizó la teoría de copulas, el modelamiento de distribuciones marginales y un modelo de superpoblación para estimar información a partir de datos no observados de la red. Las simulaciones realizadas mostraron una mejora en la estimación de la prevalencia del estado de infección en términos de sesgo y variabilidad utilizando datos de RDS.
- ItemInterfaces between statistical learning and risk management.(2020) Rubio Varas, Rodrigo Esteban; Galea Rojas, Manuel Jesús; Pontificia Universidad Católica de Chile. Facultad de MatemáticasThe recent hype on Artificial Intelligence, Data Science, and Machine Learning has been leading to a revolution in the industries of Banking and Finance. Motivated by this revolution, this thesis develops novel statistical methodologies tailored for learning about financial risk in the Big Data era. Specifically, the methodologies proposed in this thesis build over ideas, concepts, and methods that relate to cluster analysis, copulas, and extreme value theory. I start this thesis working on the framework of extreme value theory and propose novel statistical methodologies that identify time series which resemble the most in terms of magnitude and dynamics of their extreme losses. A cluster analysis algorithm is proposed for the setup of heteroscedastic extremes as a way to learn about similarity of extremal features of time series. The proposed method pioneers the development of cluster analysis in a product space between an Euclidean space and a space of functions. In the second contribution of this thesis, I introduce a novel class of distributions—to which we refer to as diagonal distributions. Similarly to the spectral density of a bivariate extreme value distribution, the latter class consists of a mean-constrained univariate distribution function on [0, 1], which summarizes key features on the dependence structure of a random vector. Yet, despite their similarities, spectral and diagonal densities are constructed from very different principles. In particular, diagonal densities extend the concept of marginal distribution—by suitably projecting pseudo-observations on a segment line; diagonal densities also have a direct link with copulas, and their variance has connections with Spearman’s rho. Finally, I close the thesis by proposing a density ratio model for modeling extreme values of non-indentically distributed observations. The proposed model can be regarded as a proportional tails model for multisample settings. A semiparametric specification is devised to link all elements in a family of scedasis densities through a tilt from a baseline scedasis. Inference is conducted by empirical likelihood inference methods.
- ItemLinking measurements : a bayesian nonparametric approach.(2019) Varas Cáceres, Inés María; González Burgos, Jorge Andrés; Pontificia Universidad Católica de Chile. Facultad de Matemáticas
- ItemLower bounds for the relative regulator(2021) Castillo Gárate, Víctor; Friedman R., Eduardo; Pontificia Universidad Católica de Chile. Facultad de MatemáticasEl regulador relativo Reg(L/K) de una extensión de cuerpos de números L/K está estrechamente relacionada con el cuociente Reg(L)/Reg(K) de reguladores clásicos de L y K. En 1999 Friedman y Skoruppa [FS99] demostraron que Reg(L/K) posee cotas inferiores que crecen exponencialmente con el grado absoluto [L : Q], siempre que el grado relativo [L : K] sea suficientemente grande. Friedman y Skoruppa partieron de una desigualdad analítica que involucra Reg(L/K) y desarrollaron un análisis asintótico que funciona bien para grados relativos [L : K] ≥ 40. En esta tesis, partimos de la misma desigualdad, pero para grados [L : K] ≤ 40 usamos técnicas numéricas y asintóticas para demostrar el crecimiento exponencial de las cotas inferiores cuando [L : K] ≥ 12. Imponiendo algunas hipótesis sobre la descomposición en L/K de los lugares arquimedianos, obtenemos también buenas cotas inferiores para Reg(L/K) para algunos grados [L : K] < 12. Por ejemplo, si K es totalmente complejo obtenemos buenas cotas inferiores para el regulador relativo si [L : K] ≥ 5.
- ItemMedidas de acuerdo bajo el modelo estructural multivariado(2022) Ávila Albornoz, Julio Cesar; Galea Rojas, Manuel Jesús; Pontificia Universidad Católica de Chile. Facultad de MatemáticasEn biometría, ingeniería, medicina y otras áreas es común disponer de distintos instrumentos que midan alguna característica en una unidad experimental. En ocasiones, un nuevo instrumento es propuesto como una alternativa más económica o práctica respecto al instrumento estándar. Si ambos trabajan en una misma escala, es deseable medir el grado de acuerdo o de concordancia que alcanzan. En este contexto, existen varias propuestas para medir el acuerdo entre instrumentos de las cuales se profundizaría en: El Coeficiente de Correlación de Concordancia (CCC) y la Probabilidad de Acuerdo (PA). Las mediciones de los instrumentos pueden estar sujetas a error en la medición. Si estos errores de medición no fueran considerados, las inferencias realizadas podrían estar comprometidas o ser incorrectas. Los Modelos con Error de Medición (MEM) permiten incorporar la incertidumbre que el proceso de medición pueda tener. Una aplicación de los MEM es el modelo de calibración en su versión estructural. Para modelar el error de medición, los MEM asumen una distribución multivariante, siendo la distribución Normal multivariada de gran utilidad en varias aplicaciones. Sin embargo, en presencia de colas pesadas o de datos atípicos, la suposición de normalidad puede ser poco adecuada llevando a comprometer los resultados. Una manera de afrontar este problema es emplear la distribución t multivariada considerada como una extensión de la distribución Normal multivariada. El objetivo de este trabajo es desarrollar bajo el Modelo Estructural Multivariado, herramientas de inferencia estadística para las medidas de acuerdo: CCC y PA. El Modelo Estructural considera el uso de la distribución Normal Multivariada y la t multivariada. Las herramientas estadísticas fueron aplicadas a conjuntos de datos clásicos en la comparación de instrumentos y además, en aplicaciones financieras como el retorno de acciones y las proyecciones del tipo de cambio por parte de operadores financieros.
- ItemMétodos DPG para el problema quad-curl(2024) Herrera Ortiz, Pablo; Heuer, Norbert; Führer, Thomas; Pontificia Universidad Católica de Chile. Facultad de MatemáticasLos problemas relevantes de la magnetohidrodinámica y la dispersión electromagnética utilizan operadores diferenciales de cuarto orden de tipo rotacional, generalmente denominados operadores quad-curl. Su uso requiere métodos de aproximación numérica. En el caso de los operadores quad-curl, la literatura correspondiente es escasa. La discretización de operadores de cuarto orden es difícil debido al requisito de regularidad para las aproximaciones conformes y la presencia de kernels no triviales. Proponemos emplear el método de Petrov-Galerkin discontinuo (método DPG) con funciones de test óptimas. Este es un marco propuesto por Demkowicz y Gopalakrishnan que tiene como objetivo la estabilidad discreta automática de los esquemas de aproximación.El trabajo está dividido en tres partes. La primera parte examina el problema quad-div en dos y tres dimensiones, mostrando su relación con el operador quad-curl $Curl^4$ en el caso 2D. Presentamos el problema como sistemas de primer y segundo orden. Adicionalmente, proporcionamos un método completamente discreto y realizamos un experimento numérico para el caso adaptativo. En la segunda parte, escribimos el operador quad-curl como $-\Curl\Delta\Curl$, formulamos el problema como un sistema de segundo orden y proporcionamos una formulación variacional ultra-débil. Utilizamos los operadores de Fortin del método DPG para el problema de Kirchhoff--Love en 2D para analizar el esquema completamente discreto. Mostramos una aplicación al problema de Stokes en 2D con cargas en $L_2$ y $H^{-1}$. En la tercera parte, estudiamos directamente el operador $\Curl^4$ en 3D como un sistema de segundo orden y proporcionamos una formulación variacional ultra-débil. En este caso, la existencia de un operador de Fortin es un problema abierto.A lo largo de la tesis, empleamos el marco teórico DPG con formulaciones ultra-débiles. La mayor parte de nuestro análisis se centra en estudiar los operadores de traza, los espacios de traza y los saltos. Estos son claves para caracterizar la regularidad, la conformidad y las condiciones de contorno. Desarrollamos operadores de Fortin los cuales son necesarios para la estabilidad de las formulaciones mixtas. Para todos los casos definimos y analizamos los operadores de traza y espacios necesarios, demostramos el buen planteamiento de las formulaciones variacionales y su discretización, y derivamos estimaciones de error a priori.También examinamos técnicas para la inclusión de condiciones de contorno no homogéneas.Proporcionamos experimentos numéricos para todos los problemas y formulaciones. Estos confirman las propiedades de convergencia esperadas.
- ItemModelling predictive validity problems : a partial identification approach(2021) Alarcón Bustamante, Eduardo Sebastián; San Martín, Ernesto; Pontificia Universidad Católica de Chile. Facultad de Matemáticas
- ItemModelo con error de medición two-piece normal.(2019) Santoro Pizarro, Karol I.; Arellano Valle, Reinaldo Boris; Pontificia Universidad Católica de Chile. Facultad de MatemáticasEn este trabajo se discute el modelo simple con errores de medición y una extensión multivariada, donde se considera principalmente el modelo estructual, suponiendo que el error de la regresión de respuesta sigue una distribución de dos piezas. Después de confi gurar una fórmula general para distribuciones de dos piezas, nos centramos en el caso donde la densidad base es una distribución normal. Lo interesante de usar como densidad base la distribución normal, es que el desarrollo entrega una mezcla de dos componentes de distribuciones skew-normal multivariada. Esta conexión facilita la construcción de un algoritmo tipo EM para realizar la estimación de máxima verosimilitud. Se obtiene la función de probabilidad de los datos observados, que se puede maximizar mediante el uso de software estadístico existente. Inferencia sobre los parámetros de interés puede ser abordado mediante el uso de la matriz de información observada, que también se puede calcular mediante el uso de software estadístico existente. Finalmente, se realiza algunas ilustraciones numéricas de la metodología, utilizando datos simulados y reales.En este trabajo se discute el modelo simple con errores de medición y una extensión multivariada, donde se considera principalmente el modelo estructual, suponiendo que el error de la regresión de respuesta sigue una distribución de dos piezas. Después de confi gurar una fórmula general para distribuciones de dos piezas, nos centramos en el caso donde la densidad base es una distribución normal. Lo interesante de usar como densidad base la distribución normal, es que el desarrollo entrega una mezcla de dos componentes de distribuciones skew-normal multivariada. Esta conexión facilita la construcción de un algoritmo tipo EM para realizar la estimación de máxima verosimilitud. Se obtiene la función de probabilidad de los datos observados, que se puede maximizar mediante el uso de software estadístico existente. Inferencia sobre los parámetros de interés puede ser abordado mediante el uso de la matriz de información observada, que también se puede calcular mediante el uso de software estadístico existente. Finalmente, se realiza algunas ilustraciones numéricas de la metodología, utilizando datos simulados y reales.En este trabajo se discute el modelo simple con errores de medición y una extensión multivariada, donde se considera principalmente el modelo estructual, suponiendo que el error de la regresión de respuesta sigue una distribución de dos piezas. Después de confi gurar una fórmula general para distribuciones de dos piezas, nos centramos en el caso donde la densidad base es una distribución normal. Lo interesante de usar como densidad base la distribución normal, es que el desarrollo entrega una mezcla de dos componentes de distribuciones skew-normal multivariada. Esta conexión facilita la construcción de un algoritmo tipo EM para realizar la estimación de máxima verosimilitud. Se obtiene la función de probabilidad de los datos observados, que se puede maximizar mediante el uso de software estadístico existente. Inferencia sobre los parámetros de interés puede ser abordado mediante el uso de la matriz de información observada, que también se puede calcular mediante el uso de software estadístico existente. Finalmente, se realiza algunas ilustraciones numéricas de la metodología, utilizando datos simulados y reales.En este trabajo se discute el modelo simple con errores de medición y una extensión multivariada, donde se considera principalmente el modelo estructual, suponiendo que el error de la regresión de respuesta sigue una distribución de dos piezas. Después de confi gurar una fórmula general para distribuciones de dos piezas, nos centramos en el caso donde la densidad base es una distribución normal. Lo interesante de usar como densidad base la distribución normal, es que el desarrollo entrega una mezcla de dos componentes de distribuciones skew-normal multivariada. Esta conexión facilita la construcción de un algoritmo tipo EM para realizar la estimación de máxima verosimilitud. Se obtiene la función de probabilidad de los datos observados, que se puede maximizar mediante el uso de software estadístico existente. Inferencia sobre los parámetros de interés puede ser abordado mediante el uso de la matriz de información observada, que también se puede calcular mediante el uso de software estadístico existente. Finalmente, se realiza algunas ilustraciones numéricas de la metodología, utilizando datos simulados y reales.En este trabajo se discute el modelo simple con errores de medición y una extensión multivariada, donde se considera principalmente el modelo estructual, suponiendo que el error de la regresión de respuesta sigue una distribución de dos piezas. Después de confi gurar una fórmula general para distribuciones de dos piezas, nos centramos en el caso donde la densidad base es una distribución normal. Lo interesante de usar como densidad base la distribución normal, es que el desarrollo entrega una mezcla de dos componentes de distribuciones skew-normal multivariada. Esta conexión facilita la construcción de un algoritmo tipo EM para realizar la estimación de máxima verosimilitud. Se obtiene la función de probabilidad de los datos observados, que se puede maximizar mediante el uso de software estadístico existente. Inferencia sobre los parámetros de interés puede ser abordado mediante el uso de la matriz de información observada, que también se puede calcular mediante el uso de software estadístico existente. Finalmente, se realiza algunas ilustraciones numéricas de la metodología, utilizando datos simulados y reales.En este trabajo se discute el modelo simple con errores de medición y una extensión multivariada, donde se considera principalmente el modelo estructual, suponiendo que el error de la regresión de respuesta sigue una distribución de dos piezas. Después de confi gurar una fórmula general para distribuciones de dos piezas, nos centramos en el caso donde la densidad base es una distribución normal. Lo interesante de usar como densidad base la distribución normal, es que el desarrollo entrega una mezcla de dos componentes de distribuciones skew-normal multivariada. Esta conexión facilita la construcción de un algoritmo tipo EM para realizar la estimación de máxima verosimilitud. Se obtiene la función de probabilidad de los datos observados, que se puede maximizar mediante el uso de software estadístico existente. Inferencia sobre los parámetros de interés puede ser abordado mediante el uso de la matriz de información observada, que también se puede calcular mediante el uso de software estadístico existente. Finalmente, se realiza algunas ilustraciones numéricas de la metodología, utilizando datos simulados y reales.En este trabajo se discute el modelo simple con errores de medición y una extensión multivariada, donde se considera principalmente el modelo estructual, suponiendo que el error de la regresión de respuesta sigue una distribución de dos piezas. Después de confi gurar una fórmula general para distribuciones de dos piezas, nos centramos en el caso donde la densidad base es una distribución normal. Lo interesante de usar como densidad base la distribución normal, es que el desarrollo entrega una mezcla de dos componentes de distribuciones skew-normal multivariada. Esta conexión facilita la construcción de un algoritmo tipo EM para realizar la estimación de máxima verosimilitud. Se obtiene la función de probabilidad de los datos observados, que se puede maximizar mediante el uso de software estadístico existente. Inferencia sobre los parámetros de interés puede ser abordado mediante el uso de la matriz de información observada, que también se puede calcular mediante el uso de software estadístico existente. Finalmente, se realiza algunas ilustraciones numéricas de la metodología, utilizando datos simulados y reales.En este trabajo se discute el modelo simple con errores de medición y una extensión multivariada, donde se considera principalmente el modelo estructual, suponiendo que el error de la regresión de respuesta sigue una distribución de dos piezas. Después de confi gurar una fórmula general para distribuciones de dos piezas, nos centramos en el caso donde la densidad base es una distribución normal. Lo interesante de usar como densidad base la distribución normal, es que el desarrollo entrega una mezcla de dos componentes de distribuciones skew-normal multivariada. Esta conexión facilita la construcción de un algoritmo tipo EM para realizar la estimación de máxima verosimilitud. Se obtiene la función de probabilidad de los datos observados, que se puede maximizar mediante el uso de software estadístico existente. Inferencia sobre los parámetros de interés puede ser abordado mediante el uso de la matriz de información observada, que también se puede calcular mediante el uso de software estadístico existente. Finalmente, se realiza algunas ilustraciones numéricas de la metodología, utilizando datos simulados y reales.
- ItemNew contributions to joint models of longitudinal and survival outcomes : two-stage approaches(2021) Leiva Yamaguchi, Valeria; Silva, Danilo Alvares da; Pontificia Universidad Católica de Chile. Facultad de MatemáticasJoint models of longitudinal and survival outcomes have gained much popularity over the last three decades. This type of modeling consists of two submodels, one longitudinal and one survival, which are connected by some common term. Unsurprisingly, sharing information makes the inferential process highly time-consuming. This problem can be overcome by estimating the parameters of each submodel separately, leading to a natural reduction in the complexity of joint models, but often producing biased estimates. Hence, we propose different two-stage strategies that first fits the longitudinal submodel and then plug the shared information into the survival submodel. Our proposals are developed for both the frequentist and Bayesian paradigms. Specifically, our frequentist two-stage approach is based on the simulation-extrapolation algorithm. On the other hand, we propose two Bayesian approaches, one inspired by frailty models and another that uses maximum a posteriori estimations and longitudinal likelihood to calculate posterior distributions of random effects and survival parameters. Based on simulation studies and real applications, we empirically compare our two-stage approaches with their main competitors. The results show that our methodologies are very promising, since they reduce the estimation bias compared to other two-stage methods and require less processing time than joint specification approaches.
- ItemOn accumulation points of volumes of stable surfaces with one cyclic quotient singularity(2021) Torres Valencia, Diana Carolina; Urzúa Elia, Giancarlo A.; Pontificia Universidad Católica de Chile. Facultad de MatemáticasThe set of volumes of stable surfaces does have accumulation points. In this paper, we study this phenomenon for surfaces with one cyclic quotient singularity, towards answering the question under which conditions we can still have boundedness. Effective bounds allow listing singularities that might appear on a stable surface after fixing its invariants. We find optimal inequalities for stable surfaces with one cyclic quotient singularity, which can be used to prove boundedness under certain conditions. We also introduce the notion of generalized T-singularity, which is a natural generalization of the well-known T-singularities. By using our inequalities, we show how the accumulation points of volumes of stable surfaces with one generalized T-singularity are formed.
- ItemOn computing the rank of hyperelliptic curves over Q(T) defined by linear and quadratic polynomials in the T-variable(2024) Seguel Carreño, Tomás Antonio; García Fritz, Natalia Cristina; Pontificia Universidad Católica de Chile. Facultad de Matemáticas
- ItemOn the geography of 3-folds via asymptotic behavior of invariants(2023) Torres Nova, Yerko Alejandro; Urzúa Elia, Giancarlo A.; Pontificia Universidad Católica de Chile. Facultad de MatemáticasRoughly speaking, the problem of geography asks for the existence of varieties of general type after we fix some invariants. In dimension 1, where we fix the genus, the geography question is trivial, but already in dimension 2 it becomes a hard problem in general. In higher dimensions, this problem is essentially wide open. In this paper, we focus on geography in dimension 3. We generalize the techniques which compare the geography of surfaces with the geography of arrangements of curves via asymptotic constructions. In dimension 2 this involves resolutions of cyclic quotient singularities and a certain asymptotic behavior of the associated Dedekind sums and continued fractions. We discuss the general situation with emphasis in dimension 3, analyzing the singularities and various resolutions that show up, and proving results about the asymptotic behavior of the invariants we fix.