Scalable Gaussian Process Inference via Deep Generative Models: A New Framework for High-Cadence Time Series
Gaussian Processes represent the gold standard for Bayesian time-series modeling, yet their cubic computational complexity remains a barrier for high-cadence datasets. This bottleneck is particularly restrictive when these processes are integrated as latent components within complex likelihood functions, such as Hidden Markov Models, where iterative inference is computationally prohibitive. We introduce a Generative Surrogate framework to overcome these limitations. By utilizing a Variational Autoencoder to learn a compressed representation of a Gaussian Process prior, we map high-dimensional stochastic dependencies into a low-dimensional manifold. This transition effectively reduces inference complexity from cubic to linear. Our approach allows for the seamless integration of non-parametric priors into hybrid architectures without added cost complexity. We demonstrate this on astrophysical light curves, enabling rigorous, large-scale characterization across massive data archives.
Inférence de processus gaussiens évolutifs via modèles génératifs profonds : un nouveau cadre pour les séries chronologiques à cadence élevée
Les processus gaussiens constituent la référence en matière de modélisation bayésienne des séries chronologiques, mais leur complexité computationnelle cubique reste un obstacle pour les ensembles de données à cadence élevée. Ce goulot d'étranglement est particulièrement contraignant lorsque les processus sont intégrés en tant que composants latents dans des fonctions de vraisemblance complexes, telles que les modèles de Markov cachés, où l'inférence itérative est prohibitive sur le plan computationnel. Nous présentons un cadre génératif de substitution pour surmonter ces limites. En utilisant un auto-encodeur variationnel pour apprendre une représentation compressée d'un processus gaussien préalable, nous mappons les dépendances stochastiques à haute dimension sur une variété à faible dimension. Cette transition réduit efficacement la complexité de l'inférence de cubique à linéaire. Notre approche permet l'intégration transparente de préalables non paramétriques dans des architectures hybrides sans complexité de coût supplémentaire. Nous le démontrons sur des courbes de lumière astrophysiques, la caractérisation rigoureuse et à grande échelle pouvant s'appliquer à des archives de données massives.
Date and Time
-
Language of Oral Presentation
English
Language of Visual Aids
English