Aller au contenu principal
Functional Attentive Interpretable Regression
We introduce the \textit{Functional Attentive Interpretable Regression} (FAIR) model, a novel machine learning framework designed for function-on-function regression problems. FAIR directly estimates the surface coefficient $\beta(s,t)$ by integrating a self-attention mechanism with a multilayer perceptron (MLP). This hybrid approach yields a sparse and continuous representation of $\beta(s,t)$, enabling both improved prediction accuracy and enhanced interpretability. We establish theoretical properties of the FAIR model, including consistency and its universal approximation capability for continuous surfaces. Based on simulation studies and real applications, the FAIR model offers a flexible, interpretable, and effective tool for functional data analysis.
Régression fonctionnelle attentive interprétable
Nous présentons le modèle FAIR (Functional Attentive Interpretable Regression), un nouveau cadre d'apprentissage automatique conçu pour les problèmes de régression fonctionnelle. FAIR estime directement le coefficient de surface $\beta(s,t)$ en intégrant un mécanisme d'auto-attention à une perceptron multicouche (PMC). Cette approche hybride produit une représentation clairsemée et continue de $\beta(s,t)$, ce qui permet à la fois d'améliorer la précision des prédictions et d'accroître l'interprétabilité. Nous établissons les propriétés théoriques du modèle FAIR, notamment sa cohérence et sa capacité d'approximation universelle pour les surfaces continues. Sur la base d'études en simulation et d'applications réelles, le modèle FAIR offre un outil flexible, interprétable et efficace pour l'analyse des données fonctionnelles.
Date and Time
-
Co-auteurs (non y compris vous-même)
Jiguo Cao
Simon Fraser University
Tianyu Guan
York University
Langue de la présentation orale
Anglais
Langue des supports visuels
Anglais

Speaker

Edit Name Primary Affiliation
Haixu Wang University of Calgary