Functional Attentive Interpretable Regression
We introduce the \textit{Functional Attentive Interpretable Regression} (FAIR) model, a novel machine learning framework designed for function-on-function regression problems. FAIR directly estimates the surface coefficient $\beta(s,t)$ by integrating a self-attention mechanism with a multilayer perceptron (MLP). This hybrid approach yields a sparse and continuous representation of $\beta(s,t)$, enabling both improved prediction accuracy and enhanced interpretability. We establish theoretical properties of the FAIR model, including consistency and its universal approximation capability for continuous surfaces. Based on simulation studies and real applications, the FAIR model offers a flexible, interpretable, and effective tool for functional data analysis.
Régression fonctionnelle attentive interprétable
Nous présentons le modèle FAIR (Functional Attentive Interpretable Regression), un nouveau cadre d'apprentissage automatique conçu pour les problèmes de régression fonctionnelle. FAIR estime directement le coefficient de surface $\beta(s,t)$ en intégrant un mécanisme d'auto-attention à une perceptron multicouche (PMC). Cette approche hybride produit une représentation clairsemée et continue de $\beta(s,t)$, ce qui permet à la fois d'améliorer la précision des prédictions et d'accroître l'interprétabilité. Nous établissons les propriétés théoriques du modèle FAIR, notamment sa cohérence et sa capacité d'approximation universelle pour les surfaces continues. Sur la base d'études en simulation et d'applications réelles, le modèle FAIR offre un outil flexible, interprétable et efficace pour l'analyse des données fonctionnelles.
Date and Time
-
Language of Oral Presentation
English
Language of Visual Aids
English