Aller au contenu principal
La régularisation est souvent utilisée pour la sélection de variables dans des modèles linéaires. La régression à double parcimonie intégrant une structure graphique parmi les variables explicatives (DSRIG) exploite la structure sous-jacente associée au graphe des variables explicatives. Pour ce faire, elle décompose le vecteur de coefficients estimé en une somme de variables latentes, qui correspond à la somme de la contribution de chaque nœud à ce vecteur, puis elle régularise les variables latentes au lieu de régulariser directement le vecteur de coefficients. Nous proposons une nouvelle méthode de projection proximale pour remplacer la duplication des variables explicatives utilisée dans DSRIG, puis nous paramétrons de nouveau la fonction de pénalité pour permettre à l’utilisateur de faire un choix éclairé entre les pénalités L1 et L2. Ensuite, nous évaluons, à l’aide de simulation, les résultats de notre approche par rapport à la duplication de variables explicatives, parmi d’autres méthodes, et nous présentons les résultats obtenus par rapport aux résultats avec des données réelles. Les résultats préliminaires suggèrent que notre méthode est stable par rapport à la DSRIG utilisant la duplication de variables explicatives et d’autres modèles de régression à parcimonie unique.
Additional Authors and Speakers (not including you)
Ayesha Ali
University of Guelph
Date and Time
-
Language of Oral Presentation
English / Anglais
Language of Visual Aids
English / Anglais

Speaker

Edit Name Primary Affiliation
Jia Wei He