Multi-graph graph neural network for preference data
Predicting user preferences accurately requires leveraging complex data from multiple sources, such as user-item interactions, social networks, and item similarities. While Graph Neural Networks excel at learning from graph data, existing models often struggle to fully integrate and differentiate the influence of diverse networks, limiting accuracy. To address this, we propose a Multi-Graph Graph Attention Network (MG-GAT) for preference learning. MG-GAT uses a two-level attention mechanism: intra-network attention identifies important neighbors within each graph, and inter-network attention dynamically weighs each graph’s contribution to the final representation. This hierarchical approach results in more expressive embeddings of users and items and helps mitigate cold-start issues. Extensive real-world experiments show MG-GAT significantly outperforms state-of-the-art baselines, validating its effectiveness in multi-graph integration and attention modeling.
Réseau neuronal multigraphes pour les données de préférence
Pour prédire avec précision les préférences des utilisateurs, il faut exploiter des données complexes provenant de multiples sources, telles que les interactions entre les utilisateurs et les articles, les réseaux sociaux et les similitudes entre les articles. Si les réseaux neuronaux graphiques excellent dans l'apprentissage à partir de données graphiques, les modèles existants ont souvent du mal à intégrer et à différencier pleinement l'influence de divers réseaux, ce qui limite leur précision. Pour remédier à cela, nous proposons un réseau d'attention multigraphes (MG-GAT) pour l'apprentissage des préférences. Le MG-GAT utilise un mécanisme d'attention à deux niveaux : l'attention intraréseau identifie les voisins importants au sein de chaque graphe, et l'attention interréseau évalue de manière dynamique la contribution de chaque graphe à la représentation finale. Cette approche hiérarchique permet d'obtenir des intégrations plus expressives des utilisateurs et des éléments et contribue à atténuer les problèmes de démarrage à froid. Des expériences approfondies en conditions réelles montrent que le MG-GAT surpasse largement les références de pointe, confirmant ainsi son efficacité pour l'intégration de multigraphes et la modélisation de l'attention.
Date and Time
-
Language of Oral Presentation
English
Language of Visual Aids
English