Skip to main content
Advances in Differentially Private Principal Component Analysis: Privacy-Utility Trade-Offs
With the rise of Machine Learning and the need for data privacy, it is crucial to implement effective privacy-preserving techniques like Differential Privacy. An algorithm is differentially private if its output remains nearly unchanged regardless of an individual's data inclusion, preventing inference about their participation. Differentially private Principal Component Analysis (DP-PCA) applies this to dimensionality reduction, ensuring privacy while preserving the dataset's dominant eigenstructure. This work explores advances in DP-PCA, analyzing anonymization mechanisms and their impact on data utility. We compare noise injection at different stages and establish tight bounds on privacy-utility metrics. Theoretical results are supported by simulations, illustrating trade-offs across differential privacy mechanisms. This research is supported by MITACS.
Progrès dans l'analyse en composantes principales différentiellement privées : compromis entre vie privée et utilité
Avec l'essor de l'apprentissage automatique et le besoin de confidentialité des données, il est crucial de mettre en œuvre des techniques efficaces de préservation de la vie privée telles que la confidentialité différentielle. Un algorithme est différentiellement privé si son résultat reste pratiquement inchangé, quelle que soit l'inclusion des données d'un individu, empêchant ainsi toute inférence sur sa participation. L'analyse en composantes principales différentiellement privées (ACP-DP) applique ce principe à la réduction de la dimensionnalité, garantissant la confidentialité tout en préservant la structure propre dominante de l'ensemble de données. Ce travail explore les progrès de l'ACP-DP, en analysant les mécanismes d'anonymisation et leur impact sur l'utilité des données. Nous comparons l'injection de bruit à différentes étapes et établissons des limites étroites pour les mesures de confidentialité et d'utilité. Les résultats théoriques sont étayés par des simulations, illustrant les compromis entre les différents mécanismes de protection de la vie privée. Cette recherche est soutenue par MITACS.
Date and Time
-
Additional Authors and Speakers (not including you)
Language of Oral Presentation
English
Language of Visual Aids
English

Speaker

Edit Name Primary Affiliation
Yizhen Teng University of Ottawa