Aller au contenu principal
Tabular Data Generation: A Bayesian Nonparametric Mechanism for Differentially Private Generative Modeling
Ensuring differential privacy in generative modeling remains challenging, as protecting individual information often reduces data utility. A Bayesian nonparametric framework is proposed that embeds privacy directly into the generative process using the Dirichlet process (DiP). Privacy is enforced at two levels. Globally, a finite-series approximation of the DiP posterior induces a Dirichlet mechanism that injects structured uncertainty into distributional weights, yielding formal (ε,δ)-differential privacy guarantees. Locally, a copula-based base measure perturbs continuous and categorical marginals under calibrated privacy budgets while preserving feature dependence. This global–local design enforces privacy at distributional and feature levels. The BNP structure further regularizes the model, reduces overfitting, and stabilizes high-dimensional training, providing a scalable and principled approach to private generative modeling.
Génération de données tabulaires : un mécanisme bayésien non paramétrique pour la modélisation générative à confidentialité différentielle
Garantir la confidentialité différentielle dans la modélisation générative reste un défi, car la protection des renseignements individuels réduit souvent l'utilité des données. Nous proposons un cadre bayésien non paramétrique qui intègre directement la confidentialité dans le processus génératif à l'aide du processus de Dirichlet (DiP). La confidentialité est appliquée à deux niveaux. À l'échelle globale, une approximation en série finie du postérieur du DiP induit un mécanisme de Dirichlet qui injecte une incertitude structurée dans les poids de distribution, et cela donne des garanties formelles de confidentialité différentielle (ε,δ). À l'échelle locale, une mesure de base fondée sur une copule perturbe les marginales continues et catégorielles dans le cadre de budgets de confidentialité calibrés tout en préservant la dépendance des caractéristiques. Cette conception globale-locale renforce la confidentialité au niveau de la distribution et des caractéristiques. La structure BNP régularise davantage le modèle, réduit le surajustement et stabilise l'apprentissage à haute dimension, offrant ainsi une approche extensible et fondée sur des principes pour la modélisation générative privée.
Date and Time
-
Co-auteurs (non y compris vous-même)
Bei Jiang
University of Alberta
Linglong Kong
University of Alberta
Langue de la présentation orale
Anglais
Langue des supports visuels
Anglais

Speaker

Edit Name Primary Affiliation
Forough Fazeliasl University of Alberta