Articles à venir dans La revue canadienne de statistique : Numéro 3, 2017

CJS / RCS

Dans son troisième numéro de 2017, La revue canadienne de statistique présente six articles portant sur les modèles de mélange, l’analyse bayésienne, les plans d’expérience adaptatifs, les tests de rangs et la vraisemblance empirique.

Le numéro débute par un article de synthèse portant sur les mélanges de processus de Dirichlet (MPD). Les modèles MPD sont de plus en plus utilisés pour définir des modèles de partitions aléatoires qui tiennent compte de possibles structures dans les covariables. BARCELLA, DE IORIO et BAIO passent en revue les modèles MPD les plus pertinents parmi ceux qui tiennent compte des covariables dans la partition sous-jacente des observations et ils discutent des méthodes de sélection de variables pour ces modèles.

Le deuxième article porte sur l’analyse de données provenant de sources multiples. Quand de telles données sont disponibles, il est intéressant de développer des façons efficaces de combiner l’information statistique des différentes sources. Les modèles de rapports de densité sont couramment utilisés à cette fin. Cependant, il semble que le modèle semi-paramétrique de densité, très utile pour ce type de données, n’ait pas encore été étudié au moyen de l’approche bayésienne. Tout comme l’approche fréquentiste, le paradigme bayésien permet d’intégrer de l’information de différentes sources de données, mais il permet également de fusionner ces renseignements avec de l’information a priori subjective ou contextuelle de l’analyste. DE OLIVEIRA et KEDEM proposent une approche bayésienne pour l’analyse d’un modèle semi-paramétrique de densité. L’analyse bayésienne proposée utilise une vraisemblance non paramétrique et une loi a priori gaussienne pour la partie non paramétrique du modèle.

Dans le troisième article, SUSKO étudie les difficultés liées au choix du modèle dans un cadre bayésien. Grâce à la progression rapide de la capacité de calcul et aux méthodes de simulation qui permettent d’obtenir des échantillons suivant la loi a posteriori, les méthodes bayésiennes sont utilisées de plus en plus fréquemment pour résoudre des problèmes complexes. La sélection de modèle est un problème fondamental et le facteur de Bayes offre une approche naturelle pour le résoudre. À l’aide d’une approximation de Laplace et d’exemples éloquents, l’auteur démontre que le facteur de Bayes peut comporter de forts biais envers certains modèles, même lorsque ceux-ci ne sont pas imbriqués et comportent le même nombre de paramètres. L’auteur montre que plusieurs correctifs faciles à mettre en place offrent une solution efficace aux problèmes du facteur de Bayes par défaut.

Les plans d’expérience adaptatifs s’avèrent importants pour régler des problèmes éthiques soulevés par les études cliniques basées sur une allocation égale des traitements. SELVARATNAM, OYET, YI et GADAG discutent de la mise en œuvre de plans adaptatifs dans le cadre d’études cliniques multicentres. Ils développent un modèle linéaire mixte généralisé pour analyser les données de telles études et utilisent le maximum de vraisemblance pour en estimer les paramètres. Ils adoptent la technique des fonctions d’influence pour déterminer les propriétés asymptotiques de leurs estimateurs.

L’article suivant explore une procédure de test pertinente pour l’échantillonnage d’ensembles ordonnés qui peut s’effectuer à partir d’un classement parfait ou imparfait. Les procédures statistiques qui supposent un classement parfait ont tendance à être plus efficaces que celles qui ne font pas cette hypothèse lorsque le classement est effectivement parfait, mais elles se comportent mal en cas d’imperfections. Plusieurs procédures ont été développées afin de tester l’hypothèse nulle d’un classement parfait, mais elles ne sont valides que pour des données continues. FREY et ZHANG développent des tests de classement parfait pour des données binaires. Ils présentent un test basé sur le rééchantillonnage qui contrôle l’erreur de type I même pour des échantillons de petite taille.

Le dernier article examine le problème de sous-couverture associé aux zones de confiance issues de la vraisemblance empirique. Plusieurs méthodes sont proposées dans la littérature pour régler ce problème, mais elles nécessitent toutes des calculs additionnels ou une étude théorique approfondie. JING, TSAO et ZHOU présentent une transformation simple de la vraisemblance empirique qui corrige la sous-couverture. Les zones de confiance qui en résultent sont relativement justes, même pour des échantillons de petite taille et pour des données multivariées. Les auteurs démontrent leur pertinence à l’aide de critères basés sur la précision, la convergence et la préservation de l’attrait géométrique de la vraisemblance empirique originale.

 

Bonne lecture!

Grace Y. Yi

Rédactrice en chef de la RCS

Samedi, 9 septembre, 2017

Liaison Newsletter: