Amélioration de la robustesse des fonctions élicitables à l’aide de la divergence de Kullback-Leibler pour quantifier les erreurs de spécification
Les fonctions élicitables et les fonctions de score strictement cohérentes sont intéressantes, car elles permettent de réaliser des prévisions optimales uniques. Cependant, dans la pratique, il n'est pas toujours adéquat de présumer qu’une distribution est correctement spécifiée. C’est pourquoi nous intégrons une notion de robustesse statistique dans le contexte des fonctions élicitables. Plus précisément, nous proposons une version plus robuste des fonctions élicitables en utilisant la divergence de Kullback-Leibler pour quantifier les erreurs de spécification d’une distribution de référence. Nous démontrons que les fonctions élicitables robustes offrent des solutions uniques à la limite de la zone d’incertitude. Pour déterminer les fonctions de notation, nous proposons une classe de fonctions de notation b-homogènes parfaitement cohérentes, pour lesquelles les fonctions élicitables robustes conservent des propriétés statistiques souhaitables. Nous explorons le comportement des fonctions élicitables robustes de manière numérique, en démontrant les effets de l’ensemble d’incertitude et du choix de la fonction de notation à l’aide de diagrammes de Murphy. Ces travaux sont menés en collaboration avec Silvana M. Pesenti.
Date and Time:
Mardi, 4 juin, 2024 - 13:30 - 13:45
Langue de la présentation:
English / Anglais
Langue des supports visuels:
English / Anglais
Type de présentation:
Présentation orale