Amélioration de la robustesse des fonctions élicitables à l’aide de la divergence de Kullback-Leibler pour quantifier les erreurs de spécification

Les fonctions élicitables et les fonctions de score strictement cohérentes sont intéressantes, car elles permettent de réaliser des prévisions optimales uniques. Cependant, dans la pratique, il n'est pas toujours adéquat de présumer qu’une distribution est correctement spécifiée. C’est pourquoi nous intégrons une notion de robustesse statistique dans le contexte des fonctions élicitables. Plus précisément, nous proposons une version plus robuste des fonctions élicitables en utilisant la divergence de Kullback-Leibler pour quantifier les erreurs de spécification d’une distribution de référence. Nous démontrons que les fonctions élicitables robustes offrent des solutions uniques à la limite de la zone d’incertitude. Pour déterminer les fonctions de notation, nous proposons une classe de fonctions de notation b-homogènes parfaitement cohérentes, pour lesquelles les fonctions élicitables robustes conservent des propriétés statistiques souhaitables. Nous explorons le comportement des fonctions élicitables robustes de manière numérique, en démontrant les effets de l’ensemble d’incertitude et du choix de la fonction de notation à l’aide de diagrammes de Murphy. Ces travaux sont menés en collaboration avec Silvana M. Pesenti.

Date and Time: 

Mardi, 4 juin, 2024 - 13:30 - 13:45

Additional Authors and Speakers: 

Silvana Pesenti
University of Toronto

Langue de la présentation: 

English / Anglais

Langue des supports visuels: 

English / Anglais

Type de présentation: 

Présentation orale

Session: 

Orateur

Prénom Second prénom Nom de famille Affiliation primaire
Kathleen E. Miao University of Toronto