Aller au contenu principal
Les techniques renforcées et les réseaux de neurones sont des méthodes d'apprentissage automatique particulièrement efficaces pour la tarification des assurances. Souvent, dans la pratique, il y a néanmoins des débats sans fin sur le choix de la bonne fonction de perte à utiliser pour former le modèle d'apprentissage automatique, ainsi que sur la mesure appropriée pour évaluer les performances de modèles concurrents. En outre, la somme des valeurs ajustées peut s'écarter dans une large mesure des totaux observés, ce qui déconcerte souvent les analystes actuariels. Le manque d'équilibre inhérent aux modèles d'apprentissage, en minimisant la déviance en dehors du GLM familier avec l'établissement de liens canoniques, a été empiriquement documenté dans Wuthrich (2019, 2020) qui l'attribue à la règle d'arrêt précoce dans les méthodes du gradient pour l'ajustement des modèles. Cette présentation vise à approfondir l'étude de ce phénomène lorsque l'apprentissage se poursuit en minimisant la déviance de Tweedie. Il est montré que la minimisation de la déviance implique un compromis entre l'intégrale des différences pondérées des moments partiels inférieurs et le biais mesuré sur une échelle spécifique. L'autocalibrage est alors proposé comme remède. Cette nouvelle méthode de correction du biais ajoute une étape supplémentaire de GLM locale à l'analyse.
Additional Authors and Speakers (not including you)
Michel Denuit
Université de Louvain
Julien Trufin
Université Libre de Bruxelles
Date and Time
-
Language of Oral Presentation
Bilingual / Bilingue
Language of Visual Aids
Bilingual / Bilingue

Speaker

Edit Name Primary Affiliation
Arthur Charpentier Université du Québec à Montréal