Programme

VEUILLEZ NOTER QUE TOUTES LES HEURES DE CE PROGRAMME SONT DONNÉES À L'HEURE AVANCÉE DE TERRE-NEUVE.

  Du dimanche, 2 juin, 2024 - mercredi, 5 juin, 2024  
Séances scientifiques : D L M M Tout
Ateliers : D L M M Tout
Événements sociaux : D L M M Tout
Programme complet : D L M M Tout

Sélectionnez un jour ci-dessus pour voir les sessions de ce jour. Une fois que vous avez sélectionné un jour, vous pouvez rechercher des présentations dans la journée ci-dessous.

Rechercher des sessions, des résumés et des réunions
Rechercher orateur et institution
Par ex., 2024-07-03
Par ex., 2024-07-03
Dimanche 2 juin
09:00 - 16:00

Atelier du Groupe de science actuarielle

Room: A 1045
  • Explorer les synergies entre les outils de gestion de la longévité et des risques financiers à la retraite

    Cet atelier se penche sur l’intersection cruciale de la gestion de la longévité et des risques financiers à la retraite. Alors que les individus cherchent de plus en plus à assurer leur avenir financier à une époque où l’espérance de vie s’allonge, cet atelier offre une occasion unique d’explorer les stratégies dynamiques et les outils permettant une planification complète de la retraite. Les sujets abordés incluent le risque de longévité, les tontines et les annuités variables. Nous aborderons également l’utilisation de l’apprentissage automatique et les techniques d’analyse de données dans ces domaines.

Atelier du GSIG

Room: A 1046
  • Introduction à l’analyse sportive

    Bien que Moneyball ait attiré l’attention du grand public sur l’analyse du sport, c’est l’introduction des données de suivi qui a changé la donne pour les chercheurs. Avec les données de suivi, nous disposons de mégadonnées où l’emplacement du ballon et de chaque joueur est enregistré à haute fréquence (par exemple, 10 à 25 fois par seconde). Ces données permettent d’évaluer les activités en dehors du ballon, ce qui n’est pas possible sur la seule base des données de score et événementielles. L’aspect spatio-temporel des données de suivi a été exploité dans des sports majeurs tels que le soccer, le basket-ball et le hockey.

    Dans cet atelier, les participants apporteront leur propre ordinateur et recevront un exemple de jeu de suivi de données de soccer. Ils apprendront à gérer les données et à effectuer quelques calculs de base. Nous espérons qu’ils prendront conscience des possibilités offertes par cette nouvelle source de données.

Atelier sur le Programme d'Accréditation

Room: A 1049
  • Le statisticien en tant que témoin expert : Les données et le système juridique

    Résumé de l’atelier : Les témoins experts jouent un rôle essentiel dans le système juridique. Les experts sont des personnes possédant des compétences spécialisées dont l’opinion peut aider un juge ou un jury à comprendre les preuves factuelles dans une affaire. Les témoignages des experts peuvent exercer une influence considérable sur la décision finale du juge. Les statisticiens jouent un rôle naturel en tant que témoins experts, pouvant à la fois mener et présenter des analyses de données, interpréter et émettre des avis sur les données et les études, et émettre des avis sur les méthodes statistiques utilisées par d’autres experts. Je décrirai le rôle de l’expert dans le système judiciaire et discuterai d’exemples spécifiques et d’études de cas où les statisticiens ont contribué au processus juridique. Pendant des séances de travail, nous jouerons le rôle d’experts et examinerons les rapports des statisticiens dans des affaires très médiatisées.

Atelier du Groupe d'éducation en statistique

Room: A 2071
  • Enseigner l’inférence causale : atelier pour les éducateurs

    L’inférence causale, à l’interface de la statistique, de la conception des études et de l’épistémologie, est la science de l’apprentissage d’effets à partir de données et de connaissances de base. D’une importance fondamentale dans de nombreux domaines, notamment en épidémiologie, économie, science politique, psychologie, science clinique, ingénierie et sciences sociales, l’enseignement de la théorie de l’inférence causale et des méthodes statistiques suscite un intérêt croissant dans de nombreuses unités universitaires.

    Contrairement à la statistique plus traditionnelle, l’inférence causale se fonde principalement sur des hypothèses non statistiques afin d’effectuer des déductions. Des systèmes entiers de notation et de conventions graphiques ont été développés pour produire le cadre dans lequel l’analyse statistique peut être planifiée. En outre, une vaste littérature de méthodes statistiques (dites « causales ») a été développée pour traiter les éléments purement quantitatifs de l’inférence causale. Par conséquent, relayer les idées de base de l’inférence causale en termes simples peut sembler ardu.

    Dans cet atelier, nous présenterons et expliquerons les éléments de l’inférence causale que nous enseignons et que nous avons trouvés les plus pertinents pour un cours avancé de premier ou de deuxième cycle, ainsi que les exercices qui les accompagnent. Nous nous attacherons à expliquer comment ces éléments sont interconnectés et à donner une vue d’ensemble de la manière dont la causalité peut être abordée dans la planification et l’analyse d’une étude. Ces éléments sont les suivants :

    •    Théorie, notation et paramètres contrefactuels
    •    Identifiabilité des paramètres causaux/contrefactuels par le biais d’estimandes statistiques
    •    Graphes acycliques dirigés et leur rôle dans l’identifiabilité
    •    Interface entre la conception de l’étude (par exemple, essais contrôlés randomisés, études pseudo-expérimentales, études d’observation, émulation d’essais ciblés) et l’identifiabilité des paramètres
    •    Feuille de route de l’apprentissage ciblé
    •    Estimation statistique des paramètres contrefactuels, y compris des modèles structurels marginaux (régression, pondération de la probabilité inverse de traitement, calcul G)
    •    Cadres semi-paramétriques (y compris estimation ciblée du maximum de vraisemblance) et intégration de l’apprentissage automatique
    •    Identifiabilité alternative par des méthodes de variables instrumentales
    •    Aperçu de sujets plus avancés tels que l’analyse de la médiation et les traitements longitudinaux.

    Nous discuterons également de la manière de cibler votre matériel de cours en fonction de votre public et de certaines approches en matière d’évaluation.

    Conditions préalables à l’atelier : Intérêt pour l’inférence causale, compréhension de la théorie et des méthodes statistiques de base, régression linéaire généralisée.
     

Atelier du Groupe de probabilité

Room: A 3017
  • Introduction à la modélisation des maladies infectieuses

    Un aperçu de la Modélisation des Maladies Infectieuses par Iain Moyles (Département de Mathématiques et Statistiques, Université York), Bouchra Nasri (École de Santé Publique, Université de Montréal) et Idriss Sekkak (École de Santé Publique, Université de Montréal).

    Ce cours intensif de 6 heures est conçu pour offrir une introduction complète à la modélisation des maladies infectieuses. Nous commencerons par une exploration des principes fondamentaux de la modélisation mathématique et leur application à l'étude des épidémies. Le cours se poursuivra avec une analyse des différentes structures de modèles, y compris les modèles compartimentaux et stochastiques, pour démontrer comment la modélisation peut enrichir notre compréhension de la dynamique des maladies. L'accent sera ensuite mis sur la sélection et l'application de modèles en tant qu'outils prédictifs et pour approfondir notre compréhension des processus épidémiologiques sous-jacents. Ce cours propose une approche progressive de la modélisation des maladies infectieuses, des notions de base à la sélection judicieuse de modèles.

    Contenu du cours :

    Partie 1 : Introduction : Philosophie de la modélisation, éléments fondamentaux de l'infection et de la transmission, définitions, types et caractéristiques des maladies infectieuses, introduction aux modèles épidémiologiques, et aperçu des équations différentielles et de leur importance dans la modélisation.

    Partie 2 : Modèles Compartimentaux : Exploration des modèles épidémiologiques basés sur les compartiments, y compris le modèle SIR (Susceptible-Infecté-Récupéré) de base, le calcul de R0, l'analyse des points d'équilibre et de la taille finale de l'épidémie, et l'examen des stratégies hôtes et des hétérogénéités (par âge, par risque, etc.), avec une transition vers les équations aux dérivées partielles (EDP).

    Partie 3 : Modèles Stochastiques : Introduction aux modèles épidémiologiques stochastiques, motivation et concepts clés des modèles compartimentaux stochastiques, analyse mathématique et approximations numériques.

    Partie 4 : Détermination du Modèle : Critères de sélection d'un modèle approprié pour une maladie spécifique, exploration des différents types de modèles compartimentaux, modélisation de l'immunité et du temps d'incubation, et choix de la structure du modèle.

    Le cours combine des présentations théoriques à des exercices pratiques basés sur des études de cas en épidémiologie des maladies infectieuses. Des codes R pour les modèles de base et leurs modifications structurelles seront fournis aux participants.

Atelier du Groupe des méthodes d’enquête

Room: HH 3017
  • Confidentialité des données statistiques

    Dans cet atelier, nous découvrirons la science de la collecte, de l’analyse et du partage de données confidentielles sans divulguer de renseignements personnels. Nous commencerons par un aperçu des objectifs et approches de ce vaste domaine d’étude, en établissant des liens avec les travaux de la communauté des informaticiens, souvent publiés sous une terminologie différente. Nous exploreronss ensuite une approche spécifique connue sous le nom de protection différentielle de la vie privée, qui fait l’objet de nombreuses recherches et est utilisée en pratique par certains organismes statistiques et entreprises privées. Nous expliquerons l’origine de cette mesure de confidentialité formelle, examinerons en détail sa définition mathématique et sa signification, puis montrerons comment la mettre en œuvre pour des tâches simples. Le reste de l’atelier se concentrera sur l’utilisation d’ensembles de données synthétiques à des fins de protection de la vie privée, en examinant comment générer de tels jeux de données et évaluer leur qualité en termes de risque et d’utilité. Nous illustrerons le contenu par du code R et réserverons une partie du temps pour laisser les participants expérimenter les méthodes sur des ensembles de données réels.

    Aperçu :

    1. Confidentialité des données statistiques
    2. Protection différentielle de la vie privée
    3. Création d’ensembles de données synthétiques
    4. Évaluation et utilisation d’ensembles de données synthétiques

     

Atelier du Groupe de science des données et analytiques

Room: A 2065
  • Comment créer et distribuer des paquets R

    Dans cet atelier, les participants apprendront ce qu’est un paquet R et quand ils devraient prendre le temps d’en créer un. À la fin de l’atelier, ils seront en mesure de créer leur propre paquet qui peut être facilement partagé et installé par d’autres. D’autres sujets importants tels que les tests de code, la documentation et les licences seront également abordés. Le plan de l’atelier est présenté ci-dessous :

    ● Qu’est-ce qu’un paquet R et quand dois-je en créer un ?
    ● Entraînement pratique à la construction d’un paquet R
    ● S’assurer que votre code fonctionne comme prévu - et introduction aux tests
    ● Documentation du paquet
    ● Introduction à l’intégration continue à l’aide des actions GitHub
    ● Partage et publication de paquets sur GitHub et CRAN
    ● Droits d’auteur et licences (qui est propriétaire du code ?)

09:00 - 16:30

Atelier biostatistique

Room: A 1043
  • Principes fondamentaux de l’inférence causale : avec R

    L’une des principales motivations des essais cliniques et des études d’observation chez l’homme est de déduire les causes et les effets. Il est extrêmement important de démêler la causalité des facteurs de confusion. « Principes fondamentaux de l’inférence causale : avec R » explique et met en relation différentes méthodes d’ajustement des facteurs de confusion en termes de résultats potentiels et de modèles graphiques, y compris la standardisation, l’estimation doublement robuste, l’estimation des différences dans les différences, l’estimation frontale (front door) et l’estimation des variables instrumentales. Ces méthodes sont comparées en termes d’estimation de l’effet moyen du traitement sur le traité (ATT). Les principes fondamentaux de l’analyse de la médiation et de l’ajustement pour les facteurs de confusion dépendants du temps sont également présentés. Plusieurs exemples de données réelles, des études de simulation et des analyses utilisant R motivent et illustrent les méthodes tout au long du cours. Le cours suppose une certaine familiarité avec la statistique et la probabilité de base, la régression et R. Le cours sera enseigné à l’aide d’un mélange de cours magistraux, d’exemples travaillés et d’exemples pratiques dans R.