Premier semestre

Statistique bayésienne

Objectifs

Expliquer le principe général de la démarche statistique bayésienne

Faire un choix pertinent de lois a priori

Formuler l’écriture probabiliste d’un modèle à variables latentes sous forme hiérarchique et donner sa représentation sous forme de graphe acyclique orienté

Calcul de lois a posteriori (uniquement pour SSV)

Mener l’inférence bayésienne de modèles classiques (e.g., régression linéaire, GLM) et de modèles à variables latentes (e.g., modèles mixtes) à l’aide des packages R « rjags » et « rstan »

Mener une étude de convergence d’un algorithme MCMC

Comparer différents modèles à l’aide de critères de sélection bayésiens

Valider un modèle – du point de vue prédictif – sous le paradigme bayésien

Plan

Formule de Bayes / Loi a priori / Loi a posteriori / Loi prédictive a posteriori / Incertitude épistémique

Estimateurs bayésiens / Intervalles de crédibilité

Lois a priori conjuguées / Lois a priori de Jeffreys

Modèles à variables latentes et représentation hiérarchique / Graphe acyclique orienté

Approximations déterministes de la loi a posteriori

Algorithmes MCMC (Principe, Gibbs/Metropolis-Hastings/Dynamiques Hamiltoniennes, diagnostics de convergence)

Validation prédictive bayésienne (posterior predictive check, cross validation)

Sélection bayésienne de modèles (Facteur de Bayes, Deviance Information Criterion, Widely Applicable Information Criterion)

Prérequis

Probabilité, statistique inférentielle, SAS, R (1A)​

​​Régression, GLM, Chaîne de Markov, Calcul bayésien (2A)​