Bonjour,
Je travaille avec des modèles stochastiques simulés (agent-based models, ABM) et je cherche à déterminer le nombre d’exécutions à faire (sample size).
Avec un test de Student, je peux calculer un intervalle de confiance autour de la moyenne :
(cf. section 4 de ce papier)
Comme un ABM produit des séries temporelles, je calcule $\delta_n$ pour chaque pas de temps et considère le plus grand. Ca ne fonctionne évidemment pas puisque l’échelle varie selon le pas de temps (une marge d’erreur de 100 euros est acceptable si le prix moyen est de 1 million, ça l’est moins pour un prix moyen de 1000 euros).
Je souhaite donc définir un critère standardisé. Par exemple, la marge d’erreur relative :
Mais si la moyenne empirique est très faible (voire nulle), je vais peiner à converger. Auriez-vous des conseils pour définir de manière automatique un critère de convergence ?
Merci !