écart-type non-biaisé & coefficient de Student

a marqué ce sujet comme résolu.

Bonjour, je ne suis pas probabiliste, ni statisticien mais certaines notions me sont utiles pour déterminer l’incertitude relative à une mesure.

Je suis ce cours.

Dans celui-ci, il est écrit que la meilleure estimation de sigma est $s\equiv\sqrt{\frac{(x_1-m)^2+(x_2-m)^2+\cdots+(x_n-m)^2}{n-1}}\simeq \sigma$, mais je ne comprend pas le dénominateur $n-1$. Si j’effectue deux mesures et que je divise la somme des deux écarts quadratiques par 1 alors je ne fais pas une moyenne?

Ensuite, il est écrit que pour un nombre d’expériences répétées petit (i.e. $\leq 10$), il faut multiplier par le coefficient de Student pour obtenir la meilleur estimation de sigma. Sans forcément entrer à fond dans les détails probabilistes, pourquoi introduire un coefficient?

Merci bien! :-)

+0 -0

Moi je ne crois qu’en le calcul. :ange:

Les $x_i$ sont modélisées des variables aléatoires indépendantes suivant toutes la loi de $X$.

$$\begin{align} E\left[\sum_{i=1}^n \left(x_i-\frac{1}{n}\sum_{j=1}^n x_j\right)^2\right] &=\frac{1}{n^2}\sum_{i=1}^n E\left[\left(\sum_{j=1}^n(x_i-x_j)\right)^2\right]\\ &=\frac{1}{n^2}\sum_{i=1}^n \sum_{j=1}^n \sum_{k=1}^n E\left[(x_i-x_j)(x_i-x_k)\right]\\ &=\frac{1}{n^2}\sum_{i=1}^n \sum_{j=1}^n \sum_{k=1}^n E\left[x_i^2-x_i x_j -x_i x_k+x_j x_k\right]\\ \end{align}$$

Hop hop hop on traite les 4 sommes séparément (enfin, les trois dernières sont les mêmes à un changement de variable près, donc ça divise bien le travail) :

$$\begin{align} E\left[\sum_{i=1}^n \left(x_i-\frac{1}{n}\sum_{j=1}^n x_j\right)^2\right]&=\frac{1}{n^2}\left(n^3E[X^2]-n^2 E[X^2]-n^2(n-1)E[X]^2\right)\\ &=(n-1)(E[X^2]-E[X]^2]=(n-1)V[X] \end{align}$$

Et l’apparition du facteur $n-1$. On notera bien que c’est parce qu’on utilise une estimation de la l’espérance et pas l’espérance elle-même qu’on a cette particularité (donc bon l’astuce mnémotechnique sur la page que t’as citée est pas géniale).

Autre manière de voir l’utilité: calculer le biais des deux estimateurs (celui avec $n-1$ et celui sans). On se rend compte que le premier n’est pas biaisé contrairement au second. C’est surtout cela qui justifie en pratique la préférence pour la version corrigée.

EDIT: C’est le calcul qu’a fait Lucas-84, il suffit de l’utiliser pour expliciter le bias.

+0 -0

Par loi de $X$ tu entend la loi de Khi à $k$ degré de liberté?

Ozmox

Euh non, les $x_i$ suivent n’importe quelle loi (tant qu’ils suivent tous la même), $X$ c’était juste une notation générique pour une variable de même loi que $x_1$ (et donc que $x_2$, etc.). Si tu veux tu peux remplacer toutes les occurrences de $X$ par $x_1$.

Connectez-vous pour pouvoir poster un message.
Connexion

Pas encore membre ?

Créez un compte en une minute pour profiter pleinement de toutes les fonctionnalités de Zeste de Savoir. Ici, tout est gratuit et sans publicité.
Créer un compte