Propagation des erreurs

a marqué ce sujet comme résolu.

Bonjour,

Dans mon cours, la formule de l’incertitude pour une mesure G = f(x, y), où x et y sont connues avec les incertitudes u(x) et u(y), est la suivante : u(G)=f/x×u(x)+f/y×u(y)u(G) = |\partial f/\partial x| \times u(x) + |\partial f/\partial y| \times u(y).

Or, cette formule suivante revient dans certains livres : u(G)=[(f/x)×u(x)]2+[(f/y)×u(y)]2u(G) = \sqrt {[(\partial f/\partial x) \times u(x)]^2 + [(\partial f/\partial y) \times u(y)]^2}.

On voit que l’expression ci-dessus est inférieure à l’expression f/x×u(x)+f/y×u(y)|\partial f/\partial x \times u(x) + \partial f/\partial y \times u(y)|, elle même inférieure à la formule de mon cours par l’inégalité triangulaire (et puisque l’incertitude est toujours positive).

La question pour savoir quelle formule utiliser : vaut-il mieux sur-estimer ou sous-estimer l’incertitude?

De mon expérience, on m’a toujours dit de sur-estimer une incertitude.

Dans la chimie analytique

Mais ce n’est visiblement pas la question qu’il faut se poser pour choisir l’équation qui corresponde à ton cas. Ecoute mon voisin du dessous :)

+0 -0

Si xx et yy sont indépendants, la bonne formule est la seconde.

Edit: Ce genre de formules se démontre, tu dois avoir la démonstration sur Wikipédia1 (fr ou en) ou dans ton bouquin. Si tu ne comprends pas d’où elles viennent, n’hésite pas à demander plus de précision :) .

@Blackline: Ta remarque est pertinente, mais il y a quand même un cadre formel pour propager les erreurs de mesures. Mais en effet, en cas de doute2, sur-estimer peut être pertinent.


  1. Je préfère te renvoyer à Wikipédia que d’écrire une démonstration qui sera quasiment la même.

  2. Typiquement, le caractère indépendant de deux grandeurs n’est pas forcément quantifiable expérimentatlement.

+2 -0

Eh bien je fais de la chimie et le la physique, donc je ne sais pas à quel cas quelle formule s’adapte.

J’ai une petit idée pour la démonstration :

en développant f à l’ordre 1 on a :

f(x+dx,y+dy)=f(x,y)+(f/x)dx+(f/y)dyf(x + dx, y + dy) = f(x, y) + (\partial f/\partial x) dx + (\partial f/\partial y) dy soit f(x+dx,y+dy)f(x,y)=df=(f/x)dx+(f/y)dyf(x + dx, y + dy) - f(x, y) = df = (\partial f/\partial x) dx + (\partial f/\partial y) dy.

Or puisque l’incertitude est positive on a u(machin)=dmachinu(machin) = |dmachin| d’où la première formule.

Pour la deuxième je ne vois pas. J’imagine qu’il y a une incertitude sur l’incertitude donc on peut minorer.

+0 -0

On va prendre la démonstration pas-à-pas.

On a une fonction de plusieurs variable, je la note f({xi}i)f(\{x_i\}_i). On mesure plusieurs grandeurs, chacune est une variable aléatoire {Xi}i\{X_i\}_i. Pour chaque variable on a alors sa moyenne <Xi><X_i> et son écart-type σXi2=<(Xi<Xi>)2>\sigma_{X_i}^2 = <(X_i-<X_i>)^2>.

On pose la variable aléatoire Y=f({Xi}i)Y = f(\{X_i\}_i) et on cherche sa moyenne <Y><Y> et son écart-type σY\sigma_Y.

Ce qu’on va faire, c’est linéariser ff autour du point {<Xi>}i\{<X_i>\}_i au second ordre: Y=f({Xi}i)f({<Xi>}i)+jxjf({<Xi>}i)×[Xj<Xj>]+12j,kxj,xk2f({<Xi>}i)×[Xj<Xj>][Xk<Xk>]\begin{aligned} Y = f(\{X_i\}_i) \approx f(\{<X_i>\}_i) &+ \sum_j \partial_{x_j}f(\{<X_i>\}_i)\times[X_j-<X_j>]\\ &+ \frac{1}{2}\sum_{j,k} \partial^2_{x_j,x_k}f(\{<X_i>\}_i)\times[X_j-<X_j>][X_k-<X_k>] \end{aligned}

Commençons par la moyenne: <Y>f({<Xi>}i)+12j,kxj,xk2f({<Xi>}i)×<[Xj<Xj>][Xk<Xk>]>σXj,Xk<Y> \approx f(\{<X_i>\}_i) + \frac{1}{2}\sum_{j,k} \partial^2_{x_j,x_k}f(\{<X_i>\}_i)\times\underset{\sigma_{X_j,X_k}}{\underbrace{<[X_j-<X_j>][X_k-<X_k>]>}}

Puis l’écart-type: σY2=<(Y<Y>)2><(jxjf({<Xi>}i)×[Xj<Xj>])2>j,kxjf({<Xi>}i)xkf({<Xi>}i)×σXj,Xk\begin{aligned} \sigma_Y^2 = <(Y - <Y>)^2> &\approx <(\sum_j \partial_{x_j}f(\{<X_i>\}_i)\times[X_j-<X_j>])^2>\\ &\approx \sum_{j,k} \partial_{x_j}f(\{<X_i>\}_i)\partial_{x_k}f(\{<X_i>\}_i)\times\sigma_{X_j,X_k} \end{aligned}

Si les variables sont indépendantes σXj,Xk=δjkσXj2\sigma_{X_j,X_k} = \delta_{jk}\sigma_{X_j}^2 et alors: <Y>f({<Xi>}i)+12jxj2f({<Xi>}i)×σXj2<Y> \approx f(\{<X_i>\}_i) + \frac{1}{2}\sum_j \partial^2_{x_j}f(\{<X_i>\}_i)\times\sigma_{X_j}^2 σY2j[xjf({<Xi>}i)]2×σXj2\sigma_Y^2 \approx \sum_j [\partial_{x_j}f(\{<X_i>\}_i)]^2\times\sigma_{X_j}^2 C’est ta seconde formule.

+0 -0

Alors, si tu peux préciser l’écriture d’une variable aléatoire, c’est une suite grosso-modo, non?

Dans ce cas lorsque tu écris f({xi}i)f(\{x_i\}_i) c’est une fonction d’une seule v.a, bizarre. Bref y’a un truc que je pige pas dans la notation.

Ensuite, je comprend pas trop ton développement au second ordre, pourquoi il y a du carré et du 1/2, et pourquoi une somme double?

Déjà, si tu peux expliquer un peu ça. ^^

(oui, en somme, je n’ai rien compris)

+0 -0

Alors, {Xi}\{X_i\} c’est la collection de tes variables aléatoires, par exemple dans ton cas de deux variables, {Xi}={X,Y}\{X_i\} = \{X,Y\}. J’aurais aussi pu écrire f(X0,X1,)f(X_0,X_1,\cdots) par exemple, le fond est le même.

Pour le développement, je prends une fonction ff d’une seule variable, son développement au second ordre autour de x0x_0 est: f(x)f(x0)+f(x0)×[xx0]+12f(x0)×[xx0]2f(x) \approx f(x_0) + f^{\prime}(x_0)\times[x-x_0] + \frac{1}{2}f^{\prime\prime}(x_0)\times[x-x_0]^2 Dans le cas d’une fonction à deux variables1 autour de x0,y0x_0,y_0: f(x,y)f(x0,y0)+fx(x0,y0)×[xx0]+fy(x0,y0)×[yy0]+122fx2(x0,y0)×[xx0]2+122fy2(x0,y0)×[yy0]2+2fxy(x0,y0)×[yy0]2\begin{aligned} f(x,y) \approx f(x_0,y_0) &+ \frac{\partial f}{\partial x}(x_0,y_0)\times[x-x_0] + \frac{\partial f}{\partial y}(x_0,y_0)\times[y-y_0] \\ &+ \frac{1}{2}\frac{\partial^2 f}{\partial x^2}(x_0,y_0)\times[x-x_0]^2 + \frac{1}{2}\frac{\partial^2 f}{\partial y^2}(x_0,y_0)\times[y-y_0]^2 + \frac{\partial^2 f}{\partial x\partial y}(x_0,y_0)\times[y-y_0]^2 \end{aligned} La forme que je te donne est la généralisation à NN variables, les {xi}i\{x_i\}_i

C’est un peu plus clair ? N’hésite pas si il reste des zones flou.


  1. Avec une régularité suffisent, au moins localement, pour appliquer le théorème de Schwarz.

+0 -0

Je te le fais le détail pour le cas à une variable, on a donc le développement de ff autour de la moyenne <X><X>: f(X)f(<X>)+f(<X>)×[X<X>]+12f(<X>)×[X<X>]2f(X) \approx f(<X>) + f^{\prime}(<X>)\times[X-<X>] + \frac{1}{2}f^{\prime\prime}(<X>)\times[X-<X>]^2 Je prends la moyenne: <f(X)>f(<X>)scalaire+f(<X>)scalaire×<[X<X>]>=<X><X>=0+12f(<X>)scalaire×<[X<X>]2>Par deˊfintion: σX2f(<X>)+12f(<X>)σX2\begin{aligned} <f(X)> &\approx \underset{\text{scalaire}}{\underbrace{f(<X>)}} + \underset{\text{scalaire}}{\underbrace{f^{\prime}(<X>)}}\times\underset{= <X>-<X> = 0}{\underbrace{<[X-<X>]>}} + \frac{1}{2}\underset{\text{scalaire}}{\underbrace{f^{\prime\prime}(<X>)}}\times \underset{\text{Par défintion: } \sigma_X^2}{\underbrace{<[X-<X>]^2>}} \\ &\approx f(<X>) + \frac{1}{2}f^{\prime\prime}(<X>)\sigma_X^2 \end{aligned} Le cas à NN variables est semblable. Il va faire apparaître des <[X<X>][Y<Y>]>=σX,Y<[X-<X>][Y-<Y>]>=\sigma_{X,Y} qui est la covariance entre les variables XX et YY. Si les variables sont indépendantes elle est nulle et on a aussi <XY>=<X><Y><XY>=<X><Y> — ce qui n’est pas le cas sinon.

+0 -0

xf\partial_x f c’est une autre notation de fx\frac{\partial f}{\partial x}.

δjk\delta_{jk} est le symbole de Kronecker ici. Il vaut 11 si les indices sont identiques j=kj=k, 00 sinon.

Edit (@modération): Il n’y a pas un problème d’affichage des fractions sur le site ? Ou c’est juste chez moi ? Je ne vois pas les barres des fractions (écrit avec \frac{a}{b}).

+0 -0
Connectez-vous pour pouvoir poster un message.
Connexion

Pas encore membre ?

Créez un compte en une minute pour profiter pleinement de toutes les fonctionnalités de Zeste de Savoir. Ici, tout est gratuit et sans publicité.
Créer un compte