Intégrale d'un produit scalaire

L’auteur de ce sujet a trouvé une solution à son problème.
Auteur du sujet

Bonjour à tous !

J’essaye de déterminer la densité de probabilité d’une variable aléatoire y=a+bxy=a+\mathbf{b}^{\top}\,\mathbf{x} avec xN(μ,Σ)\mathbf{x}\hookrightarrow\mathcal{N}(\boldsymbol{\mu},\boldsymbol{\Sigma}). Est-ce que je peux quand même voir ça comme une transformation affine d’une variable aléatoire qui suit une loi gaussienne ?

Si oui, je voudrais en déterminer l’espérance et la variance. L’espérance nous donne :

E[y]=RD(a+bx)p(x)dx=RDbxp(x)dx=bE[x]\mathbb{E}[y] = \int_{\mathbf{R}^D}\left(a+\mathbf{b}^{\top}\,\mathbf{x}\right)\,p(\mathbf{x})\,\mathrm{d}\mathbf{x} = \int_{\mathbf{R}^D}\mathbf{b}^{\top}\,\mathbf{x}\,p(\mathbf{x})\,\mathrm{d}\mathbf{x}=\mathbf{b}^{\top}\,\mathbb{E}[x]

Déjà, je ne sais pas justifier la dernière égalité, j’ai juste fait comme ça parce que j’essaye de généraliser sans aucun fondement la propriété de linéarité. En faisant de même lors du calcul de E[y2]\mathbb{E}\left[y^2\right], je tombe sur l’intégrale suivante :

RD(bx)2p(x)dx\int_{\mathbf{R}^D}\left(\mathbf{b}^{\top}\,\mathbf{x}\right)^2\,p(\mathbf{x})\,\mathrm{d}\mathbf{x} que je ne vois pas trop comment calculer…

Si les généralisations marchent comme je le pense, je dirais que je suis censé obtenir E[y]=bμ\mathbb{E}[y]=\mathbf{b}^{\top}\,\boldsymbol{\mu} et V[y]=bΣb\mathbb{V}[y]=\mathbf{b}^{\top}\,\boldsymbol{\Sigma}\,\mathbf{b}. En fait, mes cours sur les vecteurs aléatoires étant assez lointains, il y a pas mal de propriétés dont je ne me rappelle plus. Par exemple, en prenant cette mesure, est-ce que l’intégrale d’un vecteur est le vecteur des intégrales de ses composantes ?

Merci d’avance ! :)

Édité par BunshinKage

+0 -0

Cette réponse a aidé l’auteur du sujet

Salut !

L’écriture vectorielle fait peut-être peur, mais si on note b=(b1,,bD)b=(b_1,\ldots,b_D) et x=(x1,,xD)x=(x_1,\ldots,x_D) (si on veut revenir à ce que sont les objets, ce qu’on a ici c’est qu’on décompose x:ΩRdx:\Omega\to \mathbb{R^d} en dd fonctions de la forme xi:ΩRx_i:\Omega\to \mathbb{R}) dans la base canonique de Rd\mathbb{R}^d, on a que :

E[bTx]=E[i=1Dbixi]\mathbb{E}[b^T x]=\mathbb{E}\left[\sum_{i=1}^D b_i x_i\right]

Donc si tu admets déjà que l’espérance est linéaire (au sens du truc que t’as à droite), on a bien le résultat (c’est pour ça que je comprends pas trop ce que tu entends par « généralisation de la linéarité de l’espérance ») :

E[i=1Dbixi]=i=1DbiE[xi]=bTE[x]\mathbb{E}\left[\sum_{i=1}^D b_i x_i\right]=\sum_{i=1}^D b_i \mathbb{E}[x_i]=b^T \mathbb{E}[x]

La dernière égalité étant par définition de l’espérance d’une variable aléatoire dans RD\mathbb{R}^D : E[x]=(E[x1],,E[xD])\mathbb{E}[x]=(\mathbb{E}[x_1],\ldots,\mathbb{E}[x_D]).


C’est quoi déjà la définition de l’espérance ? Prenons deux variables aléatoires XX et YY à valeurs réelles, toutes les deux définies sur un espace probabilisé Ω\Omega (disons que la mesure de probabilité « ambiante » définie sur Ω\Omega s’appelle PP). X+YX+Y est une variable aléatoire réelle, c’est-à-dire une fonction mesurable de Ω\Omega dans R\mathbb{R}, qui est définie comme :

X+Y:ωΩX(ω)+Y(ω)RX+Y:\omega\in\Omega \mapsto X(\omega)+Y(\omega)\in\mathbb{R}

L’espérance de X+YX+Y, si elle existe (remplacer X+YX+Y par X+Y|X+Y| ci-dessous et vérifier que c’est <<\infty), est définie comme :

E[X+Y]=Ω(X+Y)(ω)dP(ω)=Ω(X(ω)+Y(ω))dP(ω)\mathbb{E}[X+Y]=\int_\Omega (X+Y)(\omega) \,dP(\omega)=\int_\Omega (X(\omega)+Y(\omega)) \,dP(\omega)

Il suffit donc d’utiliser la linéarité de \int (ça c’est par construction de l’intégrale) :

E[X+Y]=ΩX(ω)dP(ω)+ΩY(ω)dP(ω)=E[X]+E[Y]\mathbb{E}[X+Y]=\int_\Omega X(\omega) \,dP(\omega)+\int_\Omega Y(\omega) \,dP(\omega)=\mathbb{E}[X]+\mathbb{E}[Y]

De même, E[aX]=aE[X]\mathbb{E}[aX]=a\mathbb{E}[X] (où aa est une constante, comme avant la nature des objets est un peu perturbante au début mais ça suit immédiatement d’une identité de la forme afdμ=afdμ\int af\,d\mu=a\int f\,d\mu).


Quand tu écris :

E[bTX]=RDbTxp(x)dx\mathbb{E}[b^T X]=\int_{\mathbb{R}^D} b^T x p(x) \,dx

c’est une identité qui est vraie, mais qui utilise deux choses :

  • La formule de transfert, qui est un truc plutôt non trivial issu de la théorie de l’intégration.
  • Le fait que XX a une densité (ce qui n’est pas nécessaire si on utilise la définition de l’espérance). Je sais que c’est dans tes hypothèses sur XX, mais la formule reste vraie plus généralement.

Ta dernière égalité est vraie, si tu veux la justifier :

RDbTxp(x)dx=RDi=1Dbixip(x)dx=i=1DbiRDxip(x)dx\int_{\mathbb{R}^D} b^T x p(x)\, dx=\int_{\mathbb{R}^D} \sum_{i=1}^D b_i x_i p(x) \,dx=\sum_{i=1}^D b_i \int_{\mathbb{R}^D} x_i p(x)\, dx

Maintenant on travaille avec la mesure de Lebesgue, donc on peut intervertir les intervalles comme on veut (en supposant que tout est bien défini, etc.) :

RDbTxp(x)dx=i=1DbiRxi(RD1p(x)dx1dxi1dxi+1dxn)dxi\int_{\mathbb{R}^D} b^T x p(x)\, dx=\sum_{i=1}^D b_i \int_{\mathbb{R}} x_i \left(\int_{\mathbb{R}^{D-1}} p(x) dx_1\ldots dx_{i-1} dx_{i+1}\ldots dx_n\right) dx_i

Et il se trouve que le truc que t’as entre parenthèses c’est exactement la densité de xix_i (pour prouver ça, c’est encore du Fubini : tu intègres contre n’importe quelle fonction borélienne, etc.).

Bon, en bref, on peut le faire comme ça, mais globalement Rd\mathbb{R}^d c’est pas le bon espace pour démontrer la linéarité de l’espérance. La formule de transfert est évidemment super utile pour calculer des espérances, mais en l’occurrence c’est beaucoup plus simple de montrer ce résultat sur PP que sur la mesure image de PP par xx (essentiellement parce qu’on a pas d’information d’indépendance).


Pour la variance, tu risques de devoir refaire exactement les mêmes calculs, ce qui est franchement embêtant, comme tu peux le voir. Ta formule est vraie, et en fait tu peux la démontrer uniquement en utilisant la linéarité de l’espérance que tu viens de démontrer ! Pas besoin de revenir aux intégrales (indice : comment tu démontres V[aX]=a2V[X]\mathbb{V}[aX]=a^2 \mathbb{V}[X] ?).

Par exemple, en prenant cette mesure, est-ce que l’intégrale d’un vecteur est le vecteur des intégrales de ses composantes ?

Ça dépend avec quelle mesure tu intègres ses composantes (ta mesure est définie sur Rd\mathbb{R}^d et pas sur R\mathbb{R} a priori). Ta question est assez liée à des problématiques d’indépendance.

ÉDIT : D’ailleurs si aa est une constante E[a+X]=a+E[X]\mathbb{E}[a+X]=a+\mathbb{E}[X] (un de tes aa a disparu dans ta preuve de la linéarité de l’espérance).

Édité par Lucas-84

Connectez-vous pour pouvoir poster un message.
Connexion

Pas encore membre ?

Créez un compte en une minute pour profiter pleinement de toutes les fonctionnalités de Zeste de Savoir. Ici, tout est gratuit et sans publicité.
Créer un compte