Salut !
L’écriture vectorielle fait peut-être peur, mais si on note b=(b1,…,bD) et x=(x1,…,xD) (si on veut revenir à ce que sont les objets, ce qu’on a ici c’est qu’on décompose x:Ω→Rd en d fonctions de la forme xi:Ω→R) dans la base canonique de Rd, on a que :
E[bTx]=E[i=1∑Dbixi]
Donc si tu admets déjà que l’espérance est linéaire (au sens du truc que t’as à droite), on a bien le résultat (c’est pour ça que je comprends pas trop ce que tu entends par « généralisation de la linéarité de l’espérance ») :
E[i=1∑Dbixi]=i=1∑DbiE[xi]=bTE[x]
La dernière égalité étant par définition de l’espérance d’une variable aléatoire dans RD : E[x]=(E[x1],…,E[xD]).
C’est quoi déjà la définition de l’espérance ? Prenons deux variables aléatoires X et Y à valeurs réelles, toutes les deux définies sur un espace probabilisé Ω (disons que la mesure de probabilité « ambiante » définie sur Ω s’appelle P). X+Y est une variable aléatoire réelle, c’est-à-dire une fonction mesurable de Ω dans R, qui est définie comme :
X+Y:ω∈Ω↦X(ω)+Y(ω)∈R
L’espérance de X+Y, si elle existe (remplacer X+Y par ∣X+Y∣ ci-dessous et vérifier que c’est <∞), est définie comme :
E[X+Y]=∫Ω(X+Y)(ω)dP(ω)=∫Ω(X(ω)+Y(ω))dP(ω)
Il suffit donc d’utiliser la linéarité de ∫ (ça c’est par construction de l’intégrale) :
E[X+Y]=∫ΩX(ω)dP(ω)+∫ΩY(ω)dP(ω)=E[X]+E[Y]
De même, E[aX]=aE[X] (où a est une constante, comme avant la nature des objets est un peu perturbante au début mais ça suit immédiatement d’une identité de la forme ∫afdμ=a∫fdμ).
Quand tu écris :
E[bTX]=∫RDbTxp(x)dx
c’est une identité qui est vraie, mais qui utilise deux choses :
- La formule de transfert, qui est un truc plutôt non trivial issu de la théorie de l’intégration.
- Le fait que X a une densité (ce qui n’est pas nécessaire si on utilise la définition de l’espérance). Je sais que c’est dans tes hypothèses sur X, mais la formule reste vraie plus généralement.
Ta dernière égalité est vraie, si tu veux la justifier :
∫RDbTxp(x)dx=∫RDi=1∑Dbixip(x)dx=i=1∑Dbi∫RDxip(x)dx
Maintenant on travaille avec la mesure de Lebesgue, donc on peut intervertir les intervalles comme on veut (en supposant que tout est bien défini, etc.) :
∫RDbTxp(x)dx=i=1∑Dbi∫Rxi(∫RD−1p(x)dx1…dxi−1dxi+1…dxn)dxi
Et il se trouve que le truc que t’as entre parenthèses c’est exactement la densité de xi (pour prouver ça, c’est encore du Fubini : tu intègres contre n’importe quelle fonction borélienne, etc.).
Bon, en bref, on peut le faire comme ça, mais globalement Rd c’est pas le bon espace pour démontrer la linéarité de l’espérance. La formule de transfert est évidemment super utile pour calculer des espérances, mais en l’occurrence c’est beaucoup plus simple de montrer ce résultat sur P que sur la mesure image de P par x (essentiellement parce qu’on a pas d’information d’indépendance).
Pour la variance, tu risques de devoir refaire exactement les mêmes calculs, ce qui est franchement embêtant, comme tu peux le voir. Ta formule est vraie, et en fait tu peux la démontrer uniquement en utilisant la linéarité de l’espérance que tu viens de démontrer ! Pas besoin de revenir aux intégrales (indice : comment tu démontres V[aX]=a2V[X] ?).
Par exemple, en prenant cette mesure, est-ce que l’intégrale d’un vecteur est le vecteur des intégrales de ses composantes ?
Ça dépend avec quelle mesure tu intègres ses composantes (ta mesure est définie sur Rd et pas sur R a priori). Ta question est assez liée à des problématiques d’indépendance.
ÉDIT : D’ailleurs si a est une constante E[a+X]=a+E[X] (un de tes a a disparu dans ta preuve de la linéarité de l’espérance).