Formule de Laplace - Visualisation

Intuition

a marqué ce sujet comme résolu.

Bonjour,

En algèbre linéaire tout se visualise assez bien. Néanmoins malgrés le fait que je comprends bien la démonstration j’ai du mal à comprendre ce que veux vraiment dire la formule de Laplace géométriquement.

Voilà la formule en question  :

$$A ^t \widetilde{A} = \det A \text{ } I_n$$

Ou $\widetilde{A}$ est la comatrice de $A$. Déjà, un bon début c’est de comprendre géométriquement ce que représente : $\widetilde{A}$. Mais je dois avouer que j’ai du mal à voir.

On pourrait penser à un truc du genre : Pour avoir l’aire/volume de quelque chose, il faut décomposer cette chose en parties. Par exemple pour un parallélépipède on peut prendre ses faces (on les sommes pour avoir l’air totale).

Mais bon, ça n’aide pas beaucoup je trouve…

Bref, si vous avez des idées merci d’avance !

Je pense que cet axiome est faux :p

Holosmos

Je savais qu’on allait me reprendre là dessus :p Néanmoins, la plupart des propriétés de bases jusqu’à la réduction à l’aide des valeurs propres, tout se visualise quand même plutôt bien.

Bizarrement j’ai toujours pensé que l’algèbre linéaire a été conçu pour représenter formellement ce qui se visualise difficilement.

Osimoquus

Eur, historiquement c’est pas vraiment le cas. Surtout que ce que tu dis est un peu vague, élaborer une théorie sur ce qu’il est difficile de visualiser se baserait sur un point de vue subjectif.

Mais je pense que tu voulais le dire dans le sens : ça peut permettre de formellement décrire certains espaces de dimension supérieur à $3$ qu’il est difficile de conceptualiser, et donc cela permet de travailler avec.

Banni

Salut,

Je réponds un peu tard, mais comme ça il y aura une réponse. D’ailleurs il me semble vaguement que j’avais déjà vu ce sujet et qu’il avait plus de réponses, non ?

Explication avec des coordonnées

Imaginons qu’on ait nn vecteurs indépendants x1,,xnx_1,…,x_n dans Rnℝ^n, et qu’on veuille écrire yy comme combinaison linéaire des xix_i. Comment récupérer le coefficient de x1x_1 dans cette écriture, sans forcément calculer ceux des autres xix_i ? L’idée est que récupérer ce coefficient pour yy est la même chose que de le récupérer pour y+λ2x2++λnxny + \lambda_2 x_2 + ⋯ + \lambda_n x_n, quel que soit λ2,,λn\lambda_2,…,\lambda_n. Du coup, on peut déjà « oublier » l’hyperplan généré par x2,,xnx_2,…,x_n. Et c’est exactement ce que fait le déterminant ydet(y,x2,,xn)y ↦ \det(y,x_2,…,x_n) : il nous donne yy modulo un décalage dans l’hyperplan généré par x2,,xnx_2,…,x_n. C’est comme ça qu’on fait visuellement pour récupérer des coordonnées : on translate notre point jusqu’à l’axe voulu parallèlement aux autres axes. Pour récupérer le coefficient voulu, on commence par calculer det(y,x2,,xn)\det(y,x_2,…,x_n) : ça devrait suffire. Il ne manque plus qu’un facteur de normalisation, qui est det(x1,x2,,xn)\det(x_1,x_2,…,x_n), puisque lorsque y=x1y=x_1, le coefficient voulu est 11. On obtient donc que le coefficient de x1x_1 est det(y,x2,,xn)det(x1,,xn).\frac{\det(y,x_2,…,x_n)}{\det(x_1,…,x_n)}\text{.}

On voit donc que l’application linéaire envoyant la base canonique de Rnℝ^n sur (x1,,xn)(x_1,…,x_n) a pour inverse l’application linéaire y1det(x1,,xn)(det(y,x2,x3,,xn),det(x1,y,x3,,xn),,det(x1,x2,,y)).y ↦ \frac{1}{\det(x_1,…,x_n)} \big(\det(y,x_2,x_3,…,x_n), \det(x_1,y,x_3,…,x_n), …, \det(x_1,x_2,…,y)\big)\text{.}

Il ne reste plus qu’à traduire ça matriciellement.

Explication sans coordonnées

Pour ça, il faut savoir ce qu’est l’algèbre extérieure d’un espace vectoriel. Ça permet une approche qui ne dépend pas de la base. Soit VV un espace vectoriel de dimension nn et A:VVA : V → V un endomorphisme. Alors ΛnA\Lambda^n A est un endomorphisme de ΛnV\Lambda^n V, qui est de dimension 11. C’est donc un scalaire, et c’est en fait le déterminant de AA : on prend une "unité de volume" et on regarde comment elle est transformée par AA.

Si on connaît A(y)A(y), alors on connaît Λn1A(v)A(y)=det(A)vy=v(det(A)y)\Lambda^{n-1} A(v) ∧ A(y) = \det(A) v∧y = v∧(\det(A) y) pour tout vΛn1Vv ∈ \Lambda^{n-1} V. Autrement dit, on connaît la « hauteur » de det(A)y\det(A) y par rapport à tout hyperplan. Cela suffit donc à connaître det(A)y\det(A) y (la forme bilinéaire Λn1VVΛnV\Lambda^{n-1} V ⊗ V → \Lambda^n V est non dégénérée). La matrice des cofacteurs de AA est Λn1A\Lambda^{n-1} A exprimée dans une certaine base, par rapport à laquelle la forme bilinéaire est le produit scalaire standard, et son adjointe par rapport à cette forme bilinéaire est donc sa transposée par rapport à cette base. On a donc v(det(A)y)=Λn1A(v)A(y)=v(tA~Ay)v∧(\det(A) y) = \Lambda^{n-1} A(v) ∧ A(y) = v∧({}^t \tilde{A} A y), donc tA~A=det(A){}^t \tilde{A} A = \det(A). (C’est la même idée que ce pourquoi l’inverse d’une isométrie est son adjoint par rapport au produit scalaire.)

Ça correspond à l’explication concrète si on détaille. Le calcul de l’adjointe comme transposée dans les bonnes bases correspond au calcul des coordonnées une par une qu’on a effectué à la première explication.

+3 -0
Connectez-vous pour pouvoir poster un message.
Connexion

Pas encore membre ?

Créez un compte en une minute pour profiter pleinement de toutes les fonctionnalités de Zeste de Savoir. Ici, tout est gratuit et sans publicité.
Créer un compte