Rang d'une matrice

a marqué ce sujet comme résolu.

Bonsoir, je n’arrive pas à comprendre cette démonstration :

En particulier l’interprétation de l’équation matricielle $A = \land B$ du point de vue des colonnes…

Quelqu’un pourrait-il m’expliquer? Je précise ne pas avoir aborder les applications linéaires, car j’ai vu que certaines interprétations se font en termes d’applications linéaires.

+0 -0

Cette lettre grecque est Lambda : $\Lambda$.

En fait cette équation exprime juste un produit matriciel.

Maintenant, comme n’importe quelle matrice, tu peux lire selon les lignes ou selon les colonnes. Donc si t’as une égalité sur les lignes, tu obtiens une égalité sur les colonnes.

+0 -0

Maintenant, comme n’importe quelle matrice, tu peux lire selon les lignes ou selon les colonnes. Donc si t’as une égalité sur les lignes, tu obtiens une égalité sur les colonnes.

Holosmos

Ici, les démonstrations de ce résultat sont évidentes (dans le sens ou il faut pas avoir une idée de "génie" et que c’est juste plein de bidouillages d’indices et de calcul) mais pour moi sans vouloir démontrer et juste en se représentant les applications linéaires associés aux matrices ça n’a rien d’évident. Par exemple, à partir d’une matrice $A$ inversible $2 \times 2$, je ne sais pas comment me représenter sa matrice transposée dans le plan.

@Ozmox, je ne comprends pas ce que tu ne comprends pas. Si tu as vu la multiplication matricielle, normalement ça devrait aller (ou alors c’est la lettre grecque $\Lambda$ qui te fait peur :p).

EDIT : en fait j’avais mal compris ce qu’a dit Holosmos :'( Je pensais que tu voulais dire que si une opération est vraie sur les colonnes elle est vraie sur les lignes… (par exemple le fait que $\det(A) =\det(A^t)$, alors qu’effectivement c’est évident de dire que si les colonnes de deux matrices sont égales alors les matrices sont égales et donc leurs lignes aussi. :)

+0 -0

Bah en fait c’est évident à partir du moment où t’as la notion d’espace dual. En utilisant l’association $\langle Ax,\cdot\rangle = \langle x,A^T\cdot\rangle$ ça devient assez facile à sentir.

Mais sans notion d’application linéaire, le mieux reste de le comprendre sur les indices.

Mais sans notion d’application linéaire, le mieux reste de le comprendre sur les indices.

Mouais c’est ça qui me donne mal à la tête. :(

Si j’ai bien compris dans notre matrice $A$, $C_i = \displaystyle \sum_{j = 1}^d b_{j, i} \lambda_j$$\lambda_j := (\lambda_{1, j}, \dots, \lambda_{l, j})$?

Bon tes notations sont un peu difficiles à appréhender, voilà ce que je te conseille comme écriture (point de vu subjectif … mais qui à fait ses preuves pour moi).

On écrit une matrice $A$ selon ses coordonnées : $A_{ij}$$i$ désigne la ligne et $j$ la colonnes. Le produit matriciel dit que :

$$A_{ij} = \sum_k \Lambda_{ik}B_{kj}$$

Maintenant on peut lire ça de deux façons : ou bien comme une combinaison des lignes de $B$ : $B_{kj}$ ne varie que selon $k$ qui désigne les lignes ; ou bien comme combinaison des colonnes de $\Lambda$ : $\Lambda_{ik}$ ne varie que selon $k$ qui désigne les colonnes.

je trouve étrange d’étudier la multiplication matriciel avant de voir les applications linéaires.

Enfin si c’est dans un cadre appliqué et qu’on est prêt a admettre bcp de chose pourquoi pas mais dans le cade d’un cours de maths ça me parait étrange.

(après vu le Théorème que tu sors je ne conseillerai sans doute pas ce cour pour une première approche de l’algèbre linéaire ^^ )

Nan j’ai déjà vu et c’est pas si absurde que ça.

Le problème quand les applications linéaires sont abordées avant c’est que les étudiants croient après pour la plupart que matrice = application linéaire, alors que ça n’est pas le cas. (On a déjà beaucoup discuté sur ce forum de la nature d’une matrice. En court : c’est un tableau de nombres, et c’est tout.)

Le problème quand les applications linéaires sont abordées avant c’est que les étudiants croient après pour la plupart que matrice = application linéaire, alors que ça n’est pas le cas.

Holosmos

Lorsque les matrices sont à coefficients dans un corps $\mathbb{K}$ c’est toujours des applications linéaires, tu faisais allusion à des choses du type ?  :

$$\quad \begin{pmatrix} \infty & -1 \\ 0 & \infty \end{pmatrix} \quad $$

mais dans ce cas là ça à d’autres applications (poids des noeuds dans un graphe, automates…)

Je vais me renseigner sur la notion d’espace dual.

+0 -0
Connectez-vous pour pouvoir poster un message.
Connexion

Pas encore membre ?

Créez un compte en une minute pour profiter pleinement de toutes les fonctionnalités de Zeste de Savoir. Ici, tout est gratuit et sans publicité.
Créer un compte