Rang d'une matrice à coefficients réels

Le problème exposé dans ce sujet a été résolu.

Salut à tous !

Peut-on affirmer que le rang d’une matrice à coefficients réels reste inchangé si l’on multiplie tous ses coefficients par le même nombre réel non-nul ?

Si oui, ce serait cool d’avoir le nom du théorème qui dit cela, ça m’aiderait pour justifier des trucs à mon examen d’algèbre.

Je n’ai pas trouvé de réponse explicite sur wikipédia.

Par ailleurs, si la première proposition est fausse, qu’en est-il pour les matrices carrées ?

En attendant, je vais essayer sur un exemple mais je ne suis pas sûr de la généralité.

Merci d’avance ^^

Bonjour,

Dixit wikipedia : "Le rang d’une famille de vecteurs est invariant par opération élémentaire."

Les "opérations élémentaires", dont il est question sont, toujours dixit wikipedia :

  • la multiplication d’un des vecteurs par un scalaire non nul ;
  • l’ajout d’un multiple d’un des vecteurs de la famille à un autre ;
  • l’échange de deux vecteurs.

Du coup, la réponse est oui, le rang est inchangé si tu multiplies ta matrice par un réel non nul

+1 -0

Salut,

Comme tu parles d’algèbre, j’imagine que tes matrices sont en fait des représentations de tenseur qui sont des applications linéaires d’un espace vectoriel dans un espace vectoriel. Si oui, il n’y a pas de nom particulier pour cette propriété puisqu’elle découle trivialement des propriétés de telles applications linéaires (à savoir que la multiplication externe permute avec ces applications).

+0 -0

@adri1, c’est bien vu !

À titre d’exercice personnel, je vais essayer de démontrer cette propriété en utilisant ce que j’ai vu au cours.

Soit ARs×tA \in \mathbb{R}^{s \times t}, une matrice à coefficients réels d’ordre (s,t)(s, t).
Soit λ\lambda un nombre réel non-nul.
Soit V,+V, + un espace vectoriel réel.
Soit ee une base de V,+V, +.

Je vais essayer de démontrer que rang(A)=rang(λA)rang (A) = rang (\lambda A).

Pour cela, partons du principe que AA est la matrice d’un opérateur linéaire α:VV\alpha : V \rightarrow V dans la base ee.

Définissons de même l’opérateur linéaire β:VV\beta : V \rightarrow V pour la matrice λA\lambda A.

On sait que :

rang(A)=dim(Im(α))=dim(V,+)dim(kerα)rang (A) = \dim(Im(\alpha)) = \dim(V, +) - \dim(\ker \alpha)

De même :

rang(λA)=dim(Im(β))=dim(V,+)dim(kerβ)rang (\lambda A) = \dim(Im(\beta)) = \dim(V, +) - \dim(\ker \beta)

Il reste donc à démontrer que kerα=kerβ\ker \alpha = \ker \beta, ce qui est trivial.

CQFD.

Si quelqu’un y voit des fautes, qu’il n’hésite pas à les signaler ^^

Hmmm, j’ai pas l’impression que tu prouves quoique ce soit. Déjà si tu supposes que λA\lambda A est une application VVV\to V, tu as déjà utilisé ce que tu veux montrer. Deuxième point plus accessoire, supposer AA étant VVV\to V plutôt que UVU\to V avec UU et VV deux ev qui peuvent être différents fait perdre de la force à ton propos.

+0 -0
Banni

En quoi ker(α)=ker(λα)\ker(\alpha) = \ker(\lambda \alpha) est plus trivial que im(α)=im(λα)\operatorname{im}(\alpha) = \operatorname{im}(\lambda \alpha) ? Ça me parait un peu tordu de passer par le théorème du rang, et en plus ça ne fonctionnerait pas en dimension infinie.

C’est quoi ce ++ à côté du VV ? Si c’est pour dire que c’est la loi de groupe abélien sur VV, déjà ce n’est pas la peine (ce n’est pas plus rigoureux de dire l’évidence "on va noter ++ ce bidule"), et de toute manière ça ne suffit pas à caractériser la structure d’espace vectoriel réel de VV.

@adri1 En quoi dire que λA\lambda A va encore de UU dans VV utilise le truc à démontrer ? Tentative d’interprétation : AA va de UU dans im(A)\operatorname{im}(A), donc λA\lambda A aussi ?

+0 -0

@adri1 En quoi dire que λA\lambda A va encore de UU dans VV utilise le truc à démontrer ? Tentative d’interprétation : AA va de UU dans im(A)\operatorname{im}(A), donc λA\lambda A aussi ?

blo yhg

Je me suis mal exprimé, disons plutôt que si tu le supposes d’entrée de jeu, tu as fait le gros du boulot.

+0 -0

Ouep, c’était pas vraiment une démonstration le truc que j’ai envoyé :-°

J’ai pas le temps (ni l’envie) d’approfondir, mais je pense avoir compris l’idée de départ.

Au moins, ça m’a donné un moyen mnémotechnique pour retenir cette propriété :)

Au moins, ça m’a donné un moyen mnémotechnique pour retenir cette propriété :)

Ludwig

Ca ne devrait pas être mnémotechnique, ça devrait juste te paraître évident si tu as compris ce que représente une matrice. Si tu multiplies ta matrice par un réel, ça veut juste dire que tu "scales" chacun de tes vecteurs de ta futur base par λ\lambda. En faisant cela tu ne change pas "leur position par rapport aux autres" dans l’espace, il n’y a donc aucune raison que cette famille devienne liée (à part si λ=0\lambda = 0 puisque dans ce cas ta matrice envoie ton e.v sur son origine).

Je vais essayer de reformuler tes propos pour être certain d’avoir bien compris :

Si AA est la matrice d’une application linéaire α\alpha dans une base e=(e1,e2...)e = (e_1, e_2...) de l’espace vectoriel VV dans lequel on travaille, alors λA\lambda A est la matrice de l’application linéaire α\alpha dans la base e=(λe1,λe2...)e' = (\lambda e_1, \lambda e_2...) et par conséquent, les directions (et sens) des vecteurs de la base restent inchangés.

En particulier, si les vecteurs de ee sont orthogonaux deux à deux, alors cette propriété reste vraie pour ee'.

Si les directions des vecteurs ee' sont les conservées, alors rang(A)=rang(λA)rang(A) = rang(\lambda A) car le rang revient à chercher le nombre de vecteurs contenus dans la partie libre maximale que l’on peut extraire des "vecteurs" (ici colonnes ou lignes) de A$.

λA\lambda A est l’image de α\alpha dans la base (1λe1,,1λen)(\frac 1 \lambda e_1, \dots, \frac 1\lambda e_n), mais sinon c’est ça. Tu peux t’en convaincre en prenant un exemple simple d’une matrice 2×2.

Tu peux aussi définir une matrice comme étant un ensemble de vecteurs (les colonnes), et le rang d’une matrice est le rang de l’espace engendré par ces vecteurs. Multiplier tous ces vecteurs par α\alpha ne modifiera pas l’espace engendré, et encore moins son rang.

Bref il y a autant de façons de prouver ce résultat qu’il y a de façons de définir ce qu’est une matrice, à toi de voir ce qu’il te semble le plus intuitif. :)

+0 -0
Connectez-vous pour pouvoir poster un message.
Connexion

Pas encore membre ?

Créez un compte en une minute pour profiter pleinement de toutes les fonctionnalités de Zeste de Savoir. Ici, tout est gratuit et sans publicité.
Créer un compte