Sous espace vectoriel

Comment trouver facilement des sous ensembles vectoriels ?

Le problème exposé dans ce sujet a été résolu.

Bonjour la communauté.

Je vois en ce moment en algèbre la notion d'espace vectoriel, et de sous-espace vectoriel.

J'étais en train de travailler sur l'ensemble des matrices carrés d'ordre 2, en tant qu'espace vectoriel, et je pense avoir réussi à le prouver (bon, il suffit de vérifier les conditions, mais bon, j'ai pu me tromper, sait-on jamais).

Et je me suis demandé :
"Et si j'essayais de trouver l'ensemble des sous-espace vectoriel de cet ensemble ?"
Et là, blocage, je n'ai que trouvé le singleton comprenant la matrice nulle d'ordre 2 (ben oui). Mais pour le reste ?
Y a-t-il une méthode pour en trouver d'autres facilement ? Ou alors, des "modèles" pour en créer ?

Merci de votre aide. Aero

+0 -0

Oh y'en a plein d'autres que l'espace nul. Mais parler de modèle de génération de sous-espaces vectoriels, non, on n'a pas trop ça en stock. Ce qui s'en rapproche le plus, c'est de trouver une propriétés sur les vecteurs de ton espace qui semblerait être compatible avec soit l'addition, soit la multiplication par un scalaire, et étudier ensuite si les autres propriétés sont vérifiées. Par exemple ce serait "si $A$ est <…> alors $\lambda A$ l'est aussi". As-tu vu des propriétés sur les matrices qui pourraient êetre de bons candidats ?

+0 -0

Euh, comme ça, l'inversibilité, au pif (:-°)
Mais je ne vois pas en quoi cela peut-être utile, si tu peux développer.
Parce qu'on cherche
-à avoir la matrice nulle

-à avoir λA+M qui reste dans le même sous espace, pour λ,A,M quelconque.
L'inversibilité sur les éléments du sous-espace, permettrait peut-être d'en faire un corps (dis moi si je me trompe, on voit les espaces vectorielles avant la théorie sur les groupes, corps… Donc j'avais quelques connaissances d'avance dues à ma curiosité, mais c'est rudimentaire :p ), mais je ne vois pas en quoi cela peut nous aider à construire des sev…

+0 -0

Est-ce que la somme de deux matrices inversibles reste inversible ? et est-ce que le produit d'une matrice inversible par un réel est une matrice inversible ?

Il y a une des deux conditions du dessus qui n'est pas vérifié, donc ce n'est pas un espace vectoriel. En revanche, tu peux munir l'ensemble des matrices inversibles d'une structure de groupe.

Pour trouver les sous espaces vectoriels, tu peux commencer à penser en terme de droite, ou de vecteur au sens lycéen : Si tu prends l'ensemble des matrices avec que des zéros sauf éventuellement un endroit précis et fixé pour toutes, tu vois que c'est toujours stable, peu importe la position que tu choisis. Tu vois aussi que tu peux généraliser ça.

L'idée que tu peux utiliser pour te donner une idée, c'est que tu prends un vecteur, et tu regardes l'espace qu'il engendre.

Bonjour Unidan.
On a donc la somme de matrice inversible qui n'est pas forcément inversible.
A la rigueur, si on prend l'ensemble des matrices inversibles, je comprends qu'on ne puisse pas en faire un sous espace vectoriel. Mais si on prend un ensemble de matrice tout cours, les matrices peuvent ne pas être inversible et malgré tout, permettre la construction d'un sev.

La dernière idée m’intéresse. Elle consiste a prendre un vecteur, et regarder quel ensemble dans lequel il est inclu permet d'en faire un sev, c'est bien ça ? Ca me rappel les familles génératrice, ça.

Bon, je vais regarder un petit peu encore ce que je peux créer comme ensemble, et puis je vais attendre d'en voir un peu plus en cours, histoire de mieux maîtriser la notion.

+0 -0
Banni

Il y a une des deux conditions du dessus qui n'est pas vérifié

En fait aucune des deux, quand on y pense.

On a donc la somme de matrice inversible qui n'est pas forcément inversible.
A la rigueur, si on prend l'ensemble des matrices inversibles, je comprends qu'on ne puisse pas en faire un sous espace vectoriel.

As-tu trouvé un contre-exemple ?

Mais si on prend un ensemble de matrice tout cours, les matrices peuvent ne pas être inversible et malgré tout, permettre la construction d'un sev.

Je ne vois pas trop ce que tu veux dire : cela est vrai de tout ensemble de vecteurs. Question : Quel est le plus petit sous-espace vectoriel contenant toutes les matrices inversibles ? (et comment le montrer)

La dernière idée m’intéresse. Elle consiste a prendre un vecteur, et regarder quel ensemble dans lequel il est inclu permet d'en faire un sev, c'est bien ça ? Ca me rappel les familles génératrice, ça.

Je ne dirais pas ça comme ça mais oui. Et l'ensemble de vecteurs va être une famille génératrice du sous-espace généré (forcément).

Mais parler de modèle de génération de sous-espaces vectoriels, non, on n'a pas trop ça en stock.

Pour la dimension finie ça va, non ? Enfin, pas sûr de comprendre.

L'inversibilité sur les éléments du sous-espace, permettrait peut-être d'en faire un corps

Il faut déjà une multiplication (plus propriétés) mais oui sinon. Après il y a la notion de K-algèbre.

+0 -0

Il y a une des deux conditions du dessus qui n'est pas vérifié

En fait aucune des deux, quand on y pense.

Effectivement, si on prend pour scalaire le réel 0, ça ne fonctionne pas non-plus.

On a donc la somme de matrice inversible qui n'est pas forcément inversible.
A la rigueur, si on prend l'ensemble des matrices inversibles, je comprends qu'on ne puisse pas en faire un sous espace vectoriel.

As-tu trouvé un contre-exemple ?

Et bien, si on prend une matrice inversible, et son opposé, elle aussi inversible donc, la somme des deux est la matrice nulle non inversible, on sort donc de l'ensemble. En disant cela, je me rends compte que si la matrice nulle n'est pas inversible, on ne peut pas créer de sous espace vectoriel avec uniquement des matrices inversibles, puisqu'il nous faut au moins le vecteur nul. ?! (cf la question d'après…)

Mais si on prend un ensemble de matrice tout cours, les matrices peuvent ne pas être inversible et malgré tout, permettre la construction d'un sev.

Je ne vois pas trop ce que tu veux dire : cela est vrai de tout ensemble de vecteurs. Question : Quel est le plus petit sous-espace vectoriel contenant toutes les matrices inversibles ? (et comment le montrer)

Du coup, si je résume mes idées : je veux créer des sev de l'ensemble des matrices carrées d'ordre 2.
Je peux prendre une matrice M au hasard et tenter d'en faire un sev, par exemple, c'est l'idée qui me vient, en prenant l'ensemble des matrices $λM$ (une espèce de combinaison linéaire à un seul élément, c'est pas très drôle mais ça devrait fonctionner) : on aurait l'élément nul (λ=0) et impossible de sortir du sous-espace par combinaison linéaire, puisque $λM+M$ revient à faire $(λ+1)M$, vecteur appartenant au sous-ensemble.

Maintenant, si on prend deux matrice au lieu d'une seule. En prenant l'ensemble des combinaisons linéaires, sur quoi tombe-t-on ? Sur $R^2$, si on prend deux vecteurs non-colinéaire, c'est le cas (on tombe sur une base. Attention, j'utilise la notion de base tel que je la connais du lycée, on n'en a pas parlé dans le cadre de mon cours sur les espaces vectoriels).

+0 -0

Salut,

Par rapport à ta question initiale.

"Et si j'essayais de trouver l'ensemble des sous-espace vectoriel de cet ensemble ?" Et là, blocage, je n'ai que trouvé le singleton comprenant la matrice nulle d'ordre 2 (ben oui). Mais pour le reste ? Y a-t-il une méthode pour en trouver d'autres facilement ? Ou alors, des "modèles" pour en créer ?

On connaît bien l'ensemble des sous-espaces vectoriels dans des cas « simples », mais ça anticipe sans doute un peu sur ton cours. Au besoin, tu pourras y revenir avec un peu plus de recul (sur la notion de dimension, notamment). :)

Déjà, de manière générale, pour étudier une structure algébrique (et en particulier pour les espaces vectoriels), une notion importante est celle isomorphisme. L'idée est de regrouper ensemble les structures qui se ressemblent. Deux $\mathbb{R}$ -espaces vectoriels sont isomorphes si ils se comportent de la même manière du point de vue des lois d'un espace vectoriel (combinaisons linéaires de vecteurs, en l'occurrence). Concrètement, on dira que $E$ et $F$ sont isomorphes s'il existe $\Phi$ bijective de $E$ dans $F$ qui « passe à la combinaison linéaire » :

$$\forall \lambda, \mu \in \mathbb{R}, \forall x, y \in E, \Phi(\lambda x + \mu y) = \lambda \Phi(x) + \mu \Phi(y)$$

(On cherche donc exactement une application linéaire bijective.)

On peut regarder les propriétés communes à deux espaces vectoriels isomorphes. L'une d'elle est celle de sous-espace vectoriel : si $G$ est un sous-espace vectoriel de $E$, alors $\Phi(G)$ est un sous-espace vectoriel de $F$, et réciproquement tout sous-espace vectoriel de $F$ a son équivalent dans $E$. On voit donc que deux espaces vectoriels isomorphes ont les mêmes sous-espaces vectoriels « à isomorphisme près ». Ça veut dire qu'il suffit de connaître la structure des espaces vectoriels sur $E$ « simple » pour connaître celle sur $F$ (et on peut même les expliciter si on connaît $\Phi$). Et ça, c'est très pratique !

L'un des aspects assez cool des espaces vectoriels est qu'on sait les classifier « à isomorphisme près » dans de nombreux cas simples. C'est en fait l'objet de la théorie des dimensions. Dans le cas de $\mathcal{M}_2(\mathbb{R})$, on peut se contenter d'un argument ad hoc : se donner une matrice réelle carrée de taille 2, c'est exactement se donner quatre réels (par construction de $\mathcal{M}_2(\mathbb{R})$, en fait !). Tu peux t'amuser à expliciter un isomorphisme de $\mathbb{R}$-espace vectoriel entre $\mathcal{M}_2(\mathbb{R})$ et $\mathbb{R}^4$.

Par ce qui précède, on sait qu'il suffit d'étudier les sous-espaces vectoriels de $\mathbb{R}^4$ pour obtenir ceux de $\mathcal{M}_2(\mathbb{R})$. En fait, plus généralement, on peut se demander quels sont les sous-espaces vectoriels de $\mathbb{R}^n$.

Par exemple, tu peux commencer par chercher quels les sous-espaces vectoriels de $\mathbb{R}$. De $\mathbb{R^2}$ ? De $\mathbb{R^4}$ ? Ce sont des questions conceptuellement plus simples que le problème de départ, dont la réponse permet de déduire efficacement tous les sous-espaces vectoriels de $\mathcal{M}_2(\mathbb{R})$. Et c'est une méthode assez générale !

On peut généraliser cette idée à d'autres structures algébriques. Par exemple, deux groupes isomorphes (il faut adapter un peu la définition) auront plein de propriétés communes !

+0 -0
Banni

Je ne vois pas trop ce que tu veux dire : cela est vrai de tout ensemble de vecteurs. Question : Quel est le plus petit sous-espace vectoriel contenant toutes les matrices inversibles ? (et comment le montrer)

Tu vois ce que je veux dire ou pas ?

Du coup, si je résume mes idées : je veux créer des sev de l'ensemble des matrices carrées d'ordre 2.
Je peux prendre une matrice M au hasard et tenter d'en faire un sev, par exemple, c'est l'idée qui me vient, en prenant l'ensemble des matrices $λM$ (une espèce de combinaison linéaire à un seul élément, c'est pas très drôle mais ça devrait fonctionner) : on aurait l'élément nul (λ=0) et impossible de sortir du sous-espace par combinaison linéaire, puisque $λM+M$ revient à faire $(λ+1)M$, vecteur appartenant au sous-ensemble.

Maintenant, si on prend deux matrice au lieu d'une seule. En prenant l'ensemble des combinaisons linéaires, sur quoi tombe-t-on ? Sur $R^2$, si on prend deux vecteurs non-colinéaire, c'est le cas (on tombe sur une base. Attention, j'utilise la notion de base tel que je la connais du lycée, on n'en a pas parlé dans le cadre de mon cours sur les espaces vectoriels).

C'est l'idée. Le sous-espace vectoriel généré par une famille est le plus général contenant cette famille : les sous-espaces vectoriels qui contiennent la famille sont exactement les sous-espaces vectoriels contenant le sous-ev généré. Autrement dit, le sous-ev généré par une famille a uniquement les propriétés impliquées par le fait qu'il contient la famille, et pas plus (c'est le plus petit). Quand on prend un vecteur non nul, ça donne une droite.

Maintenant, pourquoi est-ce que le plan est différent d'une droite ? Pourquoi ne peut-on pas trouver un vecteur qui va générer un plan ? Ou deux vecteurs qui vont générer ℝ³ ?

il faut adapter un peu la définition

Concernant l'isomorphisme, ici on peut ne parler que de combinaisons linéaires, mais on peut dire qu'en un peu plus général cela doit commuter avec toutes les lois (1, × et ^(-1) pour un groupe, par exemple) : si on fait une manipulation algébrique avant d'appliquer l'isomorphisme, c'est comme si on l'avait fait après, et on peut revenir en arrière avec un autre morphisme.

+0 -0
Connectez-vous pour pouvoir poster un message.
Connexion

Pas encore membre ?

Créez un compte en une minute pour profiter pleinement de toutes les fonctionnalités de Zeste de Savoir. Ici, tout est gratuit et sans publicité.
Créer un compte