Vecteur et algèbre linéaire

Le problème exposé dans ce sujet a été résolu.

Bonjour à tous,

Je vous cite ceci que j’ai lu quelque part :

La notion de vecteur peut être définie en dimension deux (le plan) ou trois (l’espace euclidien usuel). Elle se généralise à des espaces de dimension quelconque. Cette notion, devenue abstraite et introduite par un système d’axiomes, est le fondement de la branche des mathématiques appelée algèbre linéaire.

Je ne vois pas du tout le lien entre vecteur (au sens où celui-ci est caractérisé par l’intensité, la direction et le sens) et l’algèbre linéaire. Par ailleurs, lorsqu’on parle d’Espace vectoriel, faut-il entendre le mot vectoriel au sens du vecteur (caractérisé par l’intensité, le sens et la direction) ?

Depuis fort longtemps j’entends que la généralisation des vecteurs est à l’origine de l’algèbre linéaire, mais je ne vois pas vraiment le lien.

Merci pour vos éclaircissement ! ^^

+0 -0

Si l’on veut, oui. Mais en dimension quelconque, il y a aussi des directions (mais davantage que nos sens ne sont capables d’en percevoir).

Au fond, la terminologie « espace vectoriel » n’est pas forcément satisfaisante. Souvent, quand je présente la notion à des gens, je parle plutôt d’espace linéaire, ce qui me semble plus parlant.

Du tout. Le terme d’espace linéaire n’existe pas couramment en français (jamais entendu parler en tout cas).

Un espace vectoriel c’est (en très gros) ensemble qui contient des trucs tels qu’on puisse les additionner/soustraire et les multiplier par un nombre. Ces trucs sont appelés vecteur. D’où la réponse d’Holosmos.

On considère souvent des applications linéaires entre des espaces vectoriels car c’est très très pratique et utile.

En effet (en dimension finie), on peut facilement extraire/trouver un petit nombre de vecteurs de l’espace qui serviront à construire linéairement (ie à base de sommes et/ou multiplication par des constantes) tous les autres vecteurs de l’espace (on parle de base). Et caractériser une application linéaire sur une base de l’espace (ie, dire ce qu’il advient de chaque vecteur), suffit à la caractériser entièrement.

C’est donc vachement pratique !! Dans un espace de dimension $N$, y’a $N$ vecteur dans une base. Suffit donc de dire ce que va faire une application linéaire de ces $N$ vecteurs pour connaître tout son comportement.

La notion de vecteur telle qu’on la rencontre avant (direction, sens, intensité) a une structure d’espace vectoriel (on peut les additionner/soustraire et les multiplier par un nombre et on a toujours un vecteur). Mais c’est un cas particulier d’espace vectoriel.

Si on considère l’ensemble des fonctions paires, ca forme un espace vectoriel (la somme de 2 fonctions paires est toujours paire, tout comme une fonction paire multipliée par un scalaire). Et donc dans ce contexte, les fonctions seront des vecteurs comme éléments d’un espace vectoriel.

+1 -0

Non, pas du tout. La linéarité est une notion mathématique, qui garantit que les objets de l’espace (typiquement, le plan ou l’espace euclidien usuel) étudié peuvent être sommés et multipliés par des éléments de leur corps de base ($\mathbb R$ dans le cas le plus simple).

Géométriquement, le situation de linéarité se représente par une droite (c’est ce que l’on apprend au collège). Et ça tombe bien : une droite qui passe par l’origine est caractérisée par un vecteur directeur. Bref, donner une droite (passant par l’origine), c’est donner un vecteur directeur.

On utilise le terme « espace vectoriel » car il correspond à ce que l’on imagine dans le plan et l’espace. Or, les espaces vectoriels dépassent très largement ce cadre : certains ensembles mathématiques abominablement compliqués et très éloignés de la vision plan/espace usuelle sont des espaces vectoriels. Et les éléments qui vivent dedans sont des vecteurs. Par exemple, si $f:\mathbb R\to\mathbb R$ est une fonction, c’est un élément de l’ensemble des fonctions de $\mathbb R$ dans $\mathbb R$, qui est un espace vectoriel ; pour autant, la vision plan/espace n’est pas facile à imaginer dans ce contexte. Mais la propriété clé est que la somme de deux fonctions est une fonction et que le produit d’une fonction par un réel est une fonction : l’espace est stable par somme et produit, il vérifie la propriété de linéarité. C’est pour cette raison que j’aime bien parler d’espace linéaire (et d’ailleurs, c’est assez courant en anglais d’utiliser cette terminologie).

Voici ma compréhension qui est un gros résumé de ce qui a été déjà dit.

Tu apprends au collège à manipuler des vecteurs. Dans le plan, un vecteur est un couple de nombre que tu écris ainsi $(x,y)$ par exemple. Puis quand tu as deux vecteurs, tu peux chercher à les additionner : soit $\vec{u}$ le vecteur $(u_1,u_2)$ et $\vec{v}$ le vecteur $(v_1,v_2)$, on définit la somme de vecteur comme

$\vec{u}+\vec{v} := (u_1 + v_1, u_2 + v_2)$

De la même manière, tu peux définir le produit d’un vecteur par un nombre que l’on appelle généralement scalaire (pour une raison que j’ignore d’ailleur) : soit $\lambda$, un nombre,

$\lambda \cdot \vec{u} := (\lambda \times u_1, \lambda \times u_2)$

Je dis nombre car le monde dans lequel vit $\lambda$ n’est pas fixe et dépend des applications. En général, on se situe dans le monde réel.

Bon, très bien avec ces deux opérations, on peut faire des super choses dans le plan 2D : on peut montrer par exemple que n’importe quel vecteur $\vec{u}$ peut s’exprimer comme la somme de deux vecteurs :

$(u_1,u_2) = u_1 \cdot (1,0) + u_2 \cdot (0,1)$

Mais qu’est-ce qui se passe dans l’espace 3D ? Tu peux toujours définir des vecteurs comme étant des triplets $(x,y,z)$, tu peux redéfinir une somme, un produit. Et tu peux obtenir un théorème très similaire qui dit que tes vecteurs peuvent se décomposer comme la somme de trois vecteurs. Mais formellement, tout ce que tu sais faire en 2D, il faudra le redémontrer en 3D.

Puis supposons que l’espace ne suffise pas, tu as besoin de 4 dimensions, il faudra refaire le même cheminement etc…

Puis si ça se trouve, tu veux définir une autre somme que celle qu’on a l’habitude de voir, mais fondamentalement ça ne change pas grand chose. Par exemple, si tu définis la nouvelle somme :

$\vec{u}+\vec{v} := (u_1 + v_1, u_2 + 2 \times v_2)$

Alors tu peux toujours décomposer n’importe quel vecteur comme la somme de deux vecteurs :

$(u_1,u_2) = u_1 \cdot (1,0) + u_2 \cdot (0,\frac{1}{2})$

Bref, tu vois que finalement, on peut manipuler les vecteurs dans des contextes bien différents et pourtant on garde beaucoup de propriétés et de thèorèmes. Donc au lieu de les redémontrer dans chaque contexte, on va essayer de se donner une théorie un peu plus générale. Dans notre cas, c’est la théorie des espaces vectoriels.

Pour se faire, on abstrait donc toutes nos opérations : on dit qu’on a des vecteurs, une opération "$+$" sur nos vecteurs, on se donne un corps (un ensemble de nombre comme les réels qui ont de bonnes propriétés) et une opération "$\cdot$" qui prend un élément de ce corps, un vecteur et qui donne un nouveau vecteurs et enfin on se donne un certains nombres de propriétés sur nos vecteurs tel que l’addition doit être commutative. Puis avec tout ce bagage, on regarde ce que l’on peut démontrer. Intervienne alors les notions de dimensions (plus générale que ce que tu as en tête), de base etc…

Maintenant, tu retournes à ton plan 2D et les vecteurs que tu connnais bien. Si tu peux montrer que ton plan munis de tes vecteurs forment un espace vectoriel, alors tu vas hériter de tous les thèorèmes connus dans la théorie des espaces vectoriels.

Bref, l’idée des espaces vectoriels est d’abstraire la notion de vecteur que tu avais en tête.

Maintenant, ce qu’on appelle linéaire, c’est parce que les mathématiciens adorent transformer les objets (en l’occurence des vecteurs) et c’est transformations ici sont des fonctions.

Par exemple, je peux créer la fonction $f$ qui multiplie par deux la seconde coordonnée (dans le cadre du plan 2D) :

$f((u_1,u_2)) = (u_1, 2 \times u_2)$

mais je pourrais aussi créer la fonction $g$ qui fait l’opération suivante :

$g((u_1,u_2)) = (u_1 +1, u_1 \times u_2)$

mais on va voir que $f$ est un peu plus intéressante que $g$. En effet, on a définit nos opérations sur nos vecteurs, mais que se passe-t-il quand on applique $f$ à une somme de vecteur, autrement dit, que peux-t-on dire de

$f(\vec{u}+\vec{v})$

Il se trouve que si tu fais le cacul, tu remarqueras la chose suivante :

$f(\vec{u}+\vec{v}) = f(\vec{u}) + f(\vec{v})$

Ce qui est un peu magique. En fait, ce genre de propriété est hyper intéressant car elle te permet de simplifier des calculs et donc de prouver des choses un peu plus intéressantes. On dit aussi que $f$ est compatible avec la somme.

De façon analogue, tu peux montrer que

$f(\lambda \cdot \vec{u}) = \lambda \cdot f(\vec{u})$

Et donc $f$ est aussi compatible avec la multiplication par un scalaire ! Lorsque une fonction est compatible à la fois avec l’addition et la multiplication par un scalaire on dit qu’elle est linéaire. Et il se trouve que dans le milieu on parle d’application plus que de fonction (la différence est subtile mais ce n’est pas le propos), et donc on parle d’application linéaire.

Quand on a une structure mathématique (ici un espace vectoriel, mais il existe aussi les groupes, les corps, etc…), on s’intéresse très souvent à des transformations qui préservent leur structure.

Tu as certainement vu ça en géométrie quand tu as vu les rotations, les translations et les homothétie.

Ces transformations ont le bon goût de transformer un carré en un carré, un losange en un losange etc… Les deux premières sont encore même plus puissantes car elle préservent les longueurs.

Bref, des transformations qui préservent la structure des objets c’est très souvent le dada des mathématiciens. Dans le cadre des espaces vectoriels, les objets sont nos vecteurs, et leur structure sont la somme et la multiplication par un scalaire.

J’ai fait un peu plus long que ce que je pensais, mais c’est quelque chose que je n’avais pas du tout compris quand on m’avait enseigné les espaces vectoriels.

Merci à tous pour vos éclaircissement, je comprends mieux vecteur et espace vectoriel, les dimensions et l’abstraction de la notion.

Concernant la linéarité :

Et donc $f$ est aussi compatible avec la multiplication par un scalaire ! Lorsque une fonction est compatible à la fois avec l’addition et la multiplication par un scalaire on dit qu’elle est linéaire. — Saroupille

Très bien, mais pourquoi l’usage du terme linéaire ? Je ne trouve pas qu’elle est approprié… si je peux concevoir à la limite l’homothétie et la translation comme linéaire, je ne peux pas le concevoir pour la rotation

Banni

Les translations ne sont pas des transformations linéaires en général. J’imagine que la raison est que ça préserve les combinaisons linéaires ($f(3x+2y) = 3f(x)+2f(y)$). Après pourquoi ce mot ? C’est vrai qu’on pourrait vouloir que « application linéaire » = préserve la relation d’alignement des points…

Mais ne t’en fais pas trop pour les termes utilisés, il n’y a pas toujours de bonne justification. Si tu veux dire transformation vectorielle, combinaison vectorielle, je pense que ça se comprend, mais ça fait douter et je pense que ceux qui sont habitués n’ont en général pas envie de changer.

Pour « transformation affine », « espace affine », je sais encore moins justifier.

Connectez-vous pour pouvoir poster un message.
Connexion

Pas encore membre ?

Créez un compte en une minute pour profiter pleinement de toutes les fonctionnalités de Zeste de Savoir. Ici, tout est gratuit et sans publicité.
Créer un compte