Voici ma compréhension qui est un gros résumé de ce qui a été déjà dit.
Tu apprends au collège à manipuler des vecteurs. Dans le plan, un vecteur est un couple de nombre que tu écris ainsi $(x,y)$ par exemple. Puis quand tu as deux vecteurs, tu peux chercher à les additionner : soit $\vec{u}$ le vecteur $(u_1,u_2)$ et $\vec{v}$ le vecteur $(v_1,v_2)$, on définit la somme de vecteur comme
$\vec{u}+\vec{v} := (u_1 + v_1, u_2 + v_2)$
De la même manière, tu peux définir le produit d’un vecteur par un nombre que l’on appelle généralement scalaire (pour une raison que j’ignore d’ailleur) : soit $\lambda$, un nombre,
$\lambda \cdot \vec{u} := (\lambda \times u_1, \lambda \times u_2)$
Je dis nombre car le monde dans lequel vit $\lambda$ n’est pas fixe et dépend des applications. En général, on se situe dans le monde réel.
Bon, très bien avec ces deux opérations, on peut faire des super choses dans le plan 2D : on peut montrer par exemple que n’importe quel vecteur $\vec{u}$ peut s’exprimer comme la somme de deux vecteurs :
$(u_1,u_2) = u_1 \cdot (1,0) + u_2 \cdot (0,1)$
Mais qu’est-ce qui se passe dans l’espace 3D ? Tu peux toujours définir des vecteurs comme étant des triplets $(x,y,z)$, tu peux redéfinir une somme, un produit. Et tu peux obtenir un théorème très similaire qui dit que tes vecteurs peuvent se décomposer comme la somme de trois vecteurs. Mais formellement, tout ce que tu sais faire en 2D, il faudra le redémontrer en 3D.
Puis supposons que l’espace ne suffise pas, tu as besoin de 4 dimensions, il faudra refaire le même cheminement etc…
Puis si ça se trouve, tu veux définir une autre somme que celle qu’on a l’habitude de voir, mais fondamentalement ça ne change pas grand chose. Par exemple, si tu définis la nouvelle somme :
$\vec{u}+\vec{v} := (u_1 + v_1, u_2 + 2 \times v_2)$
Alors tu peux toujours décomposer n’importe quel vecteur comme la somme de deux vecteurs :
$(u_1,u_2) = u_1 \cdot (1,0) + u_2 \cdot (0,\frac{1}{2})$
Bref, tu vois que finalement, on peut manipuler les vecteurs dans des contextes bien différents et pourtant on garde beaucoup de propriétés et de thèorèmes. Donc au lieu de les redémontrer dans chaque contexte, on va essayer de se donner une théorie un peu plus générale. Dans notre cas, c’est la théorie des espaces vectoriels.
Pour se faire, on abstrait donc toutes nos opérations : on dit qu’on a des vecteurs, une opération "$+$" sur nos vecteurs, on se donne un corps (un ensemble de nombre comme les réels qui ont de bonnes propriétés) et une opération "$\cdot$" qui prend un élément de ce corps, un vecteur et qui donne un nouveau vecteurs et enfin on se donne un certains nombres de propriétés sur nos vecteurs tel que l’addition doit être commutative. Puis avec tout ce bagage, on regarde ce que l’on peut démontrer. Intervienne alors les notions de dimensions (plus générale que ce que tu as en tête), de base etc…
Maintenant, tu retournes à ton plan 2D et les vecteurs que tu connnais bien. Si tu peux montrer que ton plan munis de tes vecteurs forment un espace vectoriel, alors tu vas hériter de tous les thèorèmes connus dans la théorie des espaces vectoriels.
Bref, l’idée des espaces vectoriels est d’abstraire la notion de vecteur que tu avais en tête.
Maintenant, ce qu’on appelle linéaire, c’est parce que les mathématiciens adorent transformer les objets (en l’occurence des vecteurs) et c’est transformations ici sont des fonctions.
Par exemple, je peux créer la fonction $f$ qui multiplie par deux la seconde coordonnée (dans le cadre du plan 2D) :
$f((u_1,u_2)) = (u_1, 2 \times u_2)$
mais je pourrais aussi créer la fonction $g$ qui fait l’opération suivante :
$g((u_1,u_2)) = (u_1 +1, u_1 \times u_2)$
mais on va voir que $f$ est un peu plus intéressante que $g$. En effet, on a définit nos opérations sur nos vecteurs, mais que se passe-t-il quand on applique $f$ à une somme de vecteur, autrement dit, que peux-t-on dire de
$f(\vec{u}+\vec{v})$
Il se trouve que si tu fais le cacul, tu remarqueras la chose suivante :
$f(\vec{u}+\vec{v}) = f(\vec{u}) + f(\vec{v})$
Ce qui est un peu magique. En fait, ce genre de propriété est hyper intéressant car elle te permet de simplifier des calculs et donc de prouver des choses un peu plus intéressantes. On dit aussi que $f$ est compatible avec la somme.
De façon analogue, tu peux montrer que
$f(\lambda \cdot \vec{u}) = \lambda \cdot f(\vec{u})$
Et donc $f$ est aussi compatible avec la multiplication par un scalaire ! Lorsque une fonction est compatible à la fois avec l’addition et la multiplication par un scalaire on dit qu’elle est linéaire. Et il se trouve que dans le milieu on parle d’application plus que de fonction (la différence est subtile mais ce n’est pas le propos), et donc on parle d’application linéaire.
Quand on a une structure mathématique (ici un espace vectoriel, mais il existe aussi les groupes, les corps, etc…), on s’intéresse très souvent à des transformations qui préservent leur structure.
Tu as certainement vu ça en géométrie quand tu as vu les rotations, les translations et les homothétie.
Ces transformations ont le bon goût de transformer un carré en un carré, un losange en un losange etc… Les deux premières sont encore même plus puissantes car elle préservent les longueurs.
Bref, des transformations qui préservent la structure des objets c’est très souvent le dada des mathématiciens. Dans le cadre des espaces vectoriels, les objets sont nos vecteurs, et leur structure sont la somme et la multiplication par un scalaire.
J’ai fait un peu plus long que ce que je pensais, mais c’est quelque chose que je n’avais pas du tout compris quand on m’avait enseigné les espaces vectoriels.