Sauter au contenu

Section 1 Définition et premiers exemples

Définition 1.1.

Un \(\K\)-espace vectoriel est un ensemble \(E\neq \emptyset\) muni de deux opérations

  • Une addition interne \((u,v)\in E\times E \mapsto u+v\in E\) qui vérifie les propriétés suivantes:

    • (A1) (Associativité) \(\forall u,v,w\in E, (u+v)+w=u+(v+w)\text{;}\)

    • (A2) (Element neutre) Il existe un élément \(0_E\in E\) tel que

      \begin{equation*} \forall u \in E, u+0_E=0_E+u=u; \end{equation*}
    • (A3) (Opposé) Chaque élément \(u\in E\) a un opposé:

      \begin{equation*} \forall u \in E,\exists u'\in E,u+u'=0_E; \end{equation*}
    • (A4) (Commutativité) \(\forall u,v\in E, u+v=v+u\text{.}\)

  • Une multiplication externe \((\lambda,u)\in\K\times E \mapsto \lambda u\in E\) qui vérifie les propriétés:

    • (M1) Pour tout \(u\in E\text{,}\) \(1\cdot u = u\text{;}\)

    • (M2) Pour tous \(\lambda,\mu\in \K\text{,}\) \((\lambda \mu)u=\lambda(\mu\cdot u)\)

    • (M3) Pour tous \(\lambda,\mu\in \K\text{,}\) pour tout \(u\in E\text{,}\) \((\lambda+\mu)u=\lambda u+\mu u\text{;}\)

    • (M4) Pour tout \(\lambda \in \K\text{,}\) pour tous \(u,v\in E\text{,}\) \(\lambda(u+v)=\lambda u+ \lambda v\text{.}\)

Les élements de \(E\) sont appelés les vecteurs, les éléments de \(\K\) sont appelés les scalaires.

L'élément \(0_E\) est appelé le vecteur nul.

L'opposé d'un vecteur \(u\in E\) est noté \(-u\text{.}\)

Quelques exemples un peu triviaux 1 :

  • \(\R\) est un \(\R\)-espace vectoriel. De même, \(\C\) est un \(\C\)-espace vectoriel.

  • Plus tordu: \(\C\) est un \(\R\)-espace vectoriel mais \(\R\) n'est pas un \(\C\)-espace vectoriel !

  • En revanche, \(\Z\) n'est pas un \(\R\)-espace vectoriel: \(\Z\) est muni d'une addition interne, mais, si on multiplie un élément de \(\Z\) par un réel \(\lambda\text{,}\) on n'obtient pas nécessairement un élément de \(\Z\text{.}\)

Sous-section 1.1 Exemples fondamentaux

Voyons tout de suite comment toutes sortes d'ensembles que vous connaissez déjà rentrent dans ce cadre:

✑ Pour chacun des exemples ci-dessous, donnez quelques exemples d'éléments de ces ensembles, puis essayez de les sommer et de les multiplier par un scalaire 2 .

Exemple 1.1. \(\R^2=\{(x,y), x\in \R, y \in \R\}\).

Le plan \(\R^2=\{(x,y), x\in \R, y \in \R\}\) est un \(\R\)-espace vectoriel:

  • L'addition sur \(\R^2\) est donnée par

    \begin{equation*} \forall (x,y),(x',y') \in \R^2, \ (x,y)+(x',y')=(x+x',y+y') \end{equation*}

    \(\leadsto\) Cette opération vérifie les propriétés (A1)-(A4).

  • La multiplication externe est donnée par

    \begin{equation*} \forall (x,y)\in \R^2,\forall \lambda\in \R, \lambda(x,y)=(\lambda x, \lambda y) \end{equation*}

    \(\leadsto\) Cette opération vérifie les propriétés (M1)-(M4).

  • Le vecteur nul de \(\R^2\) est \(0_{\R^2}=(0,0)\text{.}\)

  • L'opposé de \((x,y)\) est \((-x,-y)\text{.}\)

Exemple 1.2. \(\R^n=\{(x_1,\ldots,x_n), x_i\in \R\ \forall i=1,\ldots,n\}\).

De même, \(\R^n\) est un espace vectoriel:

  • L'addition sur \(\R^n\) est définie en sommant coefficient par coefficient:

    \begin{equation*} (x_1,\ldots,x_n)+(x_1',\ldots,x_n')=(x_1+x_1',\ldots,x_n+x_n') \end{equation*}

    \(\leadsto\) Cette opération vérifie les propriétés (A1)-(A4).

  • La multiplication externe par un scalaire \(\lambda\) est donnée par

    \begin{equation*} \lambda (x_1,\ldots,x_n)= (\lambda x_1,\ldots,\lambda x_n) \end{equation*}

    \(\leadsto\) Cette opération vérifie les propriétés (M1)-(M4).

  • Le vecteur nul est \(0_{\R^n}=(0,\ldots,0)\text{.}\)

  • L'opposé de \((x_1,\ldots,x_n)\) est \((-x_1,\ldots,-x_n)\text{.}\)

Exemple 1.3. Matrices de tailles \(n\times p\) à coefficients dans \(\K\).

L'ensemble des matrices de tailles \(n\times p\) à coefficients dans \(\K\text{,}\) noté \(\mathcal M_{n,p}(\K)\text{,}\) est un \(\K\)-espace vectoriel: l'addition et la multiplication par un scalaire sur \(\mathcal M_{n,p}(\K)\) sur ont été décrites au chapitre précédent.

Le vecteur nul de \(\mathcal M_{n,p}(\K)\) est la matrice de taille \(n\times p\) dont tous les coefficients sont nuls (on l'a notée \(0_{n,p}\) au chapitre précédent).

L'opposé de la matrice \(A\) est, sans grande surprise, la matrice \(-A\text{.}\)

⚠ L'ensemble de toutes les matrices n'est pas un espace vectoriel:

On ne peut pas sommer

\begin{equation*} \begin{pmatrix} 1\amp 2\\3\amp 158 \end{pmatrix} \text{ et } \begin{pmatrix} 2\amp 6\amp 8\amp 9\amp 26\\1\amp 4\amp 5\amp 2\amp 6 \end{pmatrix} \end{equation*}

Exemple 1.4. Polynômes à coefficients dans \(\K\).

On notera \(\K[X]\) l'ensemble des polynômes à coefficients dans \(\K\text{.}\) Cet ensemble aussi est un \(\K\)-espace vectoriel.

  • Soient \(P=\sum_{k=0}^{\deg(P)} a_k X^k\) et \(Q=\sum_{k=0}^{\deg(Q)} b_k X^k\) deux polynômes de \(\K[X]\text{.}\) L'addition sur \(\K[X]\) est donnée par

    \begin{equation*} P+Q=\sum_{k=0}^{\deg(P)} a_k X^k+\sum_{k=0}^{\deg(Q)} b_k X^k=\sum_{k=0}^{\max(\deg(P),\deg(Q))} (a_k+b_k) X^k \end{equation*}

    \(\leadsto\) 3  Cette opération vérifie les propriétés (A1)-(A4).

  • Soient \(P=\sum_{k=0}^{\deg(P)} a_k X^k\) un polynôme de \(\K[X]\) et \(\lambda\in\K\) un scalaire. La multiplication externe est donnée par

    \begin{equation*} \lambda P= \lambda \sum_{k=0}^{\deg(P)} a_k X^k= \sum_{k=0}^{\deg(P)} (\lambda a_k) X^k \end{equation*}

    \(\leadsto\) Cette opération vérifie les propriétés (M1)-(M4).

  • Le vecteur nul de \(\K[X]\) est le polynôme dont tous les coefficients sont nuls: c'est donc le polynôme constant égal à 0.

    \begin{equation*} 0_{\K[X]}=0+0X+\ldots \end{equation*}

Exemple 1.5. L'ensemble \(\R^\N\) des suites réelles.

L'ensemble des suites réelles est un \(\R\)-espace vectoriel:

  • L'addition sur \(\R^\N\) est définie comme suit:

    La somme de deux suites \(u=(u_n)_{n\in \N},\ v=(v_n)_{n\in \N}\) est la suite \(w=(w_n)_n\) donnée par

    \begin{equation*} \forall n\in \N,\ w_n=u_n+v_n \in\R \end{equation*}

    \(\leadsto\) Cette opération vérifie les propriétés (A1)-(A4).

  • Pour \(\lambda \in \R\) et \(u=(u_n)_n \in \R^\N\text{,}\) la multiplication externe est la suite \(v =\lambda u\) donnée par

    \begin{equation*} \forall n\in \N,\ v_n=\lambda u_n \in\R \end{equation*}

    \(\leadsto\) Cette opération vérifie les propriétés (M1)-(M4).

  • Le vecteur nul est la suite dont tous les termes sont nuls: \(u=0_{\R^\N}\iff \forall n \in \N u_n=0\text{.}\)

⚠ Ne pas confondre le réel 0 et la suite nulle \(0_{\R^\N}\text{,}\) qui est, eh bien, une longue suite de zéros !

Une autre remarque: en quelque sorte, une suite \((x_n)_n\) est un "vecteur avec une infinité de coordonnées": \((x_0,x_1,x_2,...)\text{.}\)

Par exemple, la suite \(x=(x_n)_n\) définie, pour tout \(n\in \N\text{,}\) par \(x_n=\dfrac1{n+1}\) donne le "vecteur" \((1,\frac12,\frac13,...)\text{.}\)

La suite \(y=(y_n)_n\) définie par \(y_n=2^n\) donne le "vecteur" \((1,2,4,8,...)\text{.}\)

✑ Que donne alors \(x+y\) ? et \(3x\) ?

Exemple 1.6. L'ensemble \(\R^\R\) des fonctions \(\R\rightarrow \R\).

L'ensemble des fonctions réelles d'une variable réelle est un \(\R\)-espace vectoriel:

  • L'addition sur \(\R^\R\) est donnée, pour tous \(\forall f,g: \R \rightarrow \R \text{,}\) par

    \begin{equation*} f+g:x\in \R \mapsto f(x)+g(x)\in\R \end{equation*}

    \(\leadsto\) Cette opération vérifie les propriétés (A1)-(A4).

  • La multiplication externe est donnée, pour \(\lambda \in \R\text{,}\) et \(f:\R\rightarrow \R\) par

    \begin{equation*} \lambda f: x\in \R \mapsto \lambda f(x)\in \R \end{equation*}

    \(\leadsto\) Cette opération vérifie les propriétés (M1)-(M4).

  • Le vecteur nul est la fonction constante égale à \(0_{\R^\R}: x\in \R \mapsto 0 \in \R\text{.}\)

⚠ Ne pas confondre le réel 0 et la fonction nulle \(0_{\R^\R}\text{,}\) qui est, eh bien, une fonction !

Dans le même ordre d'idées, attention à ne pas confondre les réels \(f(x),\lambda f(x), f(x)+g(x)\) avec les fonctions \(f,\lambda f, f+g\text{.}\)

Sous-section 1.2 Propriétés de base

En plus des axiomes(A1)-(A4), (M1)-(M4) qui définissent les espaces vectoriels, voyons quelques propriétés qui en découlent et sont donc communes à tous les espaces vectoriels:

Comme on va le voir, la démonstration n'utilise que les axiomes de la définition.

C'est ce qui garantit que ces propriétés, sont communes à tous les espaces vectoriels, que leurs éléments soient des suites, des polynômes, des couples de réels....

Démonstration

  1. ✑ Démontrer la première propriété en utilisant uniquement (M3), (A4), (A2) et le fait fascinant que 0+0=0.

    Spoiler.

    Soit \(u\in E\text{.}\) Dans \(\K\text{,}\) on a \(0+0=0\) donc \((0+0)u=0u\text{.}\) Par (M3), on a donc \(0u+0u=0u\text{.}\)

    Or, par (A4), le vecteur \(0u\) a un opposé \(-0u\) qui donne

    \begin{equation*} 0u+\underbrace{0u+(-0u)}_{0_E}=\underbrace{0u+(-0u)}_{0_E} \text{ i.e. } 0u+0_E=0_E \end{equation*}

    autrement dit, par (A2), \(0u=0_E\text{.}\)

  2. ✑ Démontrer la deuxième propriété.

    Indication.

    Utiliser (M4), (A4) et le fait que \(0_E+0_E=0_E\) 4 

    Spoiler.

    Soit \(\lambda\in \K\text{.}\) Dans \(E\) on a \(0_E+0_E=0_E\text{,}\) donc, par (M4),

    \begin{equation*} \lambda(0_E+0_E)=\lambda0_E+\lambda0_E=\lambda0_E. \end{equation*}

    En ajoutant l'opposé \(-\lambda0_E\) donné par (A4), on obtient bien \(\lambda0_E=0_E\text{.}\)

  3. ✑ Montrer que \((-1)u\) est l'opposé de \(u\text{.}\)

    Indication.

    Utiliser (M1) et (M3).

    Spoiler.

    On a, par (M1) et (M3)

    \begin{equation*} (-1)u+u=1u+(-1)u=(1+(-1))u=0u=0_E \end{equation*}

    comme souhaité.

  4. ✑ Montrer cette équivalence (l'une des implications a déjà été faite !)

    Indication.

    Pour l'implication qui n'a pas encore été faite, utiliser (M2) et (M1).

    Spoiler.

    Procédons par double implication.

    \({\color{blue}{\Rightarrow}}\) Soient \(\lambda\in \K, u\in E\) tels que \(\lambda u=0_E\text{.}\)

    • Si \(\lambda =0_E\text{,}\) on a gagné !

    • Si \(\lambda\neq 0\text{,}\) on a

      \begin{equation*} \frac1 \lambda(\lambda u)= \frac 1 \lambda 0_E = 0_E. \end{equation*}

      Or par (M2) et (M1), \(\frac1 \lambda (\lambda u)= (\frac 1 \lambda \lambda )u = 1u =u\text{,}\) d'où \(u=0_E\text{.}\)

    On a donc bien \(\lambda=0\) ou \(u=0_E\text{.}\)

    \({\color{blue}{\Leftarrow}}\) a été fait en 1. et 2.

Sous-section 1.3 Combinaisons linéaires

Soit \(E\) un \(\K\)-espace vectoriel.

Prenons une poignée de vecteurs dedans: \(v_1,v_2,v_3,v_4,v_5\text{.}\)

Puisque \(E\) est un espace vectoriel, on peut multiplier \(v_1\) par un scalaire, par exemple 3, ce qui donne le vecteur \(3v_1 \in E\text{.}\)

On peut multiplier \(v_2\) par \(\sqrt{2}\text{,}\) et obtenir \(\sqrt{2}v_2\in E\text{.}\)

Et on peut sommer les deux, ce qui donne un nouveau vecteur \(3v_1 + \sqrt{2}v_2 \in E\text{.}\) Et on continue ainsi, pour obtenir par exemple

\begin{equation*} 3v_1 + \sqrt{2}v_2 + 0.5v_3+\pi v_5 \end{equation*}

qui est aussi un vecteur de \(E\text{.}\) C'est une façon importante de faire de nouveaux vecteurs à partir d'anciens, et on va lui donner un nom:

Définition 1.4.

Soient \(u_1,\ldots,u_p\) et \(v\) des vecteurs de \(E\text{.}\) On dit que \(v\) est combinaison linéaire de \(u_1,\ldots,u_p\) s'il existe \(p\) scalaires \(\lambda_1,\ldots,\lambda_p\) tels que

\begin{equation*} v=\lambda_1 u_1 + \ldots + \lambda_p u_p \end{equation*}

\(\leadsto\) Cette manière d'exprimer un vecteur \(v\in E\) en fonction d'autres vecteurs \(u_1,\ldots,u_p\) n'a l'air de rien, mais comme on va le voir, elle est au centre de la plupart des constructions d'algèbre linéaire. Voyons donc quelques exemples:

Exemple 1.7.

  1. Dans \(\R^2\text{,}\)

    \begin{equation*} \begin{pmatrix}2\\3\end{pmatrix}=2\begin{pmatrix}1\\1\end{pmatrix}+\begin{pmatrix}0\\1\end{pmatrix} \end{equation*}

    donc \((2,3)\) est combinaison linéaire de \((1,1)\) et \((0,1)\text{.}\)

    Tout vecteur qui est combinaison linéaire de \((1,1)\) et \((0,1)\) s'écrit

    \begin{equation*} \lambda_1 \begin{pmatrix}1\\1\end{pmatrix}+\lambda_2\begin{pmatrix}0\\1\end{pmatrix} = \begin{pmatrix}\lambda_1\\\lambda_1+\lambda_2\end{pmatrix} \end{equation*}

    ✑ Est-ce que le vecteur \((-23, 1)\) est combinaison linéaire de \((1,1)\) et \((0,1)\) ?

    Spoiler.

    Si c'est le cas, c'est qu'il existe deux scalaires \(\lambda_1\) et \(\lambda_2\) tels que

    \begin{equation*} \lambda_1 \begin{pmatrix}1\\1\end{pmatrix}+\lambda_2\begin{pmatrix}0\\1\end{pmatrix} = \begin{pmatrix}\lambda_1\\\lambda_1+\lambda_2\end{pmatrix} = \begin{pmatrix}-23\\1\end{pmatrix} \end{equation*}

    ce qui revient à dire

    \begin{equation*} \begin{cases} \lambda_1 = -23\\\lambda_1+\lambda_2=1 \end{cases} \end{equation*}

     5  Ceci équivaut à \(\lambda_1=-23\) et \(\lambda_2=24\text{.}\)

    Donc \(\begin{pmatrix}-23\\1\end{pmatrix} = -23\begin{pmatrix}1\\1\end{pmatrix} + 24 \begin{pmatrix}0\\1\end{pmatrix}\) : le vecteur \((-23, 1)\) est bien combinaison linéaire de \((1,1)\) et \((0,1)\text{.}\)

  2. ✑ Dans \(\R^3\text{,}\) est-ce que le vecteur \((1,2,3)\) est combinaison linéaire de \((1,1,0)\) et \((0,1,1)\) ?

    Spoiler.

    Si c'est le cas, il doit exister deux scalaires \(\lambda_1\) et \(\lambda_2\) tels que

    \begin{equation*} \lambda_1 \begin{pmatrix} 1\\1\\0\end{pmatrix}+ \lambda_2\begin{pmatrix} 0\\1\\1\end{pmatrix} = \begin{pmatrix} \lambda_1\\\lambda_1+\lambda_2\\\lambda_2\end{pmatrix}=\begin{pmatrix} 1\\2\\3\end{pmatrix} \end{equation*}

    autrement dit

    \begin{equation*} \begin{cases} \lambda_1=1\\\lambda_1+\lambda_2=2\\\lambda_2=3 \end{cases} \iff \begin{cases} \lambda_1=1\\\lambda_2=1\\\lambda_2=3 \end{cases} \iff \begin{cases} \lambda_1=1\\\lambda_2=1\\0=2 \end{cases} \end{equation*}

    Ce système linéaire n'admet pas de solution. Il n'existe donc pas de scalaires \(\lambda_1\) et \(\lambda_2\) qui marchent!

    \((1,2,3)\) n'est pas combinaison linéaire de de \((1,1,0)\) et \((0,1,1)\text{.}\)

  3. Dans \(\R[X]\text{,}\) le polynôme \(P(x)=3x^2 + 4x+ 1\) est combinaison linéaire de \(P_0(x)=1\text{,}\) \(P_1(x)=x+3\) et \(P_2(x)=x^2\text{.}\) En effet,

    \begin{equation*} P(x)= 3x^2 + 4(x+3)- 11 = 3P_2(x)+4P_1(x)-11P_0(x) \end{equation*}
  4. Dans l'e.v. \(\R^\R\) des fonctions de \(\R\) dans \(\R\text{,}\) considérons la fonction \(f:x\in\R\mapsto \sin(x+3)\text{.}\) Pour tout \(x\in \R\text{,}\)

    \begin{equation*} \sin(x+3)=\sin(x)\cos(3)+\sin(3)\cos(x) \end{equation*}

    or, \(\sin(3)\) et \(\cos(3)\) sont des scalaires, donc \(f\) est combinaison linéaire des fonctions \(\sin\) et \(\cos\text{.}\)

à méditer tout de même !
Pensez aussi aux réels négatifs !
Tous en choeur !
Au fait, pourquoi ?
Ca alors ! Un système linéaire !