Sauter au contenu

Section 2 Sous-espaces vectoriels

Sous-section 2.1 Définition et première pelletée d'exemples

Il est possible qu'un sous-ensemble d'un espace vectoriel soit lui-même un espace vectoriel. Cela se produit dans le cas suivant:

Définition 2.1.

Soit \(E\) un \(\K\)-e.v. Une partie \(F\subset E\) est un sous-espace vectoriel de \(E\) si

  1. \(\displaystyle F\neq \emptyset\)

  2. \(\forall u,v \in F\text{,}\) \(u+v\in F\)

  3. \(\forall u \in F, \forall \lambda \in \K\text{,}\) \(\lambda u \in F\text{.}\)

Remarque 2.2.

On peut alors restreindre les opérations sur \(E\) se restreignent à \(F\text{,}\) car elles sont donc à valeurs dans \(F\text{:}\)

\begin{align*} (u,v)\in F\times F \amp \mapsto u+v \in F \\ (\lambda,u)\in\K\times F \amp \mapsto \lambda u \in F \end{align*}

\(\leadsto\) On vérifie que \(F\text{,}\) avec ces deux opérations, est alors lui-même un \(\K\)-espace vectoriel. Son vecteur nul est \(0_F=0_E\text{.}\)

En effet, on a:

Démonstration

Par (1), \(F\neq \emptyset\text{,}\) donc il existe un \(u\in F\text{.}\) Mais alors, par (3), \(0 u = 0_E \in F\text{.}\)

Remarque 2.4.

Souvent, la paresse prendra le dessus, et on écrira s.e.v au lieu de "sous-espace vectoriel".

On a un critère un peu plus court pour vérifier qu'un sous-ensemble de \(E\) est un sous-espace vectoriel.

Démonstration

On procède par double implication:

  • \(\Rightarrow\)Supposons que \(F\) est un sous-espace vectoriel de \(E\text{.}\)

    On a vu à la Proposition 2.3 que \(0_E\in F\text{.}\)

    Soient \(u,v \in F\text{,}\) \(\lambda\in \K\text{.}\) Puisque \(F\) est un sous-espace vectoriel, on a successivement

    • \(\displaystyle v \in F,\ \lambda\in \K \leadsto \lambda v\in F\)

    • \(u \in F, \lambda v\in F \leadsto u+\lambda v\in F\text{,}\) ce qu'il fallait démontrer.

  • \(\Leftarrow\) Supposons que \(F\) vérifie les deux propriétés.

    1. \(0_E\in F\) donc \(F\) n'est pas vide.

    2. Soient \(u,v \in F\text{.}\) En utilisant la propriété 2 avec \(\lambda=1\text{,}\) on trouve que \(u+v\in F\text{.}\)

    3. Soit \(v\in F\) , \(\lambda\in \K\text{.}\) En utilisant la propriété 2 avec \(u=0_E\in F\text{,}\) on trouve que \(\lambda v\in F\text{.}\)

    \(\leadsto\) \(F\) est un sous-espace vectoriel de \(E\text{.}\)

Exemple 2.1. Deux sous-espace vectoriels universels.

  • \(\{0_E\}\) est un s.e.v. de \(E\) 1 .

  • \(E\) est un s.e.v. de \(E\) 2 .

Exemple 2.2. Un sous-espace vectoriel de \(\R^2\).

\(F=\{(x,y)\in \R^2,2x+3y=0\}\) est un s.e.v. de \(\R^2\text{.}\)

Figure 2.6. Source: https://www.geogebra.org/m/ameab5xz

En effet,

  • \(0_{\R^2}=(0,0)\) vérifie \(2*0+3*0=0\) donc \(0_{\R^2}\in F\text{.}\)

  • Soient \(u_1=(x_1,y_1),u_2=(x_2,y_2)\in F, \lambda\in\K\text{.}\) Alors \(u_1+\lambda u_2 = (x_1 +\lambda x_2, y_1 + \lambda y_2)\) vérifie

    \begin{equation*} 2(x_1 +\lambda x_2)+ 3(y_1 + \lambda y_2) = \underbrace{(2x_1+3y_1)}_{=0 \text{ car } u_1\in F} + \lambda \underbrace{(2x_2 + 3y_2)}_{=0 \text{ car } u_2 \in F}=0 \end{equation*}

    donc \(u_1+\lambda u_2 \in F\text{.}\)

\(\leadsto F\) est un sous-espace vectoriel.

Exemple 2.3. Deux contre-exemples.

  1. \(P=\{(x,y,z)\in\R^3, x+y+z=3\}\) n'est pas un sous-espace vectoriel de \(\R^3\) puisque \(0_{\R^3}\notin P\text{.}\)

    \(P\) ne vérifie pas non plus la seconde condition: essayer avec \(u=(1,1,1), v=(0,0,3)\) et \(\lambda=2\text{.}\)

  2. \(A = \{(x,y)\in \R^2, x\leq y\}\) n'est pas un s.e.v. de \(\R^2\text{.}\) En effet, \(u=(-1,1)\in A\) mais, en prenant \(\lambda = -1\text{,}\) on a \(\lambda u = (1,-1) \notin A\text{.}\)

Exemple 2.4. Un sous-espace vectoriel de \(\R^p\).

Soit \(A\in \mathcal M_{n,p}(\R)\text{.}\) Alors l'ensemble des solutions du système homogène

\begin{equation*} H=\{X\in \R^p, AX=0_{\R^n}\} \end{equation*}

est un s.e.v. de \(\R^p\text{.}\) En effet:

  • \(0_{\R^p}\) vérifie \(A 0_{\R^p}=0_{\R^n}\) donc \(0_{\R^p}\in H\text{.}\)

  • Soient \(X,X'\in H\) et \(\lambda \in H\text{.}\) Alors

    \begin{equation*} A(X+\lambda X')= AX + A(\lambda X') = AX+ \lambda AX'=0_{\R^n}+\lambda 0_{\R^n}=0_{\R^n}, \end{equation*}

    donc \(X+\lambda X'\in H\text{.}\)

\(\leadsto H\) sous-espace vectoriel.

Exemple 2.5. Dans l'ensemble des polynômes.

Rappelons que l'ensemble \(\R[X]\) des polynômes à coefficients réels est un espace vectoriel.

Considérons le sous-ensemble \(\mathcal P_n\) des polynômes de degré \(n\text{.}\)

✑ Ce sous-ensemble n'est pas un sous-espace vectoriel de \(\R[X]\) !

Spoiler 1.

Si \(n\geq 0,\) Considérons les polynômes \(P_1(X)=X^n+1\) et \(P_2(X)=-X^n\text{.}\) Alors \(P_1,P_2 \in \mathcal P_n\) mais \(P_1+P_2 = 1\) n'est pas un polynôme de degré \(n\text{,}\) donc \(\mathcal P_n\) n'est pas un sous-espace vectoriel.

Un exemple peut-être plus parlant: pour \(n=2\text{,}\) on a \(X^2+X+1 \in \mathcal P_2\) et \(-X^2+1\in \mathcal P_2\) mais \((X^2+X+1)+(-X^2+1)=X+2 \notin \mathcal P_2\text{.}\)

En fait, on aurait pu aller un peu plus vite en remarquant que pour \(n\geq0\text{,}\) le polynôme nul \(0_{\R[X]}\) n'appartient pas à \(\mathcal P_n\text{:}\) par convention, le degré du polynôme nul est \(-\infty\text{.}\) Curieux, je sais: plus d'informations ici 3 .

Regardons plutôt le sous-ensemble des polynômes de degré inférieur ou égal à \(n\), noté \(\R_n[X]\text{:}\)

\begin{align*} \R_n[X] \amp = \{P \in \R[X],\ \deg(P)\leq n\}\\ \amp =\{P=a_0+a_1X+\ldots + a_n X^n,\ a_0, a_1\ldots a_n\in \R\} \end{align*}

\(\leadsto\) Le coefficient \(a_n\) peut être nul, dans ce cas le polynôme est de degré \(\lt n\text{.}\)

Par exemple, \(X^3+X+1 \in \R_3[X]\text{,}\) mais aussi \(X^3 + X + 1 \in \R_38[X]\text{.}\)

\(\R_n[X]\) est un sous-espace vectoriel de \(\R[X]\text{.}\)

Spoiler 2.
  • Le polynôme nul \(0_{\R[X]}\) vérifie \(\deg 0_{\R[X]}=-\infty \leq n\text{,}\) donc \(0_{\R[X]}\in \R_n[X]\text{.}\)

  • Soient \(P_1,P_2 \in \R_n[X]\) deux polynômes de degré \(\leq n\text{,}\) et \(\lambda \in \R\) un scalaire. Alors

    \begin{align*} P_1\amp=a_0+a_1X+\ldots + a_n X^n\\ P_2\amp =b_0+b_1X+\ldots + b_n X^n\\ P_1+\lambda P_2 \amp = (a_0+\lambda b_0)+(a_1+\lambda b_1)X+\ldots + (a_n+ \lambda b_n)X^n\\ \amp \leadsto\ P_1+\lambda P_2 \in \R_n[X] \end{align*}

Donc \(\R_n[X]\) est bien un s.e.v. de \(\R[X]\text{.}\)

Exemple 2.6. Dans l'ensemble des matrices carrées.

Rappelons que l'ensemble \(\mathcal M_n(\R)\) des matrices carrées de taille \(n\times n\) à coefficients réels est un espace vectoriel.

Notons \(Sym_n(\R)\) le sous-ensemble des matrices symétriques 4 :

\begin{equation*} Sym_n(\R) = \{A\in \mathcal M_n(\R), {}^tA=A\}\subset \mathcal M_n(\R) \end{equation*}

\(Sym_n(\R)\) est un sous-espace vectoriel de \(\mathcal M_n(\R)\text{.}\)

Spoiler.
  • La matrice nulle \(0_{n,n}\) est symétrique: \({}^t0_{n,n}=0_{n,n}\text{,}\) donc \(0_{n,n}\in Sym_n(\R)\text{.}\)

  • Soient \(M_1,M_2 \in Sym_n(\R)\) deux matrices symétriques, et \(\lambda \in \R\) un scalaire. Alors, pour tous \(i,j=1,\ldots,n\)

    \begin{align*} {}^t(M_1+ \lambda M_2)\amp= {}^tM_1 + \lambda {}^t M_2\\ \amp = M_1 + \lambda M_2 \text{ car } M_1,M_2 \in Sym_n(\R)\\ \leadsto M_1 + \lambda M_2 \in Sym_n(\R) \end{align*}

Donc \(Sym_n(\R)\) est un sous-espace vectoriel de \(\mathcal M_n(\R)\text{.}\)

✑ En revanche, le sous-ensemble \(\mathcal{GL}_n(\R)\) des matrices inversibles n'est pas un sous-espace vectoriel.

Indication.

Quel élement doit contenir tout s.e.v. qui se respecte ?

Spoiler.

La matrice nulle \(0_{n,n}\) n'est pas inversible, comme on l'a vu ici 5 .

Exemple 2.7. Dans l'ensemble des suites réelles..

Rappelons que l'ensemble \(\R^\N\) des suites réelles est un espace vectoriel.

Vous connaissez peut-être la suite de Fibonacci

\begin{equation*} 0,1,1,2,3,5,8,13.... \end{equation*}

obtenue en partant de \(f_0=0,f_1=1\text{,}\) et à partir de là chaque terme est obtenu en sommant les deux précédents: pour tout \(n\geq 2\text{,}\) \(f_n=f_{n-1}+f_{n-2}\)

Plus généralement, on va s'intéresser à l'ensemble \(Fib\) de toutes les suites \((u_n)_n=(u_0,u_1,u_2,....)\) "de type Fibonacci", c'est-à-dire qui vérifient \(u_n=u_{n-1}+u_{n-2}\) pour tout \(n\geq 2\text{.}\)

La suite de Fibonacci \((f_n)_n\) appartient à \(Fib\text{,}\) mais aussi, par exemple, la suite

\begin{equation*} 1,\sqrt{2},1+\sqrt{2}, 1 + 2 \sqrt{2}, 2 + 3 \sqrt{2},... \end{equation*}

✑ Trouvez deux exemples de suites de \(Fib\text{.}\)

✑ Choisissez votre réel préféré, et multipliez l'une des deux suites par ce réel. Est-ce que le résultat appartient lui aussi à \(Fib\) ?

Spoiler 1.
Oui

Est-ce que ça marche avec un réel qui n'est pas votre préféré ?

Spoiler 2.
Oui, ça marche quand même.

✑ Maintenant, sommez ces deux suites. Est-ce que le résultat appartient lui aussi à \(Fib\) ?

Spoiler 3.

 6 \(Fib\) est un sous-espace vectoriel de \(\R^\N\text{.}\)

Spoiler 4.
  • La suite nulle \((z_n)_n\) définie par \(z_n=0\) pour tout \(n\) vérifie bien, pour tout \(n\geq 2\text{,}\)

    \begin{equation*} z_n = 0 = 0+0= z_{n-1}+z_{n-2} \end{equation*}

    donc le vecteur nul de \(\R^\N\) appartient à \(Fib\text{.}\)

  • Soient \(u=(u_n)_n, v=(v_n)_n\in Fib\) deux suites de type Fibonacci, et \(\lambda\in \R\) un scalaire. Alors, pour tout \(n\geq 2\text{,}\) le \(n\)-ième terme de la suite \(w=u+\lambda v\) est donné par

    \begin{align*} w_n \amp= u_n + \lambda v_n\\ \amp=(u_{n-1}+u_{n-2})+\lambda(v_{n-1}+v_{n-2})\\ \amp=(u_{n-1}+\lambda v_{n-1})+(u_{n-2}+\lambda v_{n-2})\\ \amp =w_{n-1}+w_{n-2} \end{align*}

    donc \(w\in Fib\text{.}\)

Donc \(Fib\) est un s.e.v. de \(\R^\N\text{.}\)

Exemple 2.8. Dans l'ensemble des fonctions de \(\R\rightarrow \R\).

Rappelons que l'ensemble \(\R^\R\) des fonctions \(\R\rightarrow \R\) est un espace vectoriel.

Commençons par considérer l'ensemble des fonctions continues:

\begin{equation*} \mathscr{C}^0(\R)=\{f:\R\rightarrow \R, f\text{ continue sur }\R\} \end{equation*}

\(\mathscr{C}^0(\R)\) est un s.e.v. de \(\R^\R\text{.}\)

Spoiler.

  • La fonction nulle \(0_{\R^\R}\) 7  est constante, donc continue. Donc \(0_{\R^\R} \in \mathscr{C}^0(\R)\text{.}\)

  • Soient \(f,g \in \mathscr{C}^0(\R)\) deux fonctions continues et \(\lambda \in \R\) un scalaire. Alors

    • \(\lambda g\) est continue: c'est le produit de la (fonction) constante \(\lambda\) avec la fonction continue \(g\text{.}\)

    • \(f+\lambda g\) est donc continue, car c'est la somme des deux fonctions continues \(f\) et \(\lambda g\text{.}\)

A l'intérieur de \(\mathscr{C}^0(\R)\text{,}\) on peut considérer les fonctions dérivables donc la dérivée \(f'\) est continue. On dit que ces fonctions sont \(\mathscr{C}^1\text{:}\)

\begin{equation*} \mathscr{C}^1(\R) = \{f\in \mathscr{C}^0(\R), f\text{ dérivable et } f'\text{ continue}\}\subset \mathscr{C}^0(\R) \subset \R^\R \end{equation*}

Devinez quoi...

\(\mathscr{C}^1(\R)\) est un s.e.v. de \(\R^\R\text{.}\)

Spoiler.

  • La fonction nulle \(0_{\R^\R}\) est constante, donc dérivable, et sa dérivée est nulle, donc continue. Donc \(0_{\R^\R} \in \mathscr{C}^1(\R)\text{.}\)

  • Soient \(f,g \in \mathscr{C}^1(\R)\) deux fonctions \(\mathscr{C}^1\) et \(\lambda \in \R\) un scalaire. Alors

    • \(\lambda g\) est \(\mathscr{C}^1\text{:}\) elle est dérivable, de dérivée \((\lambda g)'=\lambda g'\text{.}\) Sa dérivée est le produit de la (fonction) constante \(\lambda\) avec la fonction continue \(g'\text{,}\) donc elle est continue.

    • \(f+\lambda g\) est donc \(\mathscr{C}^1\text{:}\) c'est la somme des deux fonctions dérivables \(f\) et \(\lambda g\text{;}\) de plus \((f+\lambda g)'=f'+ \lambda g'\) est continue car c'est la somme de deux fonctions continues.

Et on peut continuer comme ça: on peut définir l'ensemble \(\mathscr{C}^2(\R)\subset \mathscr{C}^1(\R)\) des fonctions deux fois dérivables, dont la dérivée seconde est continue.

 8  C'est un sous-espace vectoriel !

On construit ainsi un "empilement" de sous-espaces vectoriels

\begin{equation*} ...\subset \mathscr{C}^{3302}(\R)\subset \mathscr{C}^{3301}(\R)\subset ... \mathscr{C}^1(\R)\subset \mathscr{C}^0(\R)\subset \R^\R \end{equation*}

Exemple 2.9. Dans \(\mathscr{C}^2(\R)\).

Mais du coup, d'après la Remarque 2.2, \(\mathscr{C}^2(\R)\) est lui-même un espace vectoriel.

Considérons le sous-ensemble suivant:

\begin{equation*} F=\{f\in \mathscr{C}^2(\R),\ f'' + f=0_{\R^\R}\} \end{equation*}

C'est l'ensemble de toutes les fonctions réelles deux fois dérivables telles que, pour tout \(x\in \R\text{,}\)

\begin{equation*} f(x)+f''(x) = 0\text{ ie } f''(x)=-f(x) \end{equation*}

✑ Est-ce que vous connaissez des fonctions comme ça ?

Indication.

Ca commence par "trigo".

Sous-section 2.2 Sous-espaces vectoriels et opérations sur les ensembles

On a vu que les sous-espaces vectoriels sont des sous-ensembles de \(E\text{,}\) mais que tous les sous-ensembles ne sont pas des s.e.v..

On peut donc se demander si le fait d'être un s.e.v. est "compatible" avec les opérations ensemblistes: l'intersection, l'union, le complémentaire de s.e.v. est-il aussi un s.e.v. ?

On commence par l'intersection. De ce côté, tout va bien:

Démonstration

  • \(0_E \in F\text{,}\) \(0_E \in G\) donc \(0_E\in F\cap G\text{.}\)

  • Soient \(u,v \in F \cap G\text{,}\) \(\lambda\in \K\text{.}\) Alors

    • Comme \(F\) est un s.e.v., \(u+\lambda v\in F\text{;}\)

    • Comme \(G\) est un s.e.v., \(u+\lambda v\in G\text{;}\)

    donc \(u+\lambda v \in F\cap G\text{.}\)

\(\leadsto F\cap G\) est un sous-espace vectoriel.

Exemple 2.10.

Considérons, dans \(\R^3\text{,}\)

\begin{align*} D\amp =\{(x,y,z)\in \R^3,\, x+3y+z=0 \text{ et } x+y+2z=0\}\\ \amp =\underbrace{\{(x,y,z)\in\R^3,\, x+3y+z=0\}}_{P_1} \cap \underbrace{\{(x,y,z)\in \R^3,\, x+y+2z=0\}}_{P_2} \end{align*}

\(P_1\) et \(P_2\) sont des s.e.v. de \(\R^3\)

\(\leadsto\) donc \(D\) est un s.e.v. de \(\R^3\text{.}\)

✑ Quel rapport avec l'Exemple 2.4 ?

✑ En revanche, le complémentaire d'un s.e.v. n'est jamais un s.e.v.

Indication.

Quel élement doit contenir tout s.e.v. qui se respecte ?

Spoiler.

Soit \(F\subset E\) un s.e.v. de \(E\text{.}\)

Alors, d'après la Proposition 2.3, \(0_E\in F\text{.}\)

Mais du coup, \(0_E \notin F^c\text{,}\) donc \(F^c\) n'est pas un sous-espace vectoriel, d'après la même proposition.

⚠ Enfin, l'union de 2 s.e.v n'est généralement pas un s.e.v. :

Contre-exemple: Considérons les deux s.e.v. suivants de \(\R^2\) 9 

\begin{equation*} F=\{(x,y)\in\R^2,x=0\},\ \quad G=\{(x,y)\in\R^2,y=0\} \end{equation*}

Alors \((0,1)\in F\subset F\cup G, (1,0)\in G\subset F\cup G\) mais \((1,0)+(0,1)=(1,1)\notin F\cup G\text{.}\)

Autrement dit, il existe \(u\in F\cup G\) et \(v \in F\cup G\) tels que \(u+v\notin F\cup G\text{,}\) ce qui contredit la propriété (3) de la définition des sous-espaces vectoriels.

\(\leadsto\) \(F\cup G\) n'est pas un sous-espace vectoriel.

Figure 2.8. Source: https://www.geogebra.org/graphing/dpvpgxwf

✑ Y a-t-il des cas où \(F\cup G\) est un s.e.v. ?

Il arrive parfois que l'union de deux s.e.v. soit un s.e.v. . Prenons un exemple "stupide" dans \(E=\R^2\text{:}\)

D'après l' Exemple 2.2, \(F=\{(x,y)\in \R^2,2x+3y=0\}\) est un s.e.v. de \(\R^2\text{,}\) et d'après l'Exemple 2.1, \(G=\{(0,0)\}\) est un s.e.v. de \(\R^2\text{.}\) Et là, \(F\cup G = F\) est aussi un s.e.v. de \(\R^2\text{.}\)

✑ En fait, on peut montrer que pour tous \(F,G\) s.e.v. d'un espace vectoriel \(E\text{,}\)

\begin{equation*} F\cup G \text{ est un s.e.v. } \iff (F\subset G \text{ ou } G\subset F) \end{equation*}

Sous-section 2.3 Somme et somme directe de s.e.v.

A la place, on va s'intéresser, parmi tous les s.e.v. de \(E\text{,}\) au plus petit 10  s.e.v. possible qui contient \(F\cup G\text{.}\)

On l'a vu, ce qui semble poser problème, c'est que la somme d'un vecteur \(u\in F\subset F\cup G\) et d'un vecteur \(v\in G\subset F\cup G\) n'est pas forcément dans \(F\cup G\text{.}\) Ce qui nous amène à introduire l'ensemble suivant:

Définition 2.9.

Soient \(F,G\) deux s.e.v d'un \(\K\)-espace vectoriel \(E\text{.}\) On appelle somme de \(F\) et \(G\) le sous-ensemble

\begin{equation*} F+G=\{u+v,u\in F,v\in G\}\subset E. \end{equation*}

Autrement dit, un vecteur \(w\in E\) appartient à \(F+G\) ssi il existe un vecteur \(u\in F\) et un vecteur \(v\in G\) tels que \(w=u+v\text{.}\)

On a alors:

Montrons d'abord que \(F+G\) est un s.e.v.

  • \(0_E\in F, 0_E\in G\) donc \(0_E+0_E=0_E\in F+G\text{.}\)

  • Soient \(w,w'\in F+G\text{,}\) \(\lambda \in \K\text{.}\) Alors il existe \(u,u'\in F\) et \(v,v'\in G\) tels que \(w=u+v,w'=u'+v'\text{.}\) On a donc

    \begin{equation*} w+\lambda w' =\underbrace{u+\lambda u'}_{\in F}+\underbrace{v+\lambda v'}_{\in G} \in F+G \end{equation*}

Montrons que \(F\cup G\subset F+G\text{.}\)

Pour tout \(u\in F\text{,}\) puisque \(0_E\in G\text{,}\) on a \(u+0_E=u\in F+G\text{,}\) donc \(F\subset F+G\text{.}\) De même, pour tout \(v \in G\text{,}\) comme \(0_E\in F\text{,}\) \(0_E+v=v\in F+G\text{,}\) donc \(G\subset F+G\text{.}\) On a donc bien \(F\cup G\subset F+G\text{.}\)

Montrons enfin que si \(H\) est un s.e.v. qui contient \(F\cup G\) alors \(F+G\subset H\text{.}\)

On a alors, pour tout \(u\in F\text{,}\) \(u\in F\cup G\subset H\text{.}\) De même, pour tout \(v\in G, v\in F\cup G\subset H\text{.}\) Puisque \(H\) est un s.e.v., on a donc \(u+v\in H\text{.}\)

Exemple 2.11.

Dans \(\R^3\text{,}\) on considère les sous-ensembles suivants 12 :

\begin{equation*} F=\{(x,y,z)\in \R^3, y=z=0\}, G=\{(x,y,z)\in \R^3, x=z=0\} \end{equation*}

Montrons que \(F+G=\{(x,y,z)\in\R^3, z=0\}\text{.}\) On procède par double inclusion:

\(\boxed{\subset}\) Soit \(w\in F+G\text{.}\) Alors il existe \(u=(x,0,0)\in F, v=(0,y,0)\in G\) tels que \(w=u+v\text{.}\) Donc \(w=(x,y,0)\in \{z=0\}\text{.}\)

\(\boxed{\supset}\) Soit \(w=(x,y,0)\in \{z=0\}\text{.}\) Alors

\begin{equation*} w=\underbrace{(x,0,0)}_{\in F} + \underbrace{(0,y,0)}_{\in G} \in F+G. \end{equation*}

Dans \(\R^3\text{,}\) on considère les sous-ensembles suivants 13 :

\begin{equation*} P_1=\{(x,y,z)\in \R^3, x=2y\}, P_2=\{(x,y,z)\in \R^3, z=-x\} \end{equation*}
Figure 2.12. Source: https://www.geogebra.org/m/bf3agwte

Montrer que \(P_1+P_2=\R^3\text{.}\)

Indication.

Remarquons que, pour n'importe quels réels \(x,y\text{,}\) le vecteur \(u_2=(x,y,-2x)\) est dans \(P_1\text{,}\) et pour n'importe quel réel \(t\text{,}\) \((0,0,t)\) est dans \(P_1.\)

Spoiler.

On procède par double inclusion:

\(\boxed{\subset}\) Là, pour le coup, il n'y a rien à faire: \(P_1\) et \(P_2\) sont des sous-espaces vectoriels de \(\R^3\text{.}\) Donc \(P_1+P_2\) aussi, et en particulier c'est un sous-ensemble de \(\R^3\text{.}\)

\(\boxed{\supset}\) Soit \(w=(x,y,z)\in \R^3\text{.}\) On cherche \(u_1\in P_1,u_2\in P_2\) tels que \(w=u_1+u_2\text{.}\) Or,

\begin{equation*} w=(x,y,z)=\underbrace{(0,0,z-2x)}_{\in P_1} + \underbrace{(x,y,2x)}_{\in P_2} \in P_1+P_2. \end{equation*}

On l'a dit, un vecteur \(w\in E\) appartient à \(F+G\) ssi il existe un vecteur \(u\in F\) et un vecteur \(v\in G\) tels que \(w=u+v\text{.}\)

Si \(F+G=E\) tout entier (comme dans l'Exercice 2.11), cela signifie que tout vecteur de \(E\) peut être décomposé en la somme d'un vecteur de \(F\) et d'un vecteur de \(G\text{,}\) ce qui peut être intéressant si les éléments de \(F\) et \(G\) sont plus "simples" que les éléments généraux de \(E\text{.}\)

Toutefois, cette décomposition n'est pas unique en général. Il peut y avoir plusieurs vecteurs \(u,u'\) de \(F\) et \(v,v'\) de \(G\) qui "marchent".

Exemple 2.12.

Dans \(\R^3\text{,}\) on considère les sous-espaces vectoriels de l'Exercice 2.11:

\begin{equation*} P_1=\{(x,y,z)\in \R^3, x=2y\}, P_2=\{(x,y,z)\in \R^3, z=-x\} \end{equation*}

On a vu que \(P_1+P_2=\R^3\text{,}\) donc, tout vecteur de \(\R^3\) peut s'écrire comme somme d'un vecteur de \(P_1\) et d'un vecteur de \(P_2\text{.}\) Par exemple,

\begin{equation*} (1,1,1)=\underbrace{(0,0,2)}_{\in P_1} + \underbrace{(1,1,-1)}_{\in P_2} \in P_1+P_2. \end{equation*}

mais aussi

\begin{equation*} (1,1,1)=\underbrace{(2,1,0)}_{\in P_1} + \underbrace{(-1,0,1)}_{\in P_2} \end{equation*}

ou encore,

\begin{equation*} (0,2,37)=\underbrace{(4,2,33)}_{\in P_1} + \underbrace{(-4,0,4)}_{\in P_2} \end{equation*}

mais aussi

\begin{equation*} (0,2,37)=\underbrace{(0,0,37)}_{\in P_1} + \underbrace{(0,2,0)}_{\in P_2} \end{equation*}

et plus généralement,

\begin{align*} (x,y,z)\amp=\underbrace{(0,0,z+x)}_{\in P_1} + \underbrace{(x,y,-x)}_{\in P_2}\\ \amp= \underbrace{(2y,y,z-2y+x)}_{\in P_1} + \underbrace{(x-2y,0,2y-x)}_{\in P_2} \end{align*}

Pour obtenir une décomposition unique, on va ajouter une condition, ce qui nous amène à la construction suivante:

Définition 2.13.

Soient \(F,G\) deux s.e.v. de \(E\text{.}\) On dit que \(F\) et \(G\) sont supplémentaires, ou en somme directe, dans \(E\text{,}\) si

  • \(\displaystyle F\cap G = \{0_E\}\)

  • \(F+G=E\text{.}\)

On note alors \(E= F \oplus G\text{.}\)

On a alors bien l'unicité de la décomposition:

On procède par double implication.

\(\boxed{\Rightarrow}\) Supposons que \(E=F\oplus G\text{.}\) Soit \(w\in E\text{,}\) alors, puisque \(E=F+G\text{,}\) il existe \(u\in F\) et \(v\in G\) tels que \(w=u+v\text{.}\) Montrons que ce couple \((u,v)\) est unique. Soient \(u'\in F,v'\in G\) tels que \(w'=u'+v'\text{.}\) Alors \(u+v=u'+v'\) donc

\begin{equation*} \underbrace{u-u'}_{\in F} = \underbrace{v'-v}_{\in G} \in F\cap G \end{equation*}

Comme \(F\cap G = \{0_E\}\text{,}\) on a donc \(u-u'=0_E\text{,}\) donc \(u=u'\text{.}\) De même, \(v=v'\text{.}\)

\(\boxed{\Leftarrow}\) Dans ce cas, pour tout \(w\in E\text{,}\) il existe \(u\in F\) et \(v\in G\) tels que \(w=u+v\in F+G\text{.}\) Donc \(E=F+G\text{.}\)

Montrons que \(F\cap G=\{0_E\}\text{.}\) Soit \(w\in F\cap G\text{.}\) Alors \(w\) admet deux décompositions en somme de vecteurs de \(F\) et \(G\text{:}\)

\begin{equation*} u=\underbrace{u}_{\in F} + \underbrace{0_E}_{\in G} = \underbrace{0_E}_{\in F} + \underbrace{u}_{\in G} \end{equation*}

Par unicité de la décomposition, on a \((u,0_E)=(0_E,u)\) d'où \(u=0_E\text{.}\)

Exemple 2.13.

Considérons les sous-ensembles 14  suivants de \(\R^2\text{:}\)

\begin{equation*} F=\{(x,y)\in\R^2,x=0\},\ \quad G=\{(x,y)\in\R^2,y=0\} \end{equation*}

Alors \(\R^2 = F\oplus G\text{.}\) En effet:

  • Soit \(w=(x,y)\in \R^2\text{.}\) Alors

    \begin{equation*} w=\underbrace{(0,y)}_{\in F}+ \underbrace{(x,0)}_{\in G}\in F+G \end{equation*}

    donc \(\R^2= F+G\text{.}\)

  • Soit \(w=(x,y)\in F\cap G\text{.}\) Alors

    \begin{equation*} \left. \begin{array}{l} w\in F \Rightarrow x=0\\ w\in G \Rightarrow y=0 \end{array} \right\} \Rightarrow w=0_{\R^2} \end{equation*}

    donc \(F\cap G=\{0_E\}\text{.}\)

Un point important: La notion de s.e.v. supplémentaire pourrait faire penser à la notion de complémentaire d'un sous-ensemble:

  1. L'intersection entre un sous-ensemble et son complémentaire est le plus petit sous-ensemble possible, \(\emptyset\text{;}\) tandis que l'intersection entre deux s.e.v. supplémentaires est le plus petit sous-espace vectoriel possible, \(\{0_E\}\text{.}\)

  2. L'union d'un sous ensemble et de son complémentaire donne \(E\) tout entier; de même, la somme de deux s.e.v. supplémentaires donne \(E\text{,}\) et la somme est le s.e.v qui ressemble le plus à une union.

  3. Les mots ressemblent !

Mais il y a d'importantes différences: notamment, deux s.e.v. supplémentaires ne sont pas disjoints, puisqu'ils contiennent tous les deux le vecteur nul.

Une autre différence, c'est qu'un sous-ensemble a un unique complémentaire, mais un s.e.v peut avoir plusieurs supplémentaires. Par exemple:

✑ Reprenons \(F=\{(x,y)\in\R^2,x=0\}\) et soit \(G'=\{(x,y)\in\R^2,x=y\}\text{.}\) Montrez qu'on a aussi \(\R^2=F\oplus G'\) (même si \(G\neq G'\) !).

✑ Essayez de trouver un autre supplémentaire de \(F\) dans \(\R^2\text{.}\)

Exemple 2.14.

Revenons à l'exemple de l'Exercice 2.11:

\begin{equation*} P_1=\{(x,y,z)\in \R^3, x=2y\}, P_2=\{(x,y,z)\in \R^3, z=-x\} \end{equation*}

On a vu que \(P_1+P_2=\R^3\text{,}\) mais que la décomposition d'un vecteur donné n'était pas unique: pour tout \((x,y,z)\in\R^3\text{,}\) on a

\begin{align*} (x,y,z)\amp=\underbrace{(0,0,z+x)}_{\in P_1} + \underbrace{(x,y,-x)}_{\in P_2}\\ \amp= \underbrace{(2y,y,z-2y+x)}_{\in P_1} + \underbrace{(x-2y,0,2y-x)}_{\in P_2} \end{align*}

Ils ne doivent donc pas être en somme directe ! Vérifions-le:

✑ Déterminer \(P_1\cap P_2\text{.}\)

Spoiler.

On trouve

\begin{equation*} P_1\cap P_2 = \{(2y,y,-2y), y \in \R\} \end{equation*}

Il y a des vecteurs non nuls dans \(P_1\cap P_2\text{,}\) par exemple \((4,2,-4)\text{.}\)

Mais du coup, si on décompose un vecteur comme somme d'un vecteur de \(P_1\) et d'un vecteur de \(P_2\text{,}\) on peut toujours ajouter et soustraire \((4,2,-4)\text{,}\) ce qui donne une nouvelle décomposition.

Par exemple:

\begin{align*} (1,1,1)\amp=\underbrace{(0,0,2)}_{\in P_1} + \underbrace{(1,1,-1)}_{\in P_2}\\ \amp= \underbrace{(0,0,2)+(4,2,-4)}_{\in P_1} + \underbrace{(1,1,-1)+(-4,-2,4)}_{\in P_2}\\ \amp= \underbrace{(4,2,-2)}_{\in P_1} + \underbrace{(-3,-1,-3)}_{\in P_2} \end{align*}

En fait, si on reprend les deux décompositions qu'on a obtenues avant, on avait, pour tout \((x,y,z)\in\R^3\text{,}\) on a

\begin{align*} (x,y,z)\amp=\underbrace{(0,0,z+x)}_{\in P_1} + \underbrace{(x,y,-x)}_{\in P_2}\\ \amp= \underbrace{(0,0,z+x)+(2y,y,-2y)}_{\in P_1} + \underbrace{(x,y,-x)+(-2y,-y,2y)}_{\in P_2}\\ \amp= \underbrace{(2y,y,z-2y+x)}_{\in P_1} + \underbrace{(x-2y,0,2y-x)}_{\in P_2} \end{align*}

Sous-section 2.4 Sous-espace vectoriel engendré

On a vu à la Définition 1.4 plus haut la notion de combinaison linéaire de vecteurs.

Pour une famille finie fixée \(\{v_1,\ldots,v_n\}\) de vecteurs de \(E\text{,}\) on peut s'intéresser à l'ensemble de toutes les combinaisons linéaires possibles des vecteurs \(v_i\text{.}\)

Figure 2.15. Source: https://www.geogebra.org/m/pf3dgum8

Exemple 2.15.

On a vu plus haut que, dans \(\R[X]\text{,}\) le polynôme \(P(x)=3x^2 + 4x+ 1\) est combinaison linéaire de \(P_0(x)=1\text{,}\) \(P_1(x)=x+3\) et \(P_2(x)=x^2\text{,}\) puisque ,

\begin{equation*} P(x)= 3x^2 + 4(x+3)- 11 = 3P_2(x)+4P_1(x)-11P_0(x) \end{equation*}

✑ En fait, tout polynôme de degré inférieur ou égal à 2 est combinaison linéaire de \(P_0,P_1,P_2\text{.}\)

Donc, ici, l'ensemble des combinaisons linéaires de \(P_0,P_1\) et \(P_2\) serait \(\R_2[X]\) 15 .

En fait, on va voir que l'ensemble de toutes les combinaisons linéaires possibles qu'on peut faire avec ces vecteurs est un sous-espace vectoriel, qui va nous intéresser dans la suite. Notamment, dans le cadre de la résolution des systèmes linéaires:

Exemple 2.16. Lien avec les systèmes.

Considérons un système linéaire, et regardons ses coefficients "en colonnes":

\begin{equation*} (S) \begin{cases} \begin{array}{rcrcr} \textcolor{orange}{14}x\amp+\amp\textcolor{violet}{2} y\amp=\amp\textcolor{red}{b_1}\cr \textcolor{orange}{21}x\amp+\amp\textcolor{violet}{\sqrt{\pi}} y\amp=\amp\textcolor{red}{b_2}\cr \textcolor{orange}{3}x\amp+\amp\textcolor{violet}{3} y\amp=\amp\textcolor{red}{b_3}\cr \end{array} \end{cases} \end{equation*}

On note \(\textcolor{orange}{u_1=(14,21,3)}\text{,}\) \(\textcolor{violet}{ v=(2,\sqrt{\pi},3)}\) et \(\textcolor{red}{ w=(b_1,b_2,b_3)}\text{.}\) Alors \((S)\) équivaut à

\begin{equation*} x \textcolor{orange}{ u}+y \textcolor{violet}{ v}=\textcolor{red}{ w}. \end{equation*}

\(\leadsto\) Le système a des solutions si, et seulement si, le vecteur \(w\in\R^3\) est combinaison linéaire des vecteurs \(u\) et \(v\text{.}\)

D'où l'intérêt de savoir qui ils sont !

On a donc \(u\in \Vect(v_1,\ldots,v_n)\) ssi il existe \(n\) scalaires \(\lambda_1,\ldots,\lambda_n \in \K\) tels que \(u=\lambda_1v_1+\ldots +\lambda_n v_n\text{.}\)

Notons \(F\) l'ensemble de toutes les combinaisons linéaires de \(v_1,\ldots, v_n\text{:}\)

\begin{equation*} F=\{u\in E, \exists \lambda_1,\ldots,\lambda_n \in \K, u=\lambda_1v_1+\ldots +\lambda_n v_n\} \end{equation*}

Montrons que \(F\) est un s.e.v.:

  • Le vecteur nul de \(E\) peut s'écrire comme combinaison linéaire des \(v_i\text{,}\) en choisissant des coefficients \(\lambda_i\) tous nuls:

    \begin{equation*} 0_E=0v_1+\ldots + 0v_n \in F \end{equation*}
  • Soient \(u,v\in F\text{,}\) \(\alpha\in \K\text{.}\) Il existe donc \(\lambda_1,\ldots,\lambda_n,\mu_1,\ldots \mu_n\) scalaires tels que

    \begin{gather*} u=\lambda_1v_1+\ldots+\lambda_nv_n,\ v=\mu_1v_1+\ldots+\mu_nv_n\\ \text{donc } u+\alpha v=(\lambda_1+\alpha \mu_1)v_1+\ldots+(\lambda_n+\alpha \mu_n)v_n \in F \end{gather*}

Soit \(H\subset E\) un s.e.v. contenant \(\{v_1,\ldots,v_n\}\text{.}\) Montrons que \(F\subset H\text{.}\)

Soit \(u=\lambda_1 v_1+\ldots+\lambda_n v_n\in F\text{.}\) On va montrer, par récurrence sur \(k\text{,}\) que pour tout \(k\in\{1,\ldots,n\}\text{,}\) \(\lambda_1 v_1+\ldots+\lambda_k v_k \in H\text{.}\)

\(\boxed{k=1}\) On a \(v_1\in H\) et \(\lambda_1\in \K\text{.}\) Comme \(H\) est un s.e.v., on a donc bien \(\lambda_1 v_1\in H\text{.}\)

\(\boxed{k\leadsto k+1}\) Supposons que \(\lambda_1 v_1+\ldots+\lambda_k v_k \in H\) et montrons que \(\lambda_1 v_1+\ldots+\lambda_k v_k+ \lambda_{k+1}v_{k+1} \in H\text{.}\)

Comme ci-dessus, on \(v_{k+1}\in H\) et \(\lambda_{k+1}\in \K\) , donc, comme \(H\) est un s.e.v., \(\lambda_{k+1} v_{k+1}\in H\text{.}\) Mais alors

\begin{equation*} \lambda_1 v_1+\ldots+\lambda_k v_k+ \lambda_{k+1}v_{k+1} = \underbrace{\lambda_1 v_1+\ldots+\lambda_k v_k}_{\in H}+ \underbrace{\lambda_{k+1}v_{k+1}}_{\in H} \in H. \end{equation*}

On a donc bien, par récurrence, \(u=\lambda_1 v_1+\ldots+\lambda_n v_n\in H\text{.}\) Donc \(F\subset H\text{.}\)

Remarque 2.17.

Plus généralement, si \(A\subset E\) alors

\begin{align*} \Vect(A):=\{v\in E, \amp \exists \lambda_1,\ldots,\lambda_n \in \K, \exists\ a_1,\ldots,a_n \in A,\\ \amp u=\lambda_1a_1+\ldots +\lambda_n a_n\} \end{align*}

est un s.e.v., et c'est le plus petit s.e.v. qui contient \(A\text{.}\)

Exemple 2.17.

  1. Soit \(E\) un \(\K\)-e.v. et \(u\in E, u\neq 0_E\text{.}\) Alors \(\Vect(u)=\{\lambda u, \lambda\in \K\}\) est la droite vectorielle engendrée par \(u\text{:}\)

  2. Soit \(F=\{(x,y,z)\in \R^3, x-y-z=0\} \subset \R^3\text{.}\) Alors \(F\) est un s.e.v. de \(\R^3\text{.}\) De plus

    \begin{align*} w=(x,y,z)\in F\amp \iff x=y+z\\ \amp\iff w=(y+z,y,z)=y(1,1,0)+z(1,0,1)\\ \amp\iff w\in \Vect((1,1,0),(1,0,1)) \end{align*}

    On a donc \(F=\Vect((1,1,0),(1,0,1))\text{.}\)

    Figure 2.18. \(v=(1,0,1),u=(1,1,0)\)
✑ Vérifiez-le !
✑ Vérifiez-le !
https://fr.wikipedia.org/wiki/Degr%C3%A9_d%27un_polyn%C3%B4me#Degr%C3%A9_du_polyn%C3%B4me_nul
http://carolinevernier.website/Poly-pretext-matrices/section-4.html#definition-10
http://carolinevernier.website/Poly-pretext-matrices/sec_inv.html#p-272
On commence à fortement le suspecter
C'est-à-dire la fonction constante égale à 0
Incroyable, mais vrai:
✑ Vérifiez que ce sont bien des s.e.v. !
au sens de l'inclusion
Cela signifie que si \(H\) est un s.e.v. tel que \(F\cup G\subset H\text{,}\) alors \(H\) est "plus grand" que \(F+G\) pour l'inclusion, autrement dit \(F+G\subset H\text{.}\)
✑ Vérifiez que ce sont des s.e.v. !
✑ Vérifiez que ce sont des s.e.v. !
✑ Devinez ce que vous pouvez vérifier en exercice !
Remarquons que c'est un s.e.v de \(\R[X]\)
A nouveau, au sens de l'inclusion. Cela signifie que si \(H\) est un s.e.v. qui contient tous les vecteurs \(v_i\text{,}\) alors \(H\) est "plus grand" que \(\Vect(v_1,\ldots,v_n)\) pour l'inclusion, autrement dit \(\Vect(v_1,\ldots,v_n)\subset H\text{.}\)