Skip to main content

Section 3 Opérations sur les matrices

On a défini un certain nombre d'opérations sur les applications linéaires d'une part [provisional cross-reference: lien vers les app lin], et sur les matrices d'autre part [provisional cross-reference: lien vers les matrices].

On s'attend à ce que ces opérations soient "transférées" quand on passe d'une application linéaire à sa matrice, et c'est bien ce qui se passe:

Subsection 3.1 Somme et multiplication scalaire

✑ Démontrez cette propriété !

Remark 3.3.

En particulier, \(\dim \mathcal L(E,F)=np\text{.}\)

  • \(\mathcal M_{\B,\B'}\) une application linéaire: Si \(f,g\in \mathcal L(E,F)\text{,}\) \(\lambda,\mu \in \K\) alors, d'après la Proposition 3.1,

    \begin{equation*} \mathcal M_{\B,\B'}(\lambda f + \mu g)=[\lambda f+\mu g]_{\B,\B'}=\lambda [f]_{\B,\B'}+\mu [g]_{\B,\B'}. \end{equation*}
  • \(\mathcal M_{\B,\B'}\) est injective: Soit \(f \in \Ker(\mathcal M_{\B,\B'})\text{.}\)

    Alors toutes les colonnes de la matrice \([f]_{\B,\B'}\) sont nulles, ce qui signifie que

    \begin{equation*} \forall j\in \{ 1,...,p \},\ f(e_j)=0\cdot f_1+\ldots+0\cdot f_n=0_F \end{equation*}

    Or, puisque \(\B=(e_1,\ldots,e_p)\) est une base, pour tout \(x\in E\text{,}\) il existe des coordonnées scalaires \(x_1,\ldots,x_p\) telles que \(x=\sum_{j=1}^p x_j e_j\text{.}\)

    Donc, par linéarité,

    \begin{equation*} f(x)=\sum_{j=1}^p x_j f(e_j)= 0_F \end{equation*}

    Donc \(f=0_{\mathcal L(E,F)}\text{.}\)

  • \(\mathcal M_{\B,\B'}\) est surjective. En effet, soit

    \begin{equation*} A= \begin{pmatrix} a_{11}\amp \dots\amp a_{p1}\\\vdots\amp \amp \vdots\\a_{n1}\amp \dots\amp a_{np} \end{pmatrix} \end{equation*}

    Posons

    \begin{equation*} \begin{cases} v_1=a_{11}f_1+\ldots+a_{n1}f_n \in F\\ \vdots\\ v_p=a_{p1}f_1+\ldots+a_{np}f_n \in F \end{cases} \end{equation*}

    Alors on a vu qu'il existe une unique application \(f\in \mathcal L(E,F)\) telle que \(f(e_j)=v_j\) pour \(j\in \{ 1,...,p\}\text{,}\) et cette application vérifie bien \(\mathcal M_{\B,\B'}(f)=[f]_{\B,\B'}=A\text{.}\)

Subsection 3.2 Composée et produit matriciel

Avant de passer à l'opération de composition, voyons comment utiliser la matrice \([f]\) pour calculer des images de vecteurs par une application linéaire:

On note \(\B=(e_1,\ldots, e_p), \B'=(f_1,\ldots,f_n)\text{.}\) Soit \(x=\sum x_je_j\in E\text{,}\) alors

\begin{equation*} f(x)=\sum_{j=1}^p x_jf(e_j)=\sum_{j=1}^px_j \left(\sum_{i=1}^n a_{ij}f_i\right)=\sum_{i=1}^n(\underbrace{\sum_{j=1}^p a_{ij}x_j}_{(AX)_i})f_i \end{equation*}

donc on a bien \([f(x)]_{\B'}=AX\text{.}\)

Soient \(f:(x,y,z)\in\R^3\mapsto (2x+y,y+z)\in\R^2\) et \(u=(1,1,1)\in \R^3\text{.}\)

On a vu que dans les bases canoniques \(\B_0\) de \(\R^3\) et \(\B_0'\) de \(\R^2\text{,}\)

\begin{equation*} [f]_{\B_0,\B_0'}= \begin{pmatrix} 2\amp 1\amp 0\\0\amp 1\amp 1 \end{pmatrix}, \ [u]_{\B_0}= \begin{pmatrix} 1\\1\\1 \end{pmatrix} \end{equation*}

Alors \(f(u)=(3,2)\) et

\begin{equation*} [f]_{\B_0,\B_0'}[u]_{\B_0}= \begin{pmatrix} 2\amp 1\amp 0\\0\amp 1\amp 1\end{pmatrix}\begin{pmatrix}1\\1\\1\end{pmatrix}=\begin{pmatrix}3\\2\end{pmatrix}=[f(u)]_{\B_0'}. \end{equation*}

On note \(\B=(e_1,\ldots,e_p)\text{,}\) \(\B'=(f_1,\ldots,f_n)\text{,}\) \(\B''=(g_1,\ldots,g_q)\) et

\begin{equation*} A=[f]_{\B,\B'} = (a_{ij}),\ B=[g]_{\B',\B''}=(b_{ij}),\ C=[g\circ f]_{\B,\B''}=(c_{ij}) \end{equation*}

Déterminons la \(j\)-ème colonne de \(C\text{.}\) On a d'une part

\begin{equation*} g\circ f(e_j)=c_{1j}g_1+\ldots+c_{qj}g_q \end{equation*}

et d'autre part

\begin{align*} g\circ f(e_j)\amp =g(a_{1j}f_1+\ldots+a_{nj}f_n)\\ \amp =a_{1j}g(f_1)+\ldots+a_{nj}g(f_n)\\ \amp =a_{1j}(b_{11}g_1+\ldots+b_{q1}g_q)+\ldots+a_{nj}(b_{1n}g_1+\ldots+b_{qn}g_q)\\ \amp =(b_{11}a_{1j}+\ldots+b_{1n}a_{nj})g_1+\ldots+(b_{q1}a_{1j}+\ldots+b_{qn}a_{nj})g_q \end{align*}

Par unicité de la décomposition de \(g\circ f(e_j)\text{,}\) on a donc, pour \(k\in\{ 1,..., q \}\) et \(j\in \{ 1,...,p\}\text{,}\)

\begin{equation*} c_{kj}=b_{k1}a_{1j}+\ldots+b_{kn}a_{nj}=(BA)_{kj} \text{ d'où } C=BA. \end{equation*}

Dans le cas particulier d'un endomorphisme qu'on compose avec lui-même, on trouve:

Subsection 3.3 Réciproque et inverse matriciel

  • \({\color{blue}{\boxed{\Rightarrow}}}\) Supposons que \(f\) est bijective. Alors \(f^{-1}:F\rightarrow E\) existe et est linéaire . Notons \(B=[f^{-1}]_{\B',\B}\text{.}\) Alors

    \begin{align*} BA\amp =[f^{-1}]_{\B',\B}[f]_{\B,\B'}=[f^{-1}\circ f]_{\B}=[\Id_E]_{\B}=I_n\\ AB\amp =[f]_{\B,\B'}[f^{-1}]_{\B',\B}=[f\circ f^{-1}]_{\B'}=[\Id_F]_{\B'}=I_n \end{align*}

    donc \(A\) est inversible, d'inverse \(B=[f^{-1}]_{\B',\B}\) (ce qui, dans la foulée, prouve 2.)

  • }\({\color{blue}{\boxed{\Leftarrow}}}\) Supposons que \(A=[f]_{\B,\B'}\) est inversible. Notons \(B=A^{-1}\text{.}\)

    On a vu plus haut que l'application

    \begin{equation*} \mathcal M_{\B',\B}:g\in\mathcal L(F,E)\mapsto [g]_{\B',\B}\in \mathcal M_n(\R) \end{equation*}

    est surjective. Il existe donc \(g:F\rightarrow E\) linéaire telle que \([g]_{\B',\B}=B\text{.}\)

    Montrons que \(g=f^{-1}\text{.}\) On a

    \begin{gather*} \end{gather*}

    donc, par injectivité de l'application \(\mathcal M_{\B,\B}\text{,}\) on a \(g\circ f= \Id_E\text{.}\)

    On obtient de même \(f\circ g= \Id_F\text{.}\) On en déduit que \(f\) est bijective: c'est donc un isomorphisme, et

    \begin{equation*} [f^{-1}]_{\B',\B}=[g]_{\B',\B}=A^{-1}. \end{equation*}