Sauter au contenu

Section 3 Inverse d'une matrice carrée

Il ne nous reste plus qu'à introduire une opération analogue à la "division" pour les matrices.

Partons, comme toujours, des réels. Diviser par un réel \(a\text{,}\) cela revient à multiplier par \(\frac{1}{a}\text{:}\) pour avoir une opération de division, il suffit donc de savoir calculer "l'inverse" d'un élément.

Pour un réel \(a\text{,}\) son inverse est l'unique réel \(b\) tel que \(ab=1\text{.}\)

Il nous faut une analogie pour les matrices: ça tombe bien, on sait déjà quelle matrice "fait" 1. En tenant compte de la non-commutativité du produit 1 , on aboutit assez naturellement à la définition suivante:

Définition 3.1.

Soit \(A\in \mathcal M_n(\K)\text{.}\) On dit que \(A\) est inversible s'il existe \(B\in \mathcal M_n(\K)\) telle que \(AB=BA = I_n\text{.}\) On dit que \(B\) est un inverse de \(A\text{.}\)

Par exemple, la matrice \(A=\begin{pmatrix} 2\amp 9\\1\amp 4\end{pmatrix}\) est inversible, et un inverse est \(B=\begin{pmatrix} -4\amp 9\\1\amp -2\end{pmatrix}\text{.}\)

Spoiler

Figure 3.2. Source: http://matrixmultiplication.xyz

Comme pour les réels, toutes les matrices ne sont pas inversibles: par exemple, la matrice nulle ne l'est pas:

✑ Montrer que, quelle que soit la matrice \(B\in \mathcal M_n(\K)\text{,}\) \(0_{n,n}\cdot B \neq I_n\text{.}\)

Spoiler

Supposons, par l'absurde, qu'il existe une matrice \(B\in \mathcal M_n(\K)\) telle que \(0_{n,n}\cdot B = I_n\text{.}\)

Comme on l'a vu, cependant, \(0_{n,n}\cdot B = 0_{n,n}\text{,}\) donc on se retrouve avec \(0_{n,n}=I_n\text{,}\) ce qui est faux !

Il n'existe donc aucune matrice \(B\) vérifiant cette condition.

⚠ En revanche, contrairement aux réels, la matrice nulle n'est pas la seule à ne pas être inversible !

Montrer que la matrice \(A=\begin{pmatrix}1 \amp 2 \\ 3 \amp 6 \end{pmatrix}\) n'est pas inversible.

Indication

Prendre une matrice quelconque \(B=\begin{pmatrix}a \amp b \\ c \amp d \end{pmatrix}\) et calculer \(AB\text{.}\) Pourquoi ne peut-on pas avoir \(AB=I_2\text{?}\)

Spoiler

Supposons, par l'absurde, que \(A\) est inversible. Alors il existe \(B=\begin{pmatrix}a \amp b \\ c \amp d \end{pmatrix}\in\mathcal M_2(\R)\) telle que \(AB=BA=I_2\text{.}\)

Or, on trouve:

\begin{equation*} AB=\begin{pmatrix}1 \amp 2 \\ 3 \amp 6 \end{pmatrix}\begin{pmatrix}a \amp b \\ c \amp d \end{pmatrix} = \begin{pmatrix}a+2c \amp b+2d \\ 3a+6c \amp 3b+6d \end{pmatrix} \end{equation*}

Donc \(AB=I_2\) donne, coefficient par coefficient:

\begin{equation*} \begin{cases} \begin{array}{rcrcr} a\amp +\amp \amp \amp 2c\amp \amp \amp =\amp 1\cr \amp \amp b \amp + \amp \amp \amp 2d\amp =\amp 0\cr 3a\amp +\amp \amp \amp 6c\amp \amp \amp =\amp 0\cr \amp \amp 3b\amp +\amp \amp \amp 6d\amp =\amp 1\cr \end{array} \end{cases} \end{equation*}

Ca alors, un système linéaire ! Ca tombe bien, on a appris à les résoudre au chapitre précédent.

Appliquons la méthode du pivot de Gauss: les opérations élémentaires \({\color{blue}{L_3\leftarrow L_3-3L_1,\ L_4\leftarrow L_4-3L_2}}\) donnent:

\begin{equation*} \begin{cases} \begin{array}{rcrcr} a\amp +\amp \amp \amp 2c\amp \amp \amp =\amp 1\cr \amp \amp b \amp + \amp \amp \amp 2d\amp =\amp 0\cr \amp \amp \amp \amp \amp \amp 0\amp =\amp -3\cr \amp \amp \amp +\amp \amp \amp 0\amp =\amp 1\cr \end{array} \end{cases} \end{equation*}

Les deux dernières lignes sont contradictoires: il n'y a donc aucune solution à ce système.

On ne peut donc trouver aucune matrice \(B\in\mathcal M_2(\R)\) telle que \(AB=I_2\) (et donc, a fortiori \(AB=BA=I_2\)).

\(\leadsto\) \(A n'est pas inversible.\)

Définition 3.3.

On note \(\mathcal{GL}_n(\K)\) le sous-ensemble des matrices carrées inversibles de taille \(n\text{.}\)

Soit \(A\in \mathcal M_n(\K)\) une matrice inversible. Supposons que \(A\) admette deux inverses \(B_1\) et \(B_2\text{.}\) Alors on a \(AB_1=I_n=B_2A\) donc

\begin{equation*} B_2=B_2 I_n = B_2(AB_1) =(B_2A)B_1=I_n B_1=B_1 \end{equation*}

autrement dit, les deux inverses sont égaux.

⚠ Attention à ne pas pousser trop loin l'analogie avec les réels. On ne notera jamais \(A^{-1} = \dfrac1A\text{,}\) car il est faux que \(AA^{-1}\) soit égal au réel 1: \(AA^{-1}=I_n\text{,}\)qui est "analogue" à 1, mais n'est pas le même type d'objet.

  1. \(I_n\) est inversible, d'inverse \(I_n\text{.}\)
  2. \(3I_n\) est également inversible, d'inverse...

    Spoiler
    \begin{equation*} (3I_n)^{-1}= \frac13 I_n \end{equation*}
  3. ✑ Pour quels réels \(\alpha\) la matrice \(\alpha I_n\) est-elle inversible ? Quel est alors son inverse ?
  4. \(A=\begin{pmatrix} 1\amp 2\\0\amp 3 \end{pmatrix}\) est inversible, d'inverse \(A^{-1}=\dfrac13\begin{pmatrix} 3\amp -2\\0\amp 1 \end{pmatrix}\text{.}\)

    ✑ Le vérifier: calculer \(\begin{pmatrix} 1\amp 2\\0\amp 3 \end{pmatrix}\dfrac13\begin{pmatrix} 3\amp -2\\0\amp 1 \end{pmatrix}\) et \(\dfrac13\begin{pmatrix} 3\amp -2\\0\amp 1 \end{pmatrix}\begin{pmatrix} 1\amp 2\\0\amp 3 \end{pmatrix}\text{.}\)

Ces considérations soulèvent quelques questions:

  • Comment savoir si une matrice carrée donnée est inversible ou pas ?
  • Y a-t-il un moyen efficace 2  de calculer l'inverse d'une matrice ?
  • A quoi ça sert ?
On peut, en revenant à la définition, chercher les \(n^2\) coefficients \(b_{ij}\) tels que la matrice \(B=(b_{ij})\) est l'inverse de \(A\text{.}\) Comme on l'a brièvement mensionné plus haut, cela donne un système à \(n^2\) inconnues et \(n^2\) équations. Ce qui n'est pas tellement efficace...

On va laisser de côté la première question pour le moment: la notion qu'il nous faut est celle de déterminant, qui sera le sujet d'un des chapitres suivants.

On va commencer par répondre à la troisième: inverser des matrices permet de résoudre les systèmes linéaires ayant autant d'inconnues que d'équationq.

Du coup, vous ne serez pas surpris d'apprendre que la réponse à la seconde question repose sur la méthode du pivot de Gauss.

Sous-section 3.1 Application à la résolution de systèmes

On l'a vu ici, grâce à notre définition du produit matriciel, tout système linéaire à \(n\) équations et \(p\) inconnues:

\begin{equation*} (\mathcal S) \begin{cases} a_{11}x_1+a_{12} x_2\dots + a_{1p}x_p=b_1\\ \vdots\\ a_{n1}x_1+a_{n2} x_2\dots+a_{np}x_p = b_n \end{cases} \end{equation*}

peut se réécrire sous la forme \(AX=B\) avec

\begin{equation*} A= \begin{pmatrix} a_{11} \amp \cdots \amp a_{1p}\\ \vdots\amp \amp \vdots\\ a_{n1}\amp \cdots\amp a_{np} \end{pmatrix},\ X=\begin{pmatrix} x_1\\\vdots\\x_p \end{pmatrix},\ B=\begin{pmatrix} b_1\\\vdots\\b_n\end{pmatrix} \end{equation*}

Si \(n=p\text{,}\) la matrice \(A\) est une matrice carrée.

Et si \(A\) est inversible, alors \(AX=B\) équivaut à \(X=A^{-1}B\text{:}\) autrement dit, \(X\) est solution du système ssi \(X=A^{-1}B\text{.}\) Il y a donc une unique solution.

Remarque 3.6.

En reprenant ce qu'on avait dit sur les systèmes linéaires au chapitre précédent, on voit donc que, si \(A\) est inversible, alors le rang du système \((\mathcal S)\) est égal à \(n\text{.}\) Autrement dit, en appliquant la méthode de Gauss à ce système, on fera apparaître \(n\) pivots.

Remarque 3.7.

Prenons le cas d'un système homogène: c'est le cas où \(B=(0,\ldots,0)\text{.}\) Dans ce cas, comme on l'a vu au chapitre précédent, il y a toujours au moins une solution: la solution nulle \(X=(0,\ldots,0)\text{.}\)

Donc, s'il existe un vecteur \(X\) non nul tel que \(AX=0\text{,}\) alors la solution n'est pas unique. Donc, par contraposée, dans ce cas, la matrice \(A\) n'est pas inversible.

\begin{equation*} (\exists\ X \neq 0\text{ t.q. } AX=0) \Rightarrow A \notin \mathcal{GL}_n(\K) \end{equation*}

On verra une interprétation plus abstraite de cette propriété un peu plus tard, quand on parlera du noyau des applications linéaires.

Sous-section 3.2 Calcul d'inverse

Soit \(A\in \mathcal M_n(\K)\) une matrice carrée. Supposons qu'on sait qu'elle est inversible.

\(\leadsto\) Comment utiliser le pivot de Gauss pour calculer son inverse ?

Sous-sous-section 3.2.1 Cas des matrices 2x2

On a une condition d'inversibilité et une formule explicite pour les matrices carrées de taille \(2 \times 2\text{:}\)

Soit \(A=\begin{pmatrix} a\amp b\\c\amp d\end{pmatrix}\in \mathcal M_2(\R)\) (pas forcément inversible). On calcule:

\begin{equation*} \begin{pmatrix} a\amp b\\c\amp d\end{pmatrix}\begin{pmatrix} d\amp -b\\-c\amp a \end{pmatrix}=\begin{pmatrix} ad-bc\amp 0\\0\amp ad-bc \end{pmatrix}=(ad-bc)I_2 \end{equation*}

\(\leadsto\) Si \(ad-bc\neq0\) on peut diviser par \(ad-bc\) et on en déduit que

\begin{equation*} A \left(\frac1{ad-bc}\begin{pmatrix} d\amp -b\\-c\amp a\end{pmatrix} \right) = I_2 \end{equation*}

Un calcul similaire donne

\begin{equation*} \left(\frac1{ad-bc}\begin{pmatrix} d\amp -b\\-c\amp a\end{pmatrix} \right)A = I_2 \end{equation*}

Donc \(A\) est inversible dans ce cas, et \(A^{-1}= \frac1{ad-bc}\begin{pmatrix} d\amp -b\\-c\amp a \end{pmatrix}\)

✑ Soient \(A,B\) deux matrices carrées non nulles. Montrer que si \(AB=0_{n,n}\text{,}\) alors \(A\) n'est pas inversible.

Spoiler

Supposons, par l'absurde, que \(A\) est inversible. Alors

\begin{equation*} B= I_nB= (A^{-1}A)B=A^{-1}(AB) = A^{-1}0_{n,n}= 0_{n,n} \end{equation*}

ce qui contredit \(B\neq 0_{n,n}\text{.}\)

Remarque 3.9.

Si \(AB=0_{n,n}\text{,}\) alors pour chaque colonne \(C_j=\begin{pmatrix}b_{1j}\\\vdots\\b_{nj}\end{pmatrix}\) de la matrice \(B\text{,}\) on a \(AC_j = 0_{\R^n}\text{.}\) Puisque \(B\neq 0_{n,n}\text{,}\) une de ces colonnes est non nulle: on est donc dans le cas de la Remarque 3.7.

✑ En déduire, dans la preuve précédente, que si \(ad-bc=0\) alors \(A\) n'est pas inversible.

Spoiler

Dans ce cas, le calcul précédent donne

\begin{equation*} \begin{pmatrix} a\amp b\\c\amp d\end{pmatrix}\begin{pmatrix} d\amp -b\\-c\amp a \end{pmatrix}=\begin{pmatrix} ad-bc\amp 0\\0\amp ad-bc \end{pmatrix}=(ad-bc)I_2 = 0_{2,2} \end{equation*}

Il existe donc une matrice \(B=\begin{pmatrix} d\amp -b\\-c\amp a \end{pmatrix}\) telle que \(AB=0_{2,2}\text{,}\) donc \(A\) n'est pas inversible.

Remarque 3.10.
La clé ici est donc \(ad-bc\text{:}\) c'est le déterminant de la matrice \(A\text{.}\) On généralisera cette notion aux matrices carrées de taille \(n\) dans un chapitre ultérieur.

✑ Calculer l'inverse de \(A=\begin{pmatrix} 3\amp 1\\7\amp 2\end{pmatrix}\text{.}\)

✑ En déduire l'unique solution du système

\begin{equation*} \begin{cases} \begin{array}{rcrcr} 3x\amp +\amp y\amp =\amp -3\cr 7x\amp +\amp 2y\amp =\amp 2\cr \end{array} \end{cases} \end{equation*}

Spoiler

\begin{equation*} A^{-1}=\begin{pmatrix} -2\amp 1\\7\amp -3\end{pmatrix} \end{equation*}

On en déduit que le système a une unique solution donnée par

\begin{equation*} \begin{pmatrix} x\\y\end{pmatrix}=\begin{pmatrix} -2\amp 1\\7\amp -3\end{pmatrix}\begin{pmatrix} -3\\2\end{pmatrix} =\begin{pmatrix} 8\\-27\end{pmatrix} \end{equation*}

Sous-sous-section 3.2.2 Cas général: méthode de Gauss

Dans le cas général, on n'a pas de formule explicite pour calculer l'inverse d'une matrice en fonction de ses coefficients.

A la place, on va décrire un procédé qui permet de calculer cet inverse, en s'inspirant de la résolution de systèmes linéaires.

Soit donc \(A\in\mathcal M_n(\R)\) une matrice carrée inversible. On va calculer son inverse comme suit:

  • On écrit la matrice identité \(I_n\) à droite de \(A\text{:}\)

    \begin{equation*} \left(\begin{array}{@{}ccc|ccc@{}} a_{11} \amp \cdots \amp a_{1n} \amp 1\amp \cdots\amp 0\\ \vdots\amp \amp \vdots\amp \vdots \amp \ddots\amp \vdots\\ a_{n1}\amp \cdots\amp a_{nn}\amp 0\amp \cdots\amp 1 \end{array}\right) \end{equation*}

    On appelle cette nouvelle "matrice" la matrice augmentée.

  • On applique des opérations élémentaires sur les lignes de cette matrice augmentée jusqu'à obtenir

    \begin{equation*} \left(\begin{array}{@{}ccc|ccc@{}} 1\amp \cdots\amp 0 \amp b_{11} \amp \cdots \amp b_{1n} \\ \vdots\amp \ddots\amp \vdots\amp \vdots \amp \amp \vdots\\ 0\amp \cdots\amp 1\amp b_{n1}\amp \cdots\amp b_{nn} \end{array}\right) \end{equation*}
  • On a alors \(B=A^{-1}\)

Qui sont ces opérations élémentaires, me demanderez-vous ? : Ce sont les mêmes que pour les systèmes linéaires:

  • Echange de lignes \(L_i\leftrightarrow L_j\)
  • Pour \(\alpha\neq0\text{,}\) \(L_i\leftarrow \alpha L_i\)
  • Pour \(\lambda\in \K\) et \(j\neq i\text{,}\) \(L_i\leftarrow L_i+\lambda L_j\text{.}\)

Grâce à Carl Friedrich, on sait déjà comment les manier:

Etape 1: on va utiliser ces opérations sur \(A\text{,}\) d'une part et \(I_n\text{,}\) d'autre part, pour se ramener à une matrice triangulaire du côté gauche:

\begin{equation*} \left(\begin{array}{@{}cccc|cccc@{}} t_{11} \amp t_{12} \amp \dots \amp t_{1n} \amp *\amp \amp \dots\amp * \\ 0 \amp t_{22} \amp \dots \amp t_{2n}\amp *\amp \amp \dots\amp * \\ \vdots \amp \amp \amp \amp \vdots \amp \amp \amp \\ 0 \amp 0 \amp \dots \amp t_{nn} \amp *\amp \amp \dots\amp * \end{array}\right) \end{equation*}

Pour arriver là, on commence par s'assurer que le coefficient \(a_{11}\) de \(A\) est non nul.

S'il l'est, on échange avec une ligne dont le premier coefficient est non nul  3 

on n'oublie pas de faire la même opération sur \(I_n\) du côté droit !

Si toute la première colonne est nulle, alors \(A\) n'est pas inversible, et on peut aller dormir.

Une fois que le coefficient en haut à gauche est non nul, on l'utilise pour éliminer tous les coefficients de la première colonne qui sont en dessous, en faisant, pour chaque ligne \(L_2, \dots, L_n\text{,}\) l'opération \(L_i \leftarrow L_i - \frac{a_{i1}}{a_{11}}L_1\)  4 .

et on fait les mêmes opérations sur le côté droit du tableau

On se retrouve, à gauche, avec une nouvelle matrice, dont le coefficient en haut à gauche est non nul, et le reste de la première colonne est nul.

On passe alors au deuxième coefficient de la deuxième ligne, et on applique le même procédé:

quitte à échanger \(L_2\) avec \(L_3,\dots L_n\)  5 , on s'arrange pour que le coefficient de la 2ème ligne, 2ème colonne soit non nul, et on l'utilise pour éliminer les coefficients de la deuxième colonne sur \(L_3,\dots L_n\text{.}\)

et pareil à droite

On se ramène ainsi à un système triangulaire, comme annoncé plus haut.

La matrice n'est inversible que si on peut mener à bien ce procédé, et obtenir un système triangulaire dont les coefficients diagonaux sont non nuls: \(t_{ii}\neq 0\text{.}\)

Toutes ces opérations ont bien sûr changé \(I_n\) en une autre matrice à droite.

Pendant cette phase, tout se passe exactement comme si on cherchait à ramener un système dont \(A\) est la matrice des coefficient à un système échelonné.

Etape 2: On va maintenant utiliser les mêmes opérations élémentaires pour "remonter" les lignes de la matrice triangulaire et la transformer en matrice identité.

On comment par diviser \(L_n\) par \(t_{nn}\text{:}\) la dernière ligne à gauche est maintenant \((0,\dots,0,1)\text{.}\)

Puis on utilise cette ligne pour éliminer tous les coefficients de la dernière colonne sur \(L_1,\dots,L_{n-1}\) en faisant \(L_i \leftarrow L_i - t_{i1}L_n\)  6 .

et pareil à droite

L'avant dernière ligne est maintenant \(L_{n-1}=(0,\dots,t_{n-1,n-1}, 0)\text{:}\)

On la divise par \(t_{n-1,n-1}\) et on s'en sert pour éliminer les coefficients de la \(n-1\)-ième colonne sur les lignes d'au dessus.

Et ainsi de suite, en faisant les mêmes opérations à droite du tableau, jusqu'à obtenir

\begin{equation*} \left(\begin{array}{@{}cccc|cccc@{}} 1\amp 0\amp \dots\amp 0 \amp b_{11} \amp b_{12} \amp \dots \amp b_{1n} \\ 0\amp 1\amp \dots\amp 0 \amp b_{21} \amp \ddots \amp \amp b_{2n} \\ \vdots \amp \amp \amp \amp \vdots \amp \amp \amp \\ 0\amp 0\amp \dots\amp 1 \amp b_{n1} \amp b_{n2} \amp \dots \amp b_{nn} \end{array}\right) \end{equation*}

Un exemple rendra tout cela plus parlant: soit \(A=\begin{pmatrix}1\amp 2\amp 1\\4\amp 0\amp -1\\-1\amp 2\amp 2\end{pmatrix}\)

J'ai donc un peu menti quand j'ai dit que l'inverse de matrices "sert" à résoudre des systèmes. Comme on vient de le voir, la méthode efficace pour calculer un inverse revient, en fin de compte, à résoudre un système: c'est donc plus ou moins la même chose !

Très bien, mais quelle est cette magie noire ? Pourquoi ça marche ?

Pour répondre à cette question, on va encore approfondir le lien entre matrices et systèmes, notamment en introduisant une représentation matricielle des opérations élémentaires. C'est l'objet de la Sous-section 3.5.

Pour le moment, intéressons nous à quelques exemples:

(a)

✑ Calculer l'inverse de la matrice

\begin{equation*} A=\begin{pmatrix} 1\amp 2\amp -1\\2\amp 2\amp 4\\1\amp 3\amp -3 \end{pmatrix} \end{equation*}

en notant les opérations réalisées sur les lignes.

Réponse
\begin{equation*} A^{-1}=\begin{pmatrix} 9\amp -\frac32\amp -5\\-5\amp 1\amp 3\\-2\amp \frac12\amp 1 \end{pmatrix} \end{equation*}

via les opérations \({\color{blue}{L_2\leftarrow L_2-2L_1,\ L_3\leftarrow L_3 - L_1,\ L_2\leftrightarrow L_3,\ L_3\leftarrow L_3+2L_2}}\) pour obtenir une matrice triangulaire ("descente"), puis \({\color{blue}{L_3\leftarrow \frac12L_3,\ L_2\leftarrow L_2+2L_3,\ L_1\leftarrow L_1+L_3, L_1\leftarrow L_1-2L_2}}\) pour la "remontée".

(b)

✑ Résoudre le système

\begin{equation*} \begin{cases} \begin{array}{rcrcrcr} x\amp +\amp 2y\amp -\amp z\amp =\amp a\cr 2x\amp +\amp 2y\amp +\amp 4z\amp =\amp b\cr x\amp +\amp 3y\amp -\amp 3z\amp = \amp c\cr \end{array} \end{cases} \end{equation*}

en notant les opérations réalisées sur les lignes. Des observations ?

Réponse
\begin{equation*} \begin{cases} x\amp =3a-\frac32b -5c\\ y\amp =3c+b-5a\\ z\amp =-2a+\frac12b+c \end{cases} \end{equation*}

Les opérations les plus naturelles sont exactement les mêmes que celles de la partie "descente" du calcul de l'inverse de \(A\text{,}\) ce qui n'est pas absurde puisque ce système s'écrit matriciellement\(A\begin{pmatrix}x\\y\\z\end{pmatrix}=\begin{pmatrix}a\\b\\b\end{pmatrix}\text{.}\)

(c)

✑ Ecrire la solution obtenue sous la forme

\begin{equation*} \begin{pmatrix}x\\y\\z\end{pmatrix}=B\begin{pmatrix}a\\b\\b\end{pmatrix} \end{equation*}

pour une matrice \(B\) à trouver. Qui est \(B\text{?}\)

Réponse

On trouve \(B=A^{-1}= \begin{pmatrix} 9\amp -\frac32\amp -5\\-5\amp 1\amp 3\\-2\amp \frac12\amp 1 \end{pmatrix}\text{.}\)

(a)

Résoudre le système suivant, en notant les opérations réalisées:

\begin{equation*} \begin{cases} \begin{array}{rcrcrcr} 2x\amp +\amp 4y\amp -\amp z\amp =\amp a\cr 3x\amp +\amp y \amp -\amp 3z\amp =\amp b\cr -x\amp +\amp 3y\amp +\amp 2z\amp = \amp c\cr \end{array} \end{cases} \end{equation*}

Que peut-on en déduire sur la matrice

\begin{equation*} A=\begin{pmatrix} 2\amp 4\amp -1\\ 3\amp 1\amp -3\\ -1\amp 3\amp 2 \end{pmatrix} ? \end{equation*}
(b)

Essayer d'appliquer la méthode de calcul d'inverse à cette matrice. Qu'est-ce qui l'empêche d'aboutir ?

Il serait donc plus exact de dire que le calcul matriciel est une traduction des systèmes linéaires en termes de tableaux de nombres, sur lesquels on effectue des opérations simples.

Ce qui est horriblement fastidieux pour un humain, mais les ordinateurs adorent ça. L'automatisation de ce procédé est appelé décomposition LU d'une matrice.

Sous-section 3.3 Propriétés de l'inverse

L'inverse de matrices a les propriétés suivantes:

Démonstration

  1. Montrons que \(A^{-1}\) est aussi inversible d'inverse \(A\text{.}\) Or, par définition de \(A^{-1}\text{,}\) on a

    \begin{equation*} AA^{-1}=A^{-1}A=I_n \end{equation*}

    Je sais, allez-vous me dire, \(A^{-1}\) est l'inverse de \(A\text{.}\) Mais, d'après la Définition 3.1, cette égalité dit aussi que \(A\) est l'inverse de \(A^{-1}\text{,}\) comme on le souhaitait.

  2. Soient \(A, B\in \mathcal M_n(\K)\) inversibles.

    ✑ Montrer que \(AB\) l'est aussi et que son inverse est \(B^{-1}A^{-1}\)

    Spoiler

    \begin{gather*} (AB)(B^{-1}A^{-1}) = A(BB^{-1})A^{-1}=AI_nA^{-1} = AA^{-1}=I_n\\ (B^{-1}A^{-1})(AB)=B^{-1}(A^{-1}A)B=B^{-1}I_nB = B^{-1}B=I_n \end{gather*}

    Donc \(AB\) est inversible, d'inverse \(B^{-1}A^{-1}\)

  3. \(A\in \mathcal M_n(\K)\) inversible. Pour montrer que, pour tout \(p\in\N\text{,}\) \(A^p\) est inversible, on procède par récurrence 7 .

    • \({\color{purple}{p=0:}}\) \(A^0=I_n\) est inversible, d'inverse \(I_n=(A^{-1})^0\text{.}\)
    • \({\color{purple}{p\leadsto p+1:}}\) Supposons que, pour un certain entier \(p\text{,}\) \(A^p\) est inversible d'inverse \((A^{-1})^p)\text{.}\)

      Montrons que \(A^{p+1}\) est inversible, et que son inverse est \((A^{-1})^{p+1}\text{:}\)

      \begin{equation*} A^{p+1}(A^{-1})^{p+1}=A^pAA^{-1}(A^{-1})^p =A^pI_n(A^{-1})^p=A^p(A^{-1})^p=I_n, \end{equation*}

      où la dernière égalité vient de l'hypothèse de récurrence.

  4. Soient \(A,B \in \mathcal M_{n,p}(\K)\text{,}\) et \(C_1 \in \mathcal M_n(\K)\) inversible.

    Supposons que \(C_1A=C_1B\text{.}\) Alors \(C_1(A-B)=0_{n,p}\) donc, en multipliant cette égalité par \(C_1^{-1}\) (à gauche), on trouve:

    \begin{equation*} C_1^{-1}C_1(A-B)=C_1^{-1}0_{n,p}=0_{n,p}, \end{equation*}

    autrement dit \(I_n(A-B)=A-B=0_{n,p}\text{.}\) Donc \(A=B\text{.}\)

    ✑ Montrez le deuxième point: si \(C_2 \in \mathcal M_p(\K)\) est inversible et \(AC_2=BC_2\text{,}\) alors \(A=B\text{.}\)

Remarque 3.14.

Pour deux réels non nuls \(a\) et \(b\text{,}\) on a en général \(\frac1{a+b}\neq\frac1a+\frac1b\text{.}\) De même, pour deux matrices inversibles \(A\) et \(B\text{,}\) en général on n'a pas \((A+B)^{-1}=A^{-1}+B^{-1}\text{.}\)

  • Il se peut que \(A\) et \(B\) soient inversibles, mais que \(A+B\) ne le soit pas.

    Par exemple, \(I_n\) et \(-I_n\) sont inversibles 8  mais \(I_n+(-I_n)=0_{n}\) ne l'est pas.

  • Il se peut que \(A+B\) soit inversible, mais \((A+B)^{-1}\neq A^{-1}+B^{-1}\text{:}\)

    ✑ Que donnent \(A+B\text{,}\) \((A+B)^{-1}\) et \(A^{-1}+B^{-1}\) pour \(A=2I_n\) et \(B=3I_n\) ?

    Spoiler
    \begin{gather*} A+B=5I_n\\ (A+B)^{-1}=\frac15 I_n\\ A^{-1}+B^{-1}=\frac 12 I_n + \frac 13 I_n = \frac56 I_n \end{gather*}
✑ Quel est l'inverse de \(-I_n\) ?

Sous-section 3.4 Un allègement de la définition

Soit \(A\in\mathcal M_n{\R}\) une matrice inversible. On a vu à la Définition 3.1 que la matrice \(B\) est l'inverse de \(A\) si, et seulement si, elle vérifie deux conditions: \(AB=I_n\) et \(BA=I_n\text{.}\)

En réalité, il suffit de vérifier une seule de ces deux conditions. Autrement dit, on va montrer que:

Pour démontrer cette affirmation, on va utiliser les propriétés des systèmes linéaires.

On va noter \(X\in\mathcal M_n(\R)\) une matrice carrée dont les coefficients \(x_{ij}\text{,}\) pour \(i,j=1,\ldots,n\) sont des inconnues, et on pose une \((n^2+1)\)-ième inconnue \(y\text{.}\)

On va s'intéresser à l'équation \(BX = y I_n\text{,}\) c'est-à-dire, \(BX - y I_n =0_{n,n}\text{.}\) Coefficient par coefficient, cela donne:

\begin{align*} \amp \begin{pmatrix} b_{11} \amp \dots \amp b_{1n}\\ \vdots \amp \amp \vdots\\ b_{n1} \amp \dots \amp b_{nn} \end{pmatrix}\begin{pmatrix} x_{11} \amp \dots \amp x_{1n}\\ \vdots \amp \amp \vdots\\ x_{n1} \amp \dots \amp x_{nn} \end{pmatrix} - \begin{pmatrix} y \amp \dots \amp 0\\ \vdots \amp \amp \vdots\\ 0 \amp \dots \amp y \end{pmatrix}=\begin{pmatrix} 0 \amp \dots \amp 0\\ \vdots \amp \amp \vdots\\ 0 \amp \dots 0 \end{pmatrix}\\ \amp \iff \begin{cases} b_{11}x_{11}+b_{12}x_{21}+\ldots + b_{1n}x_{1n} - y \amp =0 \\ b_{21}x_{11}+b_{22}x_{21}+\ldots + b_{2n}x_{1n} \amp =0 \\ \amp \vdots \\ b_{n1}x_{1n}+b_{n2}x_{2n}+\ldots + b_{nn}x_{nn} - y \amp =0 \end{cases} \end{align*}

\(\leadsto\) Il s'agit d'un système linéaire à \(n^2+1\) inconnues \(x_{11},x_{12},\ldots,x_{nn},y\) et \(n^2\) équations (une par coefficient de l'égalité matricielle \(BX-I_n=0_{n,n}\)).

✑ Pour y voir plus clair, écrivez le système obtenu pour \(n=2\) et \(B=\begin{pmatrix} 1\amp 2\\1\amp -1\end{pmatrix}\text{.}\)

Spoiler

On pose \(X=\begin{pmatrix} x_{11}\amp x_{12}\\x_{21}\amp x_{22}\end{pmatrix}\) et on a \(yI_2 = \begin{pmatrix} y\amp 0\\0\amp y\end{pmatrix}\text{,}\) ce qui donne

\begin{align*} BX-yI_2=0_{2,2}\amp\iff \begin{pmatrix} 1\amp 2\\1\amp -1\end{pmatrix}\begin{pmatrix} x_{11}\amp x_{12}\\x_{21}\amp x_{22}\end{pmatrix}-\begin{pmatrix} y\amp 0\\0\amp y\end{pmatrix} = \begin{pmatrix} 0\amp 0\\0\amp 0\end{pmatrix}\\ \amp \iff \begin{pmatrix} x_{11}+2x_{21}-y\amp x_{12}+2x_{22}\\ x_{11}-x_{21}\amp x_{12}-x_{22}-y\end{pmatrix} = \begin{pmatrix} 0\amp 0\\0\amp 0\end{pmatrix} \end{align*}

Ce qui donne le système à 5 inconnues et 4 équations

\begin{equation*} \begin{cases} \begin{array}{rcrcrcrcrcr} x_{11}\amp +\amp \amp \amp 2x_{21}\amp \amp \amp -\amp y\amp =0\cr \amp \amp x_{12}\amp +\amp \amp \amp 2x_{22}\amp \amp \amp =0\cr x_{11}\amp -\amp \amp \amp x_{21}\amp \amp \amp\amp \amp =\amp 0\cr \amp \amp x_{12}\amp -\amp \amp \amp x_{22}\amp -\amp y\amp =\amp 0\cr \end{array} \end{cases} \end{equation*}

Revenons au cas général. Le système obtenu est, de plus, homogène: il a donc soit une seule solution donnée par \(x_{11}=x_{12}=\ldots=x_{nn}=y=0\text{,}\) soit une infinité de solutions.

Soit \(r\) le rang du système. Comme on l'a vu ici, on a \(r\leq n^2\) et

\begin{equation*} n^2+1 = \underbrace{r}_{\leq n^2} + \underbrace{\text{ nb d'inconnues libres}}_{\geq 1} \end{equation*}

\(\leadsto \) Il y a donc au moins une inconnue libre, et il y a donc une infinité de solution au système.

En particulier, il y a au moins une solution non nulle, qu'on va noter \(\tilde x_{11}, \tilde x_{12},\ldots,\tilde x_{nn},\tilde y\text{.}\) On note aussi

\begin{equation*} \tilde{X}= \begin{pmatrix} \tilde x_{11} \amp \dots \amp \tilde x_{1n}\\ \vdots \amp \amp \vdots\\ \tilde x_{n1} \amp \dots \amp \tilde x_{nn} \end{pmatrix} \end{equation*}

De plus, \(\tilde y \neq 0\text{:}\) on peut le montrer par l'absurde  9  .

Supposons que \(\tilde y = 0\text{.}\) Alors la matrice \(\tilde X\) est non nulle et on a

\begin{equation*} B\tilde{X}- \tilde{y}I_n = B\tilde{X} =0_{n,n} \end{equation*}

Multiplions cette inégalité par la matrice \(A\) (à gauche):

\begin{equation*} AB\tilde{X} = I_n \tilde{X} = 0_{n,n} \end{equation*}

donc \(\tilde{X}=0_{n,n}\text{,}\) ce qui contredit le fait que \((\tilde{X},\tilde y)\) est une solution non nulle du système homogène.

Mais du coup, on a

\begin{equation*} B\tilde{X} = \tilde{y}I_n \end{equation*}

donc

\begin{equation*} B(\frac1{\tilde y}\tilde{X}) = I_n \end{equation*}

Reste à vérifier que \(\frac1{\tilde y}\tilde{X}=A\text{.}\) Or,

\begin{equation*} \frac1{\tilde y}\tilde{X} = I_n(\frac1{\tilde y}\tilde{X})=AB(\frac1{\tilde y}\tilde{X})=A(B(\frac1{\tilde y}\tilde{X})) = A \end{equation*}

On a donc bien \(BA = I_n\text{,}\) comme espéré.

Sous-section 3.5 Pourquoi ça marche ?

Camarche parce qu'en fait, appliquer les opérations élémentaires à un système revient à multiplier la matrice des coefficients \(A\) par certaines matrices, appelées...matrices élémentaires.

Sous-sous-section 3.5.1 Matrices élémentaires

Ces matrices élémentaires sont obtenues en appliquant une opération élémentaire à la matrice \(I_n\text{.}\) Plus en détail:

Echange de lignes: Faire l'opération \(L_i \leftrightarrow L_j\) revient à multiplier \(A\) à gauche par la matrice \(T_{ij}\) obtenue en échangeant les \(i\)-ème et \(j\)-ème lignes de la matrice identité \(I_n\text{.}\)

Par exemple, pour \(n= 4\text{,}\)

\begin{equation*} T_{12} = \begin{pmatrix} 0\amp 1\amp 0\amp 0\\ 1\amp 0\amp 0\amp 0\\ 0\amp 0\amp 1\amp 0\\ 0\amp 0\amp 0\amp 1 \end{pmatrix},\quad T_{24} = \begin{pmatrix} 1\amp 0\amp 0\amp 0\\ 0\amp 0\amp 0\amp 1\\ 0\amp 0\amp 1\amp 0\\ 0\amp 1\amp 0\amp 0 \end{pmatrix} \end{equation*}

Plus généralement, les coefficients de \(T_{ij}\) sont donnés par

\begin{equation} (T_{ij})_{kl}= \begin{cases} 1 \text{ si } (k,l)= (i,j) \text{ ou } (k,l)=(j,i)\\ 1 \text{ si } k =l \text{ et } k\neq i,j\\ 0 \text{ sinon.} \end{cases}\label{eq_coeff_eij}\tag{3.1} \end{equation}

✑ Vérifiez sur lesexemples précédents que cette formule marche.

✑ Pour \(A = \begin{pmatrix}a\amp b\\c\amp d\end{pmatrix}\text{,}\) calculer \(T_{12}A\text{.}\)

Spoiler

\begin{equation*} T_{12}=\begin{pmatrix}0\amp 1\\1\amp 0\end{pmatrix} \end{equation*}

d'où \(T_{12}A= \begin{pmatrix}c\amp d\\a\amp b\end{pmatrix}\text{.}\)

✑ Pour une matrice \(3\times3\) quelconque, calculer \(T_{23}A\text{.}\)

Spoiler

Notons

\begin{equation*} A = \begin{pmatrix}a_1\amp b_1\amp c_1\\a_2\amp b_2\amp c_2\\a_3 \amp b_3 \amp c_3\end{pmatrix} \end{equation*}

On a:

\begin{equation*} T_{23}= \begin{pmatrix}1\amp 0\amp 0\\0\amp 0\amp 1\\0 \amp 1 \amp 0\end{pmatrix} \end{equation*}

donc:

\begin{equation*} T_{23}A = \begin{pmatrix}a_1\amp b_1\amp c_1\\a_3 \amp b_3 \amp c_3\\a_2\amp b_2\amp c_2\end{pmatrix}. \end{equation*}

✑ Au fait, que donne \(AT_{23}\) ?

Les matrices d'échange de lignes vérifient:

  • ✑ Pour \(n=4\text{,}\) calculer \(T_{42}\text{.}\)

    ➢ D'après (3.1),

    \begin{equation*} (T_{ji})_{kl}= \begin{cases} 1 \text{ si } (k,l)= (j,i) \text{ ou } (k,l)=(i,j)\\ 1 \text{ si } k =l \text{ et } k\neq i,j\\ 0 \text{ sinon.} \end{cases} =(T_{ij})_{kl} \end{equation*}

    donc on a bien \(T_{ij}=T_{ji}\text{.}\)

  • ✑ Pour \(n=4\text{,}\) calculer \(T_{12}^2\text{.}\)

    ➢ Montrons que \(T_{ij}T_{ij}=I_n\text{.}\) Le coefficient en position \((k,l)\) de \(T_{ij}^2\) est donné par notre bonne vieille formule (2.1)

    \begin{equation*} (T_{ij}^2)_{kl}=\sum_{p=1}^n (T_{ij})_{kp}(T_{ij})_{pl} \end{equation*}

    En utilisant (3.1), on voit que la plupart des termes de cette somme sont nuls, sauf dans les cas suivants:

    \begin{equation*} \begin{cases} k=i,p= j, l=i\\ k=j, p= i, l=j \\ k \neq i,j,\ k=p=l \end{cases} \iff k=l \end{equation*}

    On trouve donc que si \(k=l\text{,}\) \((T_{ij}^2)_{kl}=1\text{,}\) et sinon, \((T_{ij}^2)_{kl}=0\text{:}\) donc \(T_{ij}^2=I_n\text{.}\)

  • ➢ Soit \(C = T_{ij}A\text{.}\) On va encore utiliser (2.1) pour calculer les coefficients de \(C\) ligne par ligne.

    • Les coefficients de \(C\) sur la \(i\)-ème ligne sont

      \begin{equation*} c_{il} = \sum_{p=1}^n (T_{ij})_{ip}a_{pl} = a_{jl} \end{equation*}

      car \((T_{ij})_{ip}=1\) si \(p=j\text{,}\) \(0\) sinon.

      \(\leadsto\) Les coefficients de la \(i\)-ème ligne de \(C\) sont donc ceux de la \(j\)-ème ligne de \(A\text{.}\)

    • De même, les coefficients sur la \(j\)-ème ligne sont

      \begin{equation*} c_{jl} = \sum_{p=1}^n (T_{ij})_{jp}a_{pl} = a_{il}: \end{equation*}

      ce sont ceux de la \(i\)-ème ligne de \(A\text{.}\)

    • Pour les autres lignes, avec \(k\neq i,j\text{,}\)

      \begin{equation*} c_{kl} = \sum_{p=1}^n (T_{ij})_{kp}a_{pl} = a_{kl} \end{equation*}

      autrement dit les autres lignes ne changent pas.

Multiplication d'une ligne par \(\alpha\text{:}\) Faire l'opération \(L_i \leftarrow \alpha L_i\text{,}\) avec \(\alpha \neq 0\) revient à multiplier \(A\) à gauche par la matrice \(D_i(\alpha)\text{,}\) obtenue en multipliant la \(i\)-ème de la matrice identité \(I_n\) par \(\alpha\text{.}\)

Par exemple, pour \(n= 4\text{,}\)

\begin{equation*} D_2(\alpha) = \begin{pmatrix} 1\amp 0\amp 0\amp 0\\ 0\amp \alpha\amp 0\amp 0\\ 0\amp 0\amp 1\amp 0\\ 0\amp 0\amp 0\amp 1 \end{pmatrix} \end{equation*}

Plus généralement, les coefficients de \(D_{i}(\alpha)\) sont donnés par

\begin{equation} (D_{i}(\alpha))_{kl}= \begin{cases} 1 \text{ si } k=l \text{ et } k\neq i\\ \alpha \text{ si } (k,l)=(i,i)\\ 0 \text{ sinon.} \end{cases}\label{eq_coeff_dia}\tag{3.2} \end{equation}

✑ Pour \(A = \begin{pmatrix}a\amp b\\c\amp d\end{pmatrix}\text{,}\) calculer \(D_{1}(\alpha)A\text{.}\)

Spoiler

\begin{equation*} D_{1}(\alpha) =\begin{pmatrix}\alpha \amp 0\\0\amp 1\end{pmatrix} \end{equation*}

donc

\begin{equation*} D_{1}(\alpha)A= \begin{pmatrix} \alpha a \amp \alpha b\\c\amp d\end{pmatrix} \end{equation*}

✑ Pour une matrice \(3\times 3\) quelconque, calculer \(D_{2}(\alpha)A\text{.}\)

Spoiler

On note

\begin{equation*} A = \begin{pmatrix}a_1\amp b_1\amp c_1\\a_2\amp b_2\amp c_2\\a_3 \amp b_3 \amp c_3\end{pmatrix} \end{equation*}

et on a

\begin{equation*} D_{2}(\alpha)= \begin{pmatrix}1\amp 0\amp 0\\0\amp \alpha \amp 0\\0 \amp 0 \amp 1\end{pmatrix} \end{equation*}

donc

\begin{equation*} D_{2}(\alpha)A = \begin{pmatrix}a_1 \amp b_1 \amp c_1 \\ \alpha a_2\amp \alpha b_2\amp \alpha c_2 \\a_3 \amp b_3 \amp c_3 \end{pmatrix} \end{equation*}

  • ✑ Pour \(n=4\text{,}\) calculer \(D_{2}(3)D_2(\frac13)\text{.}\)

    Montrons que \(D_{i}(\alpha)D_{i}(\frac1\alpha)=I_n\text{.}\) Le coefficient en position \((k,l)\) de \(D_{i}(\alpha)D_{i}(\frac1\alpha)\) est donné par notre bonne vieille formule (2.1)

    \begin{equation*} (D_{i}(\alpha)D_{i}(\frac1\alpha))_{kl}=\sum_{p=1}^n (D_{i}(\alpha))_{kp}(D_{i}(\frac1\alpha))_{pl} \end{equation*}

    En utilisant (3.2), on trouve que tous les termes tels que \(k\neq p\) ou \(p\neq l\) sont nuls, ce qui laisse les termes \(k=p=l\text{,}\) autrement dit les termes diagonaux:

    \begin{equation*} (D_{i}(\alpha)D_{i}(\frac1\alpha))_{kl}= \begin{cases} 0 \text{ si } k \neq l\\ 1*1=1 \text{ si } k\neq i, k = p = l \\ \alpha * \frac1\alpha = 1 \text{ si } k= i, k = p = l \end{cases} \end{equation*}

    On trouve donc que si \(k=l\text{,}\) \((D_{i}(\alpha)D_{i}(\frac1\alpha))_{kl}=1\text{,}\) et sinon, \((D_{i}(\alpha)D_{i}(\frac1\alpha))_{kl}=0\text{:}\) donc \(D_{i}(\alpha)D_{i}(\frac1\alpha)=I_n\text{.}\)

  • Soit \(C = D_{i}(\alpha)A\text{,}\) alors les coefficients de \(C\) sur la \(i\)-ème ligne sont

    \begin{equation*} c_{il} = \sum_{p=1}^n (D_{i}(\alpha))_{ip}a_{pl} = \alpha a_{il} \end{equation*}

    ce sont donc ceux de la \(i\)-ème ligne de \(A\text{,}\) multipliés par \(\alpha\text{.}\)

    Pour les autres lignes, avec \(k\neq i\text{,}\)

    \begin{equation*} c_{kl} = \sum_{p=1}^n (D_{i}(\alpha))_{kp}a_{pl} = a_{kl} \end{equation*}

    autrement dit les autres lignes ne changent pas.

Ajout à une ligne de \(\lambda\) fois une autre: Faire l'opération \(L_i \leftarrow L_i+\lambda L_j\) revient à multiplier \(A\) à gauche par la matrice \(L_{ij}(\lambda)\text{,}\) obtenue en ajoutant \(\lambda\) en position \((i,j)\) à la matrice identité.

Par exemple, pour \(n= 4\text{,}\)

\begin{equation*} L_{34}(\lambda) = \begin{pmatrix} 1\amp 0\amp 0\amp 0\\ 0\amp 1\amp 0\amp 0\\ 0\amp 0\amp 1\amp \lambda\\ 0\amp 0\amp 0\amp 1 \end{pmatrix}, \quad L_{13}(\lambda) = \begin{pmatrix} 1\amp 0\amp \lambda\amp 0\\ 0\amp 1\amp 0\amp 0\\ 0\amp 0\amp 1\amp 0\\ 0\amp 0\amp 0\amp 1 \end{pmatrix} \end{equation*}

Plus généralement, les coefficients de \(L_{ij}(\lambda)\) sont donnés par

\begin{equation} (L_{ij}(\lambda))_{kl}= \begin{cases} 1 \text{ si } k=l\\ \lambda \text{ si } (k,l)=(i,j)\\ 0 \text{ sinon.} \end{cases}\label{eq_coeff_tij}\tag{3.3} \end{equation}

✑ Pour \(A = \begin{pmatrix}a\amp b\\c\amp d\end{pmatrix}\text{,}\) calculer \(L_{12}(\lambda)A\text{.}\)

Spoiler

\begin{equation*} L_{12}(\lambda) =\begin{pmatrix}1\amp \lambda\\0\amp 1\end{pmatrix} \end{equation*}

donc

\begin{equation*} L_{12}(\lambda)A= \begin{pmatrix} a+\lambda c\amp b+\lambda d\\c\amp d\end{pmatrix} \end{equation*}

✑ Pour une matrice \(3\times3\) quelconque, calculer \(L_{12}(\lambda)A\text{.}\)

Spoiler

On note

\begin{equation*} A = \begin{pmatrix}a_1\amp b_1\amp c_1\\a_2\amp b_2\amp c_2\\a_3 \amp b_3 \amp c_3\end{pmatrix} \end{equation*}

et on a

\begin{equation*} L_{12}(\lambda)= \begin{pmatrix}1\amp \lambda\amp 0\\0\amp 1\amp 0\\0 \amp 0 \amp 1\end{pmatrix} \end{equation*}

donc

\begin{equation*} L_{12}(\lambda)A = \begin{pmatrix}a_1+\lambda a_2\amp b_1+\lambda b_2\amp c_1+\lambda c_2\\ a_2\amp b_2\amp c_2 \\a_3 \amp b_3 \amp c_3 \end{pmatrix} \end{equation*}

  • ✑ Pour \(n=4\text{,}\) calculer \(L_{12}(3)L_{12}(-3)\text{.}\)

    Montrons que \(L_{ij}(\lambda)L_{ij}(- \lambda)=I_n\text{.}\) Le coefficient en position \((k,l)\) de \(L_{ij}(\lambda)L_{ij}(- \lambda)\) est donné par notre bonne vieille formule (2.1)

    \begin{equation*} (L_{ij}(\lambda)L_{ij}(- \lambda))_{kl}=\sum_{p=1}^n (L_{ij}(\lambda))_{kp}(L_{ij}(- \lambda))_{pl} \end{equation*}

    En utilisant (3.3), on trouve que:

    \begin{equation*} (L_{ij}(\lambda))_{kp}(L_{ij}(- \lambda))_{pl}= \begin{cases} 0 \text{ si } k \neq i, k\neq p \\ 0 \text{ si } k \neq i, k= p, p \neq l \\ 1*1=1 \text{ si } k\neq i, k = p = l \\ \lambda *1 \text{ si } k=i,p=j,l=j \\ 1*(-\lambda) \text{ si } k=i,p=i,l=j \end{cases} \end{equation*}

    donc, si \(k\neq i\)

    \begin{equation*} (L_{ij}(\lambda)L_{ij}(- \lambda))_{kl} = \begin{cases} 0 \text{ si } k\neq l\\ 1 \text{ si } k=l \end{cases} \end{equation*}

    et si \(k=i\)

    \begin{equation*} (L_{ij}(\lambda)L_{ij}(- \lambda))_{il} = \begin{cases} 0 \text{ si } l\neq i,j\\ \lambda + (-\lambda)=0 \text{ si } l=j 1 \text{ si } l=i \end{cases} \end{equation*}

    On trouve donc que si \(k=l\text{,}\) \((L_{ij}(\lambda)L_{ij}(- \lambda))_{kl}=1\text{,}\) et sinon, \((L_{ij}(\lambda)L_{ij}(- \lambda))_{kl}=0\text{:}\) donc \(L_{ij}(\lambda)L_{ij}(- \lambda)=I_n\text{.}\)

  • Soit \(C = L_{ij}(\lambda)A\text{,}\) alors les coefficients de \(C\) sur la \(i\)-ème ligne sont

    \begin{equation*} c_{il} = \sum_{p=1}^n (L_{ij}(\lambda))_{ip}a_{pl} = \lambda a_{jl} + a_{ij} \end{equation*}

    ce sont donc ceux de la \(i\)-ème ligne de \(A\text{,}\) plus \(\lambda\) fois ceux de la \(j\)-ème.

    Pour les autres lignes, avec \(k\neq i\text{,}\)

    \begin{equation*} c_{kl} = \sum_{p=1}^n (L_{ij}(\lambda))_{kp}a_{pl} = a_{kl} \end{equation*}

    autrement dit les autres lignes ne changent pas.

Sous-sous-section 3.5.2 Donc, pourquoi ça marche:

Revenons à notre méthode de Gauss. On voit donc qu'en faisant successivement des opérations élémentaires sur \(A\) dans la partie gauche, on la multiplie par une série de matrices élémentaires jusqu'à obtenir \(I_n\text{.}\)

Ainsi, on fait dans la partie gauche quelque chose du genre

\begin{equation*} L_{ij}(\lambda)T_{kl}\dots L_{i',j'}(\mu)A = I_n \end{equation*}

✑ Dans l'exemple donné plus, avec \(A= \begin{pmatrix} 1\amp 2\amp 1\\4\amp 0\amp -1\\-1\amp 2\amp 2\end{pmatrix}\text{,}\) on a fait:

\begin{equation*} L_{12}(-2)D_{2}(-\frac18)L_{23}(5)L_{13}(-1)D_3(2)L_{32}(\frac12)L_{31}(1)L_{21}(-4)A \end{equation*}

et ainsi obtenu \(I_3\text{.}\)

D'après ce qu'on à vu en Sous-section 3.4, ça implique que \(A\) est inversible, et \(L_{12}(-2)D_{2}(-\frac18)L_{23}(5)L_{13}(-1)D_3(2)L_{32}(\frac12)L_{31}(1)L_{21}(-4)\) est son inverse.

Or, du côté droit, on a fait les mêmes opérations à \(I_n\text{:}\) on a donc fait

\begin{equation*} L_{12}(-2)D_{2}(-\frac18)L_{23}(5)L_{13}(-1)D_3(2)L_{32}(\frac12)L_{31}(1)L_{21}(-4)I_n = B. \end{equation*}

comme on peut le vérifier à l'aide d'une calculette à matrice.

Puisque multiplier par \(I_n\) ne change rien, on a donc bien que \(B\) est l'inverse de \(A\text{!}\)