Section 3 Inverse d'une matrice carrée
Il ne nous reste plus qu'à introduire une opération analogue à la "division" pour les matrices.
Partons, comme toujours, des réels. Diviser par un réel \(a\text{,}\) cela revient à multiplier par \(\frac{1}{a}\text{:}\) pour avoir une opération de division, il suffit donc de savoir calculer "l'inverse" d'un élément.
Pour un réel \(a\text{,}\) son inverse est l'unique réel \(b\) tel que \(ab=1\text{.}\)
Il nous faut une analogie pour les matrices: ça tombe bien, on sait déjà quelle matrice "fait" 1. En tenant compte de la non-commutativité du produit 1 , on aboutit assez naturellement à la définition suivante:
Définition 3.1.
Soit \(A\in \mathcal M_n(\K)\text{.}\) On dit que \(A\) est inversible s'il existe \(B\in \mathcal M_n(\K)\) telle que \(AB=BA = I_n\text{.}\) On dit que \(B\) est un inverse de \(A\text{.}\)
Par exemple, la matrice \(A=\begin{pmatrix} 2\amp 9\\1\amp 4\end{pmatrix}\) est inversible, et un inverse est \(B=\begin{pmatrix} -4\amp 9\\1\amp -2\end{pmatrix}\text{.}\)
Comme pour les réels, toutes les matrices ne sont pas inversibles: par exemple, la matrice nulle ne l'est pas:
✑ Montrer que, quelle que soit la matrice \(B\in \mathcal M_n(\K)\text{,}\) \(0_{n,n}\cdot B \neq I_n\text{.}\)
Supposons, par l'absurde, qu'il existe une matrice \(B\in \mathcal M_n(\K)\) telle que \(0_{n,n}\cdot B = I_n\text{.}\)
Comme on l'a vu, cependant, \(0_{n,n}\cdot B = 0_{n,n}\text{,}\) donc on se retrouve avec \(0_{n,n}=I_n\text{,}\) ce qui est faux !
Il n'existe donc aucune matrice \(B\) vérifiant cette condition.
⚠ En revanche, contrairement aux réels, la matrice nulle n'est pas la seule à ne pas être inversible !
Montrer que la matrice \(A=\begin{pmatrix}1 \amp 2 \\ 3 \amp 6 \end{pmatrix}\) n'est pas inversible.
Prendre une matrice quelconque \(B=\begin{pmatrix}a \amp b \\ c \amp d \end{pmatrix}\) et calculer \(AB\text{.}\) Pourquoi ne peut-on pas avoir \(AB=I_2\text{?}\)
Supposons, par l'absurde, que \(A\) est inversible. Alors il existe \(B=\begin{pmatrix}a \amp b \\ c \amp d \end{pmatrix}\in\mathcal M_2(\R)\) telle que \(AB=BA=I_2\text{.}\)
Or, on trouve:
Donc \(AB=I_2\) donne, coefficient par coefficient:
Ca alors, un système linéaire ! Ca tombe bien, on a appris à les résoudre au chapitre précédent.
Appliquons la méthode du pivot de Gauss: les opérations élémentaires \({\color{blue}{L_3\leftarrow L_3-3L_1,\ L_4\leftarrow L_4-3L_2}}\) donnent:
Les deux dernières lignes sont contradictoires: il n'y a donc aucune solution à ce système.
On ne peut donc trouver aucune matrice \(B\in\mathcal M_2(\R)\) telle que \(AB=I_2\) (et donc, a fortiori \(AB=BA=I_2\)).
\(\leadsto\) \(A n'est pas inversible.\)
Définition 3.3.
On note \(\mathcal{GL}_n(\K)\) le sous-ensemble des matrices carrées inversibles de taille \(n\text{.}\)
Proposition 3.4.
Si \(A\) est inversible, son inverse est unique. On le note \(A^{-1}\text{.}\)
Preuve.
Soit \(A\in \mathcal M_n(\K)\) une matrice inversible. Supposons que \(A\) admette deux inverses \(B_1\) et \(B_2\text{.}\) Alors on a \(AB_1=I_n=B_2A\) donc
autrement dit, les deux inverses sont égaux.
⚠ Attention à ne pas pousser trop loin l'analogie avec les réels. On ne notera jamais \(A^{-1} = \dfrac1A\text{,}\) car il est faux que \(AA^{-1}\) soit égal au réel 1: \(AA^{-1}=I_n\text{,}\)qui est "analogue" à 1, mais n'est pas le même type d'objet.
Exemple 3.5.
- \(I_n\) est inversible, d'inverse \(I_n\text{.}\)
-
\(3I_n\) est également inversible, d'inverse...
Spoiler\begin{equation*} (3I_n)^{-1}= \frac13 I_n \end{equation*} - ✑ Pour quels réels \(\alpha\) la matrice \(\alpha I_n\) est-elle inversible ? Quel est alors son inverse ?
-
\(A=\begin{pmatrix} 1\amp 2\\0\amp 3 \end{pmatrix}\) est inversible, d'inverse \(A^{-1}=\dfrac13\begin{pmatrix} 3\amp -2\\0\amp 1 \end{pmatrix}\text{.}\)
✑ Le vérifier: calculer \(\begin{pmatrix} 1\amp 2\\0\amp 3 \end{pmatrix}\dfrac13\begin{pmatrix} 3\amp -2\\0\amp 1 \end{pmatrix}\) et \(\dfrac13\begin{pmatrix} 3\amp -2\\0\amp 1 \end{pmatrix}\begin{pmatrix} 1\amp 2\\0\amp 3 \end{pmatrix}\text{.}\)
Ces considérations soulèvent quelques questions:
- Comment savoir si une matrice carrée donnée est inversible ou pas ?
- Y a-t-il un moyen efficace 2 de calculer l'inverse d'une matrice ?
- A quoi ça sert ?
On va laisser de côté la première question pour le moment: la notion qu'il nous faut est celle de déterminant, qui sera le sujet d'un des chapitres suivants.
On va commencer par répondre à la troisième: inverser des matrices permet de résoudre les systèmes linéaires ayant autant d'inconnues que d'équationq.
Du coup, vous ne serez pas surpris d'apprendre que la réponse à la seconde question repose sur la méthode du pivot de Gauss.
Sous-section 3.1 Application à la résolution de systèmes
On l'a vu ici, grâce à notre définition du produit matriciel, tout système linéaire à \(n\) équations et \(p\) inconnues:
peut se réécrire sous la forme \(AX=B\) avec
Si \(n=p\text{,}\) la matrice \(A\) est une matrice carrée.
Et si \(A\) est inversible, alors \(AX=B\) équivaut à \(X=A^{-1}B\text{:}\) autrement dit, \(X\) est solution du système ssi \(X=A^{-1}B\text{.}\) Il y a donc une unique solution.
Remarque 3.6.
En reprenant ce qu'on avait dit sur les systèmes linéaires au chapitre précédent, on voit donc que, si \(A\) est inversible, alors le rang du système \((\mathcal S)\) est égal à \(n\text{.}\) Autrement dit, en appliquant la méthode de Gauss à ce système, on fera apparaître \(n\) pivots.
Remarque 3.7.
Prenons le cas d'un système homogène: c'est le cas où \(B=(0,\ldots,0)\text{.}\) Dans ce cas, comme on l'a vu au chapitre précédent, il y a toujours au moins une solution: la solution nulle \(X=(0,\ldots,0)\text{.}\)
Donc, s'il existe un vecteur \(X\) non nul tel que \(AX=0\text{,}\) alors la solution n'est pas unique. Donc, par contraposée, dans ce cas, la matrice \(A\) n'est pas inversible.
On verra une interprétation plus abstraite de cette propriété un peu plus tard, quand on parlera du noyau des applications linéaires.
Sous-section 3.2 Calcul d'inverse
Soit \(A\in \mathcal M_n(\K)\) une matrice carrée. Supposons qu'on sait qu'elle est inversible.
\(\leadsto\) Comment utiliser le pivot de Gauss pour calculer son inverse ?
Sous-sous-section 3.2.1 Cas des matrices 2x2
On a une condition d'inversibilité et une formule explicite pour les matrices carrées de taille \(2 \times 2\text{:}\)
Proposition 3.8.
Soit \(A\in M_2(\K)\text{.}\) Alors, si \(ad-bc\neq0\text{,}\) \(A\) est inversible et
Soit \(A=\begin{pmatrix} a\amp b\\c\amp d\end{pmatrix}\in \mathcal M_2(\R)\) (pas forcément inversible). On calcule:
\(\leadsto\) Si \(ad-bc\neq0\) on peut diviser par \(ad-bc\) et on en déduit que
Un calcul similaire donne
Donc \(A\) est inversible dans ce cas, et \(A^{-1}= \frac1{ad-bc}\begin{pmatrix} d\amp -b\\-c\amp a \end{pmatrix}\)
✑ Soient \(A,B\) deux matrices carrées non nulles. Montrer que si \(AB=0_{n,n}\text{,}\) alors \(A\) n'est pas inversible.
Supposons, par l'absurde, que \(A\) est inversible. Alors
ce qui contredit \(B\neq 0_{n,n}\text{.}\)
Remarque 3.9.
Si \(AB=0_{n,n}\text{,}\) alors pour chaque colonne \(C_j=\begin{pmatrix}b_{1j}\\\vdots\\b_{nj}\end{pmatrix}\) de la matrice \(B\text{,}\) on a \(AC_j = 0_{\R^n}\text{.}\) Puisque \(B\neq 0_{n,n}\text{,}\) une de ces colonnes est non nulle: on est donc dans le cas de la Remarque 3.7.
✑ En déduire, dans la preuve précédente, que si \(ad-bc=0\) alors \(A\) n'est pas inversible.
Dans ce cas, le calcul précédent donne
Il existe donc une matrice \(B=\begin{pmatrix} d\amp -b\\-c\amp a \end{pmatrix}\) telle que \(AB=0_{2,2}\text{,}\) donc \(A\) n'est pas inversible.
Remarque 3.10.
La clé ici est donc \(ad-bc\text{:}\) c'est le déterminant de la matrice \(A\text{.}\) On généralisera cette notion aux matrices carrées de taille \(n\) dans un chapitre ultérieur.✑ Calculer l'inverse de \(A=\begin{pmatrix} 3\amp 1\\7\amp 2\end{pmatrix}\text{.}\)
✑ En déduire l'unique solution du système
On en déduit que le système a une unique solution donnée par
Sous-sous-section 3.2.2 Cas général: méthode de Gauss
Dans le cas général, on n'a pas de formule explicite pour calculer l'inverse d'une matrice en fonction de ses coefficients.
A la place, on va décrire un procédé qui permet de calculer cet inverse, en s'inspirant de la résolution de systèmes linéaires.
Soit donc \(A\in\mathcal M_n(\R)\) une matrice carrée inversible. On va calculer son inverse comme suit:
-
On écrit la matrice identité \(I_n\) à droite de \(A\text{:}\)
\begin{equation*} \left(\begin{array}{@{}ccc|ccc@{}} a_{11} \amp \cdots \amp a_{1n} \amp 1\amp \cdots\amp 0\\ \vdots\amp \amp \vdots\amp \vdots \amp \ddots\amp \vdots\\ a_{n1}\amp \cdots\amp a_{nn}\amp 0\amp \cdots\amp 1 \end{array}\right) \end{equation*}On appelle cette nouvelle "matrice" la matrice augmentée.
-
On applique des opérations élémentaires sur les lignes de cette matrice augmentée jusqu'à obtenir
\begin{equation*} \left(\begin{array}{@{}ccc|ccc@{}} 1\amp \cdots\amp 0 \amp b_{11} \amp \cdots \amp b_{1n} \\ \vdots\amp \ddots\amp \vdots\amp \vdots \amp \amp \vdots\\ 0\amp \cdots\amp 1\amp b_{n1}\amp \cdots\amp b_{nn} \end{array}\right) \end{equation*} On a alors \(B=A^{-1}\)
Qui sont ces opérations élémentaires, me demanderez-vous ? : Ce sont les mêmes que pour les systèmes linéaires:
- Echange de lignes \(L_i\leftrightarrow L_j\)
- Pour \(\alpha\neq0\text{,}\) \(L_i\leftarrow \alpha L_i\)
- Pour \(\lambda\in \K\) et \(j\neq i\text{,}\) \(L_i\leftarrow L_i+\lambda L_j\text{.}\)
Grâce à Carl Friedrich, on sait déjà comment les manier:
Etape 1: on va utiliser ces opérations sur \(A\text{,}\) d'une part et \(I_n\text{,}\) d'autre part, pour se ramener à une matrice triangulaire du côté gauche:
Pour arriver là, on commence par s'assurer que le coefficient \(a_{11}\) de \(A\) est non nul.
S'il l'est, on échange avec une ligne dont le premier coefficient est non nul 3
Si toute la première colonne est nulle, alors \(A\) n'est pas inversible, et on peut aller dormir.
Une fois que le coefficient en haut à gauche est non nul, on l'utilise pour éliminer tous les coefficients de la première colonne qui sont en dessous, en faisant, pour chaque ligne \(L_2, \dots, L_n\text{,}\) l'opération \(L_i \leftarrow L_i - \frac{a_{i1}}{a_{11}}L_1\) 4 .
On se retrouve, à gauche, avec une nouvelle matrice, dont le coefficient en haut à gauche est non nul, et le reste de la première colonne est nul.
On passe alors au deuxième coefficient de la deuxième ligne, et on applique le même procédé:
quitte à échanger \(L_2\) avec \(L_3,\dots L_n\) 5 , on s'arrange pour que le coefficient de la 2ème ligne, 2ème colonne soit non nul, et on l'utilise pour éliminer les coefficients de la deuxième colonne sur \(L_3,\dots L_n\text{.}\)
On se ramène ainsi à un système triangulaire, comme annoncé plus haut.
La matrice n'est inversible que si on peut mener à bien ce procédé, et obtenir un système triangulaire dont les coefficients diagonaux sont non nuls: \(t_{ii}\neq 0\text{.}\)
Toutes ces opérations ont bien sûr changé \(I_n\) en une autre matrice à droite.
Pendant cette phase, tout se passe exactement comme si on cherchait à ramener un système dont \(A\) est la matrice des coefficient à un système échelonné.
Etape 2: On va maintenant utiliser les mêmes opérations élémentaires pour "remonter" les lignes de la matrice triangulaire et la transformer en matrice identité.
On comment par diviser \(L_n\) par \(t_{nn}\text{:}\) la dernière ligne à gauche est maintenant \((0,\dots,0,1)\text{.}\)
Puis on utilise cette ligne pour éliminer tous les coefficients de la dernière colonne sur \(L_1,\dots,L_{n-1}\) en faisant \(L_i \leftarrow L_i - t_{i1}L_n\) 6 .
L'avant dernière ligne est maintenant \(L_{n-1}=(0,\dots,t_{n-1,n-1}, 0)\text{:}\)
On la divise par \(t_{n-1,n-1}\) et on s'en sert pour éliminer les coefficients de la \(n-1\)-ième colonne sur les lignes d'au dessus.
Et ainsi de suite, en faisant les mêmes opérations à droite du tableau, jusqu'à obtenir
Un exemple rendra tout cela plus parlant: soit \(A=\begin{pmatrix}1\amp 2\amp 1\\4\amp 0\amp -1\\-1\amp 2\amp 2\end{pmatrix}\)
J'ai donc un peu menti quand j'ai dit que l'inverse de matrices "sert" à résoudre des systèmes. Comme on vient de le voir, la méthode efficace pour calculer un inverse revient, en fin de compte, à résoudre un système: c'est donc plus ou moins la même chose !
Très bien, mais quelle est cette magie noire ? Pourquoi ça marche ?
Pour répondre à cette question, on va encore approfondir le lien entre matrices et systèmes, notamment en introduisant une représentation matricielle des opérations élémentaires. C'est l'objet de la Sous-section 3.5.
Pour le moment, intéressons nous à quelques exemples:
Exemple 3.11.
(a)
✑ Calculer l'inverse de la matrice
en notant les opérations réalisées sur les lignes.
via les opérations \({\color{blue}{L_2\leftarrow L_2-2L_1,\ L_3\leftarrow L_3 - L_1,\ L_2\leftrightarrow L_3,\ L_3\leftarrow L_3+2L_2}}\) pour obtenir une matrice triangulaire ("descente"), puis \({\color{blue}{L_3\leftarrow \frac12L_3,\ L_2\leftarrow L_2+2L_3,\ L_1\leftarrow L_1+L_3, L_1\leftarrow L_1-2L_2}}\) pour la "remontée".
(b)
✑ Résoudre le système
en notant les opérations réalisées sur les lignes. Des observations ?
Les opérations les plus naturelles sont exactement les mêmes que celles de la partie "descente" du calcul de l'inverse de \(A\text{,}\) ce qui n'est pas absurde puisque ce système s'écrit matriciellement\(A\begin{pmatrix}x\\y\\z\end{pmatrix}=\begin{pmatrix}a\\b\\b\end{pmatrix}\text{.}\)
(c)
✑ Ecrire la solution obtenue sous la forme
pour une matrice \(B\) à trouver. Qui est \(B\text{?}\)
On trouve \(B=A^{-1}= \begin{pmatrix} 9\amp -\frac32\amp -5\\-5\amp 1\amp 3\\-2\amp \frac12\amp 1 \end{pmatrix}\text{.}\)
Exemple 3.12.
(a)
Résoudre le système suivant, en notant les opérations réalisées:
Que peut-on en déduire sur la matrice
(b)
Essayer d'appliquer la méthode de calcul d'inverse à cette matrice. Qu'est-ce qui l'empêche d'aboutir ?
Il serait donc plus exact de dire que le calcul matriciel est une traduction des systèmes linéaires en termes de tableaux de nombres, sur lesquels on effectue des opérations simples.
Ce qui est horriblement fastidieux pour un humain, mais les ordinateurs adorent ça. L'automatisation de ce procédé est appelé décomposition LU d'une matrice.
Sous-section 3.3 Propriétés de l'inverse
L'inverse de matrices a les propriétés suivantes:
Proposition 3.13.
- Soit \(A\in \mathcal M_n(\K)\) inversible, alors \(A^{-1}\) est aussi inversible et \((A^{-1})^{-1}=A\text{.}\)
-
Soient \(A, B\in \mathcal M_n(\K)\) inversibles, alors \(AB\) est inversible et \((AB)^{-1}=B^{-1}A^{-1}\text{.}\)
⚠ Attention à l'ordre !
- Soit \(A\in \mathcal M_n(\K)\) inversible, alors pour tout \(p\geq 0\text{,}\) \(A^p\) est inversible et \((A^p)^{-1}=(A^{-1})^p\text{.}\) On notera \(A^{-p}\) la matrice \((A^{-1})^p\text{.}\)
-
Soient \(A,B \in \mathcal M_{n,p}(\K)\text{.}\) Alors:
- Soit \(C_1 \in \mathcal M_n(\K)\) inversible, \(C_1A=C_1B \Rightarrow A=B\text{.}\)
- Soit \(C_2 \in \mathcal M_p(\K)\) inversible, \(AC_2=BC_2 \Rightarrow A=B\text{.}\)
Démonstration
-
Montrons que \(A^{-1}\) est aussi inversible d'inverse \(A\text{.}\) Or, par définition de \(A^{-1}\text{,}\) on a
\begin{equation*} AA^{-1}=A^{-1}A=I_n \end{equation*}Je sais, allez-vous me dire, \(A^{-1}\) est l'inverse de \(A\text{.}\) Mais, d'après la Définition 3.1, cette égalité dit aussi que \(A\) est l'inverse de \(A^{-1}\text{,}\) comme on le souhaitait.
-
Soient \(A, B\in \mathcal M_n(\K)\) inversibles.
✑ Montrer que \(AB\) l'est aussi et que son inverse est \(B^{-1}A^{-1}\)
\begin{gather*} (AB)(B^{-1}A^{-1}) = A(BB^{-1})A^{-1}=AI_nA^{-1} = AA^{-1}=I_n\\ (B^{-1}A^{-1})(AB)=B^{-1}(A^{-1}A)B=B^{-1}I_nB = B^{-1}B=I_n \end{gather*}Donc \(AB\) est inversible, d'inverse \(B^{-1}A^{-1}\)
-
\(A\in \mathcal M_n(\K)\) inversible. Pour montrer que, pour tout \(p\in\N\text{,}\) \(A^p\) est inversible, on procède par récurrence 7 .
- \({\color{purple}{p=0:}}\) \(A^0=I_n\) est inversible, d'inverse \(I_n=(A^{-1})^0\text{.}\)
-
\({\color{purple}{p\leadsto p+1:}}\) Supposons que, pour un certain entier \(p\text{,}\) \(A^p\) est inversible d'inverse \((A^{-1})^p)\text{.}\)
Montrons que \(A^{p+1}\) est inversible, et que son inverse est \((A^{-1})^{p+1}\text{:}\)
\begin{equation*} A^{p+1}(A^{-1})^{p+1}=A^pAA^{-1}(A^{-1})^p =A^pI_n(A^{-1})^p=A^p(A^{-1})^p=I_n, \end{equation*}où la dernière égalité vient de l'hypothèse de récurrence.
-
Soient \(A,B \in \mathcal M_{n,p}(\K)\text{,}\) et \(C_1 \in \mathcal M_n(\K)\) inversible.
Supposons que \(C_1A=C_1B\text{.}\) Alors \(C_1(A-B)=0_{n,p}\) donc, en multipliant cette égalité par \(C_1^{-1}\) (à gauche), on trouve:
\begin{equation*} C_1^{-1}C_1(A-B)=C_1^{-1}0_{n,p}=0_{n,p}, \end{equation*}autrement dit \(I_n(A-B)=A-B=0_{n,p}\text{.}\) Donc \(A=B\text{.}\)
✑ Montrez le deuxième point: si \(C_2 \in \mathcal M_p(\K)\) est inversible et \(AC_2=BC_2\text{,}\) alors \(A=B\text{.}\)
Remarque 3.14.
Pour deux réels non nuls \(a\) et \(b\text{,}\) on a en général \(\frac1{a+b}\neq\frac1a+\frac1b\text{.}\) De même, pour deux matrices inversibles \(A\) et \(B\text{,}\) en général on n'a pas \((A+B)^{-1}=A^{-1}+B^{-1}\text{.}\)
-
Il se peut que \(A\) et \(B\) soient inversibles, mais que \(A+B\) ne le soit pas.
Par exemple, \(I_n\) et \(-I_n\) sont inversibles 8 mais \(I_n+(-I_n)=0_{n}\) ne l'est pas.
-
Il se peut que \(A+B\) soit inversible, mais \((A+B)^{-1}\neq A^{-1}+B^{-1}\text{:}\)
✑ Que donnent \(A+B\text{,}\) \((A+B)^{-1}\) et \(A^{-1}+B^{-1}\) pour \(A=2I_n\) et \(B=3I_n\) ?
Spoiler\begin{gather*} A+B=5I_n\\ (A+B)^{-1}=\frac15 I_n\\ A^{-1}+B^{-1}=\frac 12 I_n + \frac 13 I_n = \frac56 I_n \end{gather*}
Sous-section 3.4 Un allègement de la définition
Soit \(A\in\mathcal M_n{\R}\) une matrice inversible. On a vu à la Définition 3.1 que la matrice \(B\) est l'inverse de \(A\) si, et seulement si, elle vérifie deux conditions: \(AB=I_n\) et \(BA=I_n\text{.}\)
En réalité, il suffit de vérifier une seule de ces deux conditions. Autrement dit, on va montrer que:
Affirmation 3.15.
Soient \(A,B \in\mathcal M_n{\R}\) deux matrices carrées telles que \(AB=I_n\text{.}\) Alors \(BA=I_n\text{.}\)
En particulier, \(A\) est inversible et \(B=A^{-1}\text{.}\)
Pour démontrer cette affirmation, on va utiliser les propriétés des systèmes linéaires.
On va noter \(X\in\mathcal M_n(\R)\) une matrice carrée dont les coefficients \(x_{ij}\text{,}\) pour \(i,j=1,\ldots,n\) sont des inconnues, et on pose une \((n^2+1)\)-ième inconnue \(y\text{.}\)
On va s'intéresser à l'équation \(BX = y I_n\text{,}\) c'est-à-dire, \(BX - y I_n =0_{n,n}\text{.}\) Coefficient par coefficient, cela donne:
\(\leadsto\) Il s'agit d'un système linéaire à \(n^2+1\) inconnues \(x_{11},x_{12},\ldots,x_{nn},y\) et \(n^2\) équations (une par coefficient de l'égalité matricielle \(BX-I_n=0_{n,n}\)).
✑ Pour y voir plus clair, écrivez le système obtenu pour \(n=2\) et \(B=\begin{pmatrix} 1\amp 2\\1\amp -1\end{pmatrix}\text{.}\)
On pose \(X=\begin{pmatrix} x_{11}\amp x_{12}\\x_{21}\amp x_{22}\end{pmatrix}\) et on a \(yI_2 = \begin{pmatrix} y\amp 0\\0\amp y\end{pmatrix}\text{,}\) ce qui donne
Ce qui donne le système à 5 inconnues et 4 équations
Revenons au cas général. Le système obtenu est, de plus, homogène: il a donc soit une seule solution donnée par \(x_{11}=x_{12}=\ldots=x_{nn}=y=0\text{,}\) soit une infinité de solutions.
Soit \(r\) le rang du système. Comme on l'a vu ici, on a \(r\leq n^2\) et
\(\leadsto \) Il y a donc au moins une inconnue libre, et il y a donc une infinité de solution au système.
En particulier, il y a au moins une solution non nulle, qu'on va noter \(\tilde x_{11}, \tilde x_{12},\ldots,\tilde x_{nn},\tilde y\text{.}\) On note aussi
De plus, \(\tilde y \neq 0\text{:}\) on peut le montrer par l'absurde 9 .
Supposons que \(\tilde y = 0\text{.}\) Alors la matrice \(\tilde X\) est non nulle et on a
Multiplions cette inégalité par la matrice \(A\) (à gauche):
donc \(\tilde{X}=0_{n,n}\text{,}\) ce qui contredit le fait que \((\tilde{X},\tilde y)\) est une solution non nulle du système homogène.
Mais du coup, on a
donc
Reste à vérifier que \(\frac1{\tilde y}\tilde{X}=A\text{.}\) Or,
On a donc bien \(BA = I_n\text{,}\) comme espéré.
Sous-section 3.5 Pourquoi ça marche ?
Camarche parce qu'en fait, appliquer les opérations élémentaires à un système revient à multiplier la matrice des coefficients \(A\) par certaines matrices, appelées...matrices élémentaires.
Sous-sous-section 3.5.1 Matrices élémentaires
Ces matrices élémentaires sont obtenues en appliquant une opération élémentaire à la matrice \(I_n\text{.}\) Plus en détail:
Echange de lignes: Faire l'opération \(L_i \leftrightarrow L_j\) revient à multiplier \(A\) à gauche par la matrice \(T_{ij}\) obtenue en échangeant les \(i\)-ème et \(j\)-ème lignes de la matrice identité \(I_n\text{.}\)
Par exemple, pour \(n= 4\text{,}\)
Plus généralement, les coefficients de \(T_{ij}\) sont donnés par
✑ Vérifiez sur lesexemples précédents que cette formule marche.
✑ Pour \(A = \begin{pmatrix}a\amp b\\c\amp d\end{pmatrix}\text{,}\) calculer \(T_{12}A\text{.}\)
d'où \(T_{12}A= \begin{pmatrix}c\amp d\\a\amp b\end{pmatrix}\text{.}\)
✑ Pour une matrice \(3\times3\) quelconque, calculer \(T_{23}A\text{.}\)
Notons
On a:
donc:
✑ Au fait, que donne \(AT_{23}\) ?
Les matrices d'échange de lignes vérifient:
Proposition 3.16.
\(\displaystyle T_{ij}=T_{ji}\)
La matrice \(T_{ij}\) est inversible, d'inverse elle-même: \(T_{ij}^{-1}=T_{ij}\text{.}\)
Pour toute matrice \(A\in \mathcal M_n(\R)\text{,}\) \(T_{ij}A\) est la matrice obtenue en échangeant les lignes \(i\) et \(j\) de \(A\text{.}\)
Preuve.
-
✑ Pour \(n=4\text{,}\) calculer \(T_{42}\text{.}\)
➢ D'après (3.1),
\begin{equation*} (T_{ji})_{kl}= \begin{cases} 1 \text{ si } (k,l)= (j,i) \text{ ou } (k,l)=(i,j)\\ 1 \text{ si } k =l \text{ et } k\neq i,j\\ 0 \text{ sinon.} \end{cases} =(T_{ij})_{kl} \end{equation*}donc on a bien \(T_{ij}=T_{ji}\text{.}\)
-
✑ Pour \(n=4\text{,}\) calculer \(T_{12}^2\text{.}\)
➢ Montrons que \(T_{ij}T_{ij}=I_n\text{.}\) Le coefficient en position \((k,l)\) de \(T_{ij}^2\) est donné par notre bonne vieille formule (2.1)
\begin{equation*} (T_{ij}^2)_{kl}=\sum_{p=1}^n (T_{ij})_{kp}(T_{ij})_{pl} \end{equation*}En utilisant (3.1), on voit que la plupart des termes de cette somme sont nuls, sauf dans les cas suivants:
\begin{equation*} \begin{cases} k=i,p= j, l=i\\ k=j, p= i, l=j \\ k \neq i,j,\ k=p=l \end{cases} \iff k=l \end{equation*}On trouve donc que si \(k=l\text{,}\) \((T_{ij}^2)_{kl}=1\text{,}\) et sinon, \((T_{ij}^2)_{kl}=0\text{:}\) donc \(T_{ij}^2=I_n\text{.}\)
-
➢ Soit \(C = T_{ij}A\text{.}\) On va encore utiliser (2.1) pour calculer les coefficients de \(C\) ligne par ligne.
-
Les coefficients de \(C\) sur la \(i\)-ème ligne sont
\begin{equation*} c_{il} = \sum_{p=1}^n (T_{ij})_{ip}a_{pl} = a_{jl} \end{equation*}car \((T_{ij})_{ip}=1\) si \(p=j\text{,}\) \(0\) sinon.
\(\leadsto\) Les coefficients de la \(i\)-ème ligne de \(C\) sont donc ceux de la \(j\)-ème ligne de \(A\text{.}\)
-
De même, les coefficients sur la \(j\)-ème ligne sont
\begin{equation*} c_{jl} = \sum_{p=1}^n (T_{ij})_{jp}a_{pl} = a_{il}: \end{equation*}ce sont ceux de la \(i\)-ème ligne de \(A\text{.}\)
-
Pour les autres lignes, avec \(k\neq i,j\text{,}\)
\begin{equation*} c_{kl} = \sum_{p=1}^n (T_{ij})_{kp}a_{pl} = a_{kl} \end{equation*}autrement dit les autres lignes ne changent pas.
-
Multiplication d'une ligne par \(\alpha\text{:}\) Faire l'opération \(L_i \leftarrow \alpha L_i\text{,}\) avec \(\alpha \neq 0\) revient à multiplier \(A\) à gauche par la matrice \(D_i(\alpha)\text{,}\) obtenue en multipliant la \(i\)-ème de la matrice identité \(I_n\) par \(\alpha\text{.}\)
Par exemple, pour \(n= 4\text{,}\)
Plus généralement, les coefficients de \(D_{i}(\alpha)\) sont donnés par
✑ Pour \(A = \begin{pmatrix}a\amp b\\c\amp d\end{pmatrix}\text{,}\) calculer \(D_{1}(\alpha)A\text{.}\)
donc
✑ Pour une matrice \(3\times 3\) quelconque, calculer \(D_{2}(\alpha)A\text{.}\)
On note
et on a
donc
Proposition 3.17.
Pour \(\alpha \neq 0\text{,}\) la matrice \(D_i(\alpha)\) est inversible, d'inverse \(D_{i}(\alpha)^{-1}=D_{i}(\frac1 \alpha)\text{.}\)
\(D_{i}(\alpha)A\) est la matrice obtenue en multipliant la \(i\)-ème ligne de \(A\) par \(\alpha\text{.}\)
Preuve.
-
✑ Pour \(n=4\text{,}\) calculer \(D_{2}(3)D_2(\frac13)\text{.}\)
Montrons que \(D_{i}(\alpha)D_{i}(\frac1\alpha)=I_n\text{.}\) Le coefficient en position \((k,l)\) de \(D_{i}(\alpha)D_{i}(\frac1\alpha)\) est donné par notre bonne vieille formule (2.1)
\begin{equation*} (D_{i}(\alpha)D_{i}(\frac1\alpha))_{kl}=\sum_{p=1}^n (D_{i}(\alpha))_{kp}(D_{i}(\frac1\alpha))_{pl} \end{equation*}En utilisant (3.2), on trouve que tous les termes tels que \(k\neq p\) ou \(p\neq l\) sont nuls, ce qui laisse les termes \(k=p=l\text{,}\) autrement dit les termes diagonaux:
\begin{equation*} (D_{i}(\alpha)D_{i}(\frac1\alpha))_{kl}= \begin{cases} 0 \text{ si } k \neq l\\ 1*1=1 \text{ si } k\neq i, k = p = l \\ \alpha * \frac1\alpha = 1 \text{ si } k= i, k = p = l \end{cases} \end{equation*}On trouve donc que si \(k=l\text{,}\) \((D_{i}(\alpha)D_{i}(\frac1\alpha))_{kl}=1\text{,}\) et sinon, \((D_{i}(\alpha)D_{i}(\frac1\alpha))_{kl}=0\text{:}\) donc \(D_{i}(\alpha)D_{i}(\frac1\alpha)=I_n\text{.}\)
-
Soit \(C = D_{i}(\alpha)A\text{,}\) alors les coefficients de \(C\) sur la \(i\)-ème ligne sont
\begin{equation*} c_{il} = \sum_{p=1}^n (D_{i}(\alpha))_{ip}a_{pl} = \alpha a_{il} \end{equation*}ce sont donc ceux de la \(i\)-ème ligne de \(A\text{,}\) multipliés par \(\alpha\text{.}\)
Pour les autres lignes, avec \(k\neq i\text{,}\)
\begin{equation*} c_{kl} = \sum_{p=1}^n (D_{i}(\alpha))_{kp}a_{pl} = a_{kl} \end{equation*}autrement dit les autres lignes ne changent pas.
Ajout à une ligne de \(\lambda\) fois une autre: Faire l'opération \(L_i \leftarrow L_i+\lambda L_j\) revient à multiplier \(A\) à gauche par la matrice \(L_{ij}(\lambda)\text{,}\) obtenue en ajoutant \(\lambda\) en position \((i,j)\) à la matrice identité.
Par exemple, pour \(n= 4\text{,}\)
Plus généralement, les coefficients de \(L_{ij}(\lambda)\) sont donnés par
✑ Pour \(A = \begin{pmatrix}a\amp b\\c\amp d\end{pmatrix}\text{,}\) calculer \(L_{12}(\lambda)A\text{.}\)
donc
✑ Pour une matrice \(3\times3\) quelconque, calculer \(L_{12}(\lambda)A\text{.}\)
On note
et on a
donc
Proposition 3.18.
- La matrice \(L_{ij}(\lambda)\) est inversible, d'inverse \(L_{ij}(\lambda)^{-1}=L_{ij}(-\lambda)\text{.}\)
\(L_{ij}(\lambda)A\) est la matrice obtenue en ajoutant à la \(i\)-ème ligne de \(A\) \(\lambda\) fois la \(j\)-ème.
Preuve.
-
✑ Pour \(n=4\text{,}\) calculer \(L_{12}(3)L_{12}(-3)\text{.}\)
Montrons que \(L_{ij}(\lambda)L_{ij}(- \lambda)=I_n\text{.}\) Le coefficient en position \((k,l)\) de \(L_{ij}(\lambda)L_{ij}(- \lambda)\) est donné par notre bonne vieille formule (2.1)
\begin{equation*} (L_{ij}(\lambda)L_{ij}(- \lambda))_{kl}=\sum_{p=1}^n (L_{ij}(\lambda))_{kp}(L_{ij}(- \lambda))_{pl} \end{equation*}En utilisant (3.3), on trouve que:
\begin{equation*} (L_{ij}(\lambda))_{kp}(L_{ij}(- \lambda))_{pl}= \begin{cases} 0 \text{ si } k \neq i, k\neq p \\ 0 \text{ si } k \neq i, k= p, p \neq l \\ 1*1=1 \text{ si } k\neq i, k = p = l \\ \lambda *1 \text{ si } k=i,p=j,l=j \\ 1*(-\lambda) \text{ si } k=i,p=i,l=j \end{cases} \end{equation*}donc, si \(k\neq i\)
\begin{equation*} (L_{ij}(\lambda)L_{ij}(- \lambda))_{kl} = \begin{cases} 0 \text{ si } k\neq l\\ 1 \text{ si } k=l \end{cases} \end{equation*}et si \(k=i\)
\begin{equation*} (L_{ij}(\lambda)L_{ij}(- \lambda))_{il} = \begin{cases} 0 \text{ si } l\neq i,j\\ \lambda + (-\lambda)=0 \text{ si } l=j 1 \text{ si } l=i \end{cases} \end{equation*}On trouve donc que si \(k=l\text{,}\) \((L_{ij}(\lambda)L_{ij}(- \lambda))_{kl}=1\text{,}\) et sinon, \((L_{ij}(\lambda)L_{ij}(- \lambda))_{kl}=0\text{:}\) donc \(L_{ij}(\lambda)L_{ij}(- \lambda)=I_n\text{.}\)
-
Soit \(C = L_{ij}(\lambda)A\text{,}\) alors les coefficients de \(C\) sur la \(i\)-ème ligne sont
\begin{equation*} c_{il} = \sum_{p=1}^n (L_{ij}(\lambda))_{ip}a_{pl} = \lambda a_{jl} + a_{ij} \end{equation*}ce sont donc ceux de la \(i\)-ème ligne de \(A\text{,}\) plus \(\lambda\) fois ceux de la \(j\)-ème.
Pour les autres lignes, avec \(k\neq i\text{,}\)
\begin{equation*} c_{kl} = \sum_{p=1}^n (L_{ij}(\lambda))_{kp}a_{pl} = a_{kl} \end{equation*}autrement dit les autres lignes ne changent pas.
Sous-sous-section 3.5.2 Donc, pourquoi ça marche:
Revenons à notre méthode de Gauss. On voit donc qu'en faisant successivement des opérations élémentaires sur \(A\) dans la partie gauche, on la multiplie par une série de matrices élémentaires jusqu'à obtenir \(I_n\text{.}\)
Ainsi, on fait dans la partie gauche quelque chose du genre
✑ Dans l'exemple donné plus, avec \(A= \begin{pmatrix} 1\amp 2\amp 1\\4\amp 0\amp -1\\-1\amp 2\amp 2\end{pmatrix}\text{,}\) on a fait:
et ainsi obtenu \(I_3\text{.}\)
D'après ce qu'on à vu en Sous-section 3.4, ça implique que \(A\) est inversible, et \(L_{12}(-2)D_{2}(-\frac18)L_{23}(5)L_{13}(-1)D_3(2)L_{32}(\frac12)L_{31}(1)L_{21}(-4)\) est son inverse.
Or, du côté droit, on a fait les mêmes opérations à \(I_n\text{:}\) on a donc fait
comme on peut le vérifier à l'aide d'une calculette à matrice.
Puisque multiplier par \(I_n\) ne change rien, on a donc bien que \(B\) est l'inverse de \(A\text{!}\)