Sauter au contenu

Section 2 Produit matriciel

Jusqu'ici, rien de très étonnnant.

En revanche, on ne va pas définir le produit de deux matrices en prenant deux matrices de même taille et en multipliant les coefficients entre eux.

Ce qu'on va faire à la place peut sembler, de prime abord, franchement capillotracté  1 , mais, comme je vais tenter de vous en convaincre, c'est ce qui nous permettra d'appliquer les matrices à toutes sortes de problèmes intéressants  2 .

(╯°□°)╯︵ ┻━┻
┬─┬ ノ( ゜-゜ノ)

On va introduire le produit matriciel en plusieurs étapes.

Sous-section 2.1 Etape 1: Produit ligne-colonne.

On va commencer par définir le produit d'une matrice à une seule ligne et \({\color{red}{p}}\) colonnes par une matrice à une seule colonne et \({\color{red}{p}}\) lignes  3  . Soient donc

Attention donc, le nombre de colonnes de la matrice-ligne doit correspondre au nombre de lignes de la matrice colonne. Pour le produit matriciel en tout cas, la taille est importante!
\begin{equation*} A=\begin{pmatrix} a_1\amp \ldots\amp a_p \end{pmatrix}\in \mathcal M_{{\color{blue}{1}},{\color{red}{p}}}(\K), B=\begin{pmatrix} b_1\\\vdots\\b_p\end{pmatrix} \in \mathcal M_{{\color{red}{p}},{\color{blue}{1}}}(\K) \end{equation*}

On définit le produit de \(A\) par \(B\) par

\begin{equation*} AB=(a_1b_1+\ldots+a_pb_p)=\left(\sum_{k=1}^p a_kb_k\right) \in \mathcal M_{{\color{blue}{1}}}(\K) \simeq \K. \end{equation*}

Si vous avez déjà étudié le produit scalaire de vecteurs "géométriques" de \(\R^2\) et \(\R^3\text{,}\) cela devrait vous rappeler quelque chose ! Ce qu'on obtient est d'ailleurs une matrice de taille 1, c'est à dire...un scalaire.

Figure 2.1. Source: http://matrixmultiplication.xyz

Considérons les matrices lignes et colonnes suivantes:

\begin{equation*} A= \begin{pmatrix} 1\amp 2\amp 1\amp 1 \end{pmatrix}\in \mathcal M_{1,4}(\R),\ B=\begin{pmatrix} 3\\-1\\2\\1 \end{pmatrix}\in \mathcal M_{4,1}(\R),\ C= \begin{pmatrix} 1\\2\end{pmatrix}\in \mathcal M_{2,1}(\R) \end{equation*}

Alors \(AB=(3-2+2+1)=(4)\in \mathcal M_1(\R)\simeq \R\text{.}\)

En revanche, \(AC\) n'est pas défini.

Sous-section 2.2 Etape 2 : Produit matrice-colonne

On va définir ensuite le produit entre une matrice de taille \(n\times p\) quelconque et une matrice-colonne à \(p\) lignes et toujours une seule colonne.

Soient donc \(A\in \mathcal M_{{\color{blue}{n}}{\color{green}{p}}}(\K), B\in \mathcal M_{{\color{green}{p}},1}(\K)\text{.}\)

Alors le produit \(AB\) est une matrice colonne \(C\in \mathcal M_{{\color{blue}{n}},1}(\K)\text{,}\) dont le coefficient sur la \(i\)-ème ligne est le produit de la \(i\)-ième ligne de \(A\) par \(B\text{:}\)

Figure 2.3. Source: http://matrixmultiplication.xyz
\begin{equation*} A= \begin{pmatrix} 1\amp -1\amp 2\\ -2\amp 3\amp 0\\ 0\amp 1\amp 1\\ -3\amp 0\amp 1 \end{pmatrix} \in \mathcal M_{{\color{blue}{4}},{\color{green}{3}}}(\R),\ B=\begin{pmatrix} 1\\-1\\1 \end{pmatrix} \in \mathcal M_{{\color{green}{3}},1}(\R) \end{equation*}

nous donne

\begin{equation*} AB = \begin{pmatrix} 1\cdot 1+(-1)\cdot(-1)+2\cdot 1\\ (-2)\cdot 1+3\cdot(-1)+0\cdot 1\\ 0\cdot 1+1\cdot(-1)+1\cdot 1\\ -3\cdot 1+0\cdot(-1)+1 \cdot 1 \end{pmatrix} = \begin{pmatrix} 4\\-5\\0\\-2 \end{pmatrix} \in \mathcal{M}_{{\color{blue}{4}},1}(\R). \end{equation*}
Exploration 2.1. Produit d'une matrice par un vecteur particulier.
(a)

Reprenons la matrice de l'exemple précédent:

\begin{equation*} A= \begin{pmatrix} 1\amp -1\amp 2\\ -2\amp 3\amp 0\\ 0\amp 1\amp 1\\ -3\amp 0\amp 1 \end{pmatrix} \end{equation*}

On note

\begin{equation*} e_1=\begin{pmatrix} 1\\0\\0 \end{pmatrix},\quad e_2=\begin{pmatrix} 0\\1\\0 \end{pmatrix},\quad e_3=\begin{pmatrix} 0\\0\\1 \end{pmatrix} \end{equation*}

✑ Calculer \(A\cdot e_1,A\cdot e_2, A\cdot e_3\text{.}\)

Spoiler

On obtient

  • \(A\cdot e_1 = \begin{pmatrix} 1\\-2\\0\\-3 \end{pmatrix}\) : c'est la première colonne de \(A\text{.}\)
  • \(A\cdot e_2 = \begin{pmatrix} -1\\3\\1\\0 \end{pmatrix}\) : c'est la deuxième colonne de \(A\text{.}\)
  • \(A\cdot e_3 = \begin{pmatrix} 2\\0\\1\\1 \end{pmatrix}\) : c'est la troisième colonne de \(A\) 4  .
Peut-être commencez-vous à distinguer un motif récurrent...
(b)

✑ Du coup, par quel vecteur-colonne \(V\) faut-il multiplier la matrice

\begin{equation*} B=\begin{pmatrix} 2\amp 5\\3\amp 4\\13\amp 8\\0\amp 1 \end{pmatrix} \end{equation*}

pour obtenir obtenir

\begin{equation*} B\cdot V =\begin{pmatrix} 2\\3\\13\\0 \end{pmatrix}? \end{equation*}
Spoiler
\begin{equation*} V=\begin{pmatrix} 1\\0 \end{pmatrix} \end{equation*}
(c)

Le saut dans l'abstrait: considérons une matrice quelconque:

\begin{equation*} A= \begin{pmatrix} a_{11}\amp \dots\amp a_{1p}\\ \vdots\amp \amp \vdots\\ a_{n1}\amp \dots\amp a_{np} \end{pmatrix} \in \mathcal{M}_{n,p}(\K) \end{equation*}

et notons \(e_i\) le vecteur-colonne dont tous les coefficients sont nuls, sauf le \(i\)-ème, qui vaut 1.

✑ Démontrer que le vecteur-colonne \(A\cdot e_i\) est la \(i\)-ème colonne de \(A\text{.}\)

Exploration 2.2. Matrices et systèmes linéaires.

Recyclons encore la matrice \(A\in \mathcal M_{4,3}(\R)\) de l'exemple précédent. Notons \(X=\begin{pmatrix} x\\y\\z \end{pmatrix}, C~=~\begin{pmatrix} 1\\0\\2\\3 \end{pmatrix}\text{.}\) Que donne \(AX\) ?

✑ A quelle condition a-t-on \(AX = C\) ?

Spoiler

Le produit \(AX\) est le vecteur-colonne

\begin{equation*} \begin{pmatrix} x-y+2z\\-2x+3y\\y+z\\-3x+z \end{pmatrix} \end{equation*}

et on a \(AX=C\) ssi \(AX\) et \(C\) ont la même taille (ça, c'est bon), et les mêmes coefficients, c'est-à-dire:

\begin{equation*} \begin{cases} \begin{array}{rcrcrcrc} x\amp -\amp y\amp + \amp 2z \amp = \amp 1 \cr -2x\amp + \amp 3y \amp \amp \amp = 0 \cr \amp \amp y \amp + \amp z \amp = \amp 2 \cr -3x \amp \amp \amp +\amp z \amp = \amp 3 \cr \end{array} \end{cases} \end{equation*}

Ce qui est vrai si, et seulement si, \(X=(x,y,z)\) est solution du système ci-dessus.

Ce n'est pas un cas particulier: comme annoncé en introduction, n'importe quel système linéaire

\begin{equation*} (S) \begin{cases} a_{11}x_1+a_{12} x_2+\dots + a_{1p}x_p=b_1\\ \vdots\\ a_{n1}x_1+a_{n2} x_2+\dots+a_{np}x_p = b_n \end{cases} \end{equation*}

peut se réécrire comme le produit d'une matrice de coefficients

\begin{equation*} A= \begin{pmatrix} a_{11}\amp \dots\amp a_{1p}\\ \vdots\amp \amp \vdots\\ a_{n1}\amp \dots\amp a_{np} \end{pmatrix} \in \mathcal{M}_{n,p}(\K) \end{equation*}

avec le vecteur-colonne des inconnues

\begin{equation*} X=\begin{pmatrix} x_1\\\vdots\\x_p \end{pmatrix} \in \mathcal{M}_{p,1}(\K) \end{equation*}

et ce produit doit être égal au vecteur-colonne du second membre

\begin{equation*} B=\begin{pmatrix} b_1\\\vdots\\b_n \end{pmatrix} \in \mathcal{M}_{n,1}(\K) \end{equation*}

Il s'agit pour le moment d'une simple traduction: reste à voir comment cela nous aide à résoudre les systèmes !

Exploration 2.3. Matrices et transformations de \(\R^n\).
(a)

Il y a une autre façon d'interpréter notre bonne vieille matrice

\begin{equation*} A= \begin{pmatrix} 1\amp -1\amp 2\\ -2\amp 3\amp 0\\ 0\amp 1\amp 1\\ -3\amp 0\amp 1 \end{pmatrix} \end{equation*}

Prenons un vecteur-colonne quelconque \(u=\begin{pmatrix}x\\y\\z\end{pmatrix} \in \mathcal M_{3,1}(\R)\simeq \R^3\) .

On peut alors calculer le produit \(A\cdot u\text{,}\) comme on a fait à l'Exploration 2.2, ce qui donne

\begin{equation*} A\cdot u = \begin{pmatrix} x-y+2z\\-2x+3y\\y+z\\-3x+z \end{pmatrix}\in \mathcal M_{4,1}(\R)\simeq \R^4 \end{equation*}

Autrement dit, \(A\) "envoie" le vecteur \(u\in \R^3\) sur le vecteur \(w= A\cdot u \in \R^4\text{.}\) On peut donc définir une application

\begin{equation*} \Phi_A : u=(x,y,z)\in \R^3 \mapsto (x-y+2z,-2x+3y, y+z,-3x+z) \in \R^4 \end{equation*}

✑ Calculer \(\Phi_A((1,1,1))\text{,}\) \(\Phi_A((1,0,0))\text{,}\) \(\Phi_A((2,0,0))\text{,}\)\(\Phi_A((0,0,0))\text{.}\)

Spoiler
  • \(\Phi_A((1,1,1))=(3,1,2,-2)\text{,}\)
  • \(\Phi_A((1,0,0))=(1,-2,0,-3)\) 5 ,
  • \(\Phi_A((2,0,0))=(2,-4,0,-6)\text{,}\)
  • \(\Phi_A((0,0,0))=(0,0,0,0)\text{.}\)
c'est la première colonne de \(A\text{,}\) mais ça ne devrait pas vous surprendre !
(b)

De même, si on pose

\begin{equation*} R=\begin{pmatrix} 0\amp -1\\1\amp 0 \end{pmatrix} \end{equation*}

alors on peut définir l'application associée \(\Phi_R:\R^2 \rightarrow \R^2\) comme on l'a fait ci-dessus.

✑ Donner une formule pour \(\Phi_R(x,y)\text{.}\)

Spoiler
\begin{equation*} \forall\, (x,y)\in\R^2,\ \Phi_R((x,y)) = (-y,x) \end{equation*}
(c)

✑ Calculer \(\Phi_R((1,0))\text{,}\) \(\Phi_R((0,1))\text{,}\) \(\Phi_R((1,1))\text{.}\)

En déduire une interprétation géométrique de \(\Phi_R\text{.}\)

Indication Spoiler
  • \(\displaystyle \Phi_R((1,0))=(0,1)\)
  • \(\displaystyle \Phi_R((0,1))=(-1,0)\)
  • \(\displaystyle \Phi_R((1,1))=(-1,1)\)

\(\leadsto\) \(\Phi_R\) est la rotation d'angle \(\frac{\pi}{2}\text{.}\)

(e)

Plus généralement  6 , si \(A\) est une matrice quelconque

Vous l'avez vu venir, n'est-ce-pas ?
\begin{equation*} A= \begin{pmatrix} a_{11}\amp \dots\amp a_{1p}\\ \vdots\amp \amp \vdots\\ a_{n1}\amp \dots\amp a_{np} \end{pmatrix} \in \mathcal{M}_{n,p}(\K) \end{equation*}

alors on peut définir une application \(\Phi_A:\R^p\rightarrow \R^n\) par

\begin{equation*} \Phi_A: x=\begin{pmatrix} x_1\\\vdots\\x_p \end{pmatrix} \in \R^p\mapsto A\cdot x \in \R^n \end{equation*}

✑ En faisant le lien avec les systèmes linéaires: à quelle condition un vecteur quelconque \((b_1,\ldots,b_n)\) de \(\R^n\) admet-il un antécédent par \(\Phi_A\) ? Quel est l'ensemble des antécédents de \(0_{\R^n} = (0,\ldots,0)\) ?

Spoiler

Soit \(w=(b_1,\ldots,b_n) \in \R^n\text{.}\) Alors il existe \(x=(x_1\ldots,x_p)\) tel que \(\Phi_A(x)=w\) si, et seulement si, il existe \(x=(x_1\ldots,x_p)\) tel que

\begin{equation*} A\cdot x = > A= \begin{pmatrix} a_{11}\amp \dots\amp a_{1p}\\ \vdots\amp \amp \vdots\\ a_{n1}\amp \dots\amp a_{np} \end{pmatrix} \begin{pmatrix} x_1\\\vdots\\x_p \end{pmatrix} = \begin{pmatrix} b_1\\\vdots\\b_n \end{pmatrix} \end{equation*}

Autrement dit  7  ssi le système linéaire

\begin{equation*} \begin{cases} a_{11}x_1+a_{12} x_2+\dots + a_{1p}x_p=b_1\\ \vdots\\ a_{n1}x_1+a_{n2} x_2+\dots+a_{np}x_p = b_n \end{cases} \end{equation*}

admet des solutions.

Du coup, les antécédents de \((0,\ldots,0)\in\R^n\) sont les \(x=(x_1,\ldots,x_p)\) in \(\R^p\) tels que

\begin{equation*} \begin{cases} a_{11}x_1+a_{12} x_2+\dots + a_{1p}x_p=0\\ \vdots\\ a_{n1}x_1+a_{n2} x_2+\dots+a_{np}x_p = 0 \end{cases} \end{equation*}

L'ensemble des antécédents de \((0,\ldots,0)\) est donc l'ensemble des solutions du sytème homogène ci-dessus.

Sous-section 2.3 Etape 3 : Produit matrice-matrice.

Soit \(A\in \mathcal M_{{\color{blue}{n}},{\color{purple}{p}}}(\K), B\in \mathcal M_{{\color{purple}{p}},{\color{orange}{q}}}(\K)\) 8  .

A noter: le nombre de colonnes de \(A\) est égal au nombre de lignes de \(B\)

Le produit \(C=AB\) est la matrice de taille \({\color{blue}{n}}\times {\color{orange}{q}}\) dont le coefficient en position \((i,j)\text{,}\) \(C_{ij}\text{,}\) est le produit de la \(i\)-ième ligne de \(A\) avec la \(j\)-ième colonne de \(B\text{:}\)

Autrement dit,

\begin{equation} c_{ij}=\sum_{k=1}^p a_{ik}b_{kj},\ 1\leq i \leq n, 1\leq j \leq q\label{eq_coeff_prod_mat}\tag{2.1} \end{equation}
Figure 2.6. Source: http://matrixmultiplication.xyz
\begin{equation*} A= \begin{pmatrix} 1\amp 2\amp 3\\ 2\amp 3\amp 4\\ 0\amp 0\amp 1 \end{pmatrix} \in \mathcal M_{{\color{blue}{3}},{\color{purple}{3}}}(\R), B= \begin{pmatrix} 1\amp 2\\ -1\amp 1\\ 1\amp 2 \end{pmatrix}\in \mathcal M_{{\color{purple}{3}},{\color{orange}{2}}}(\R). \end{equation*}

Alors

\begin{equation*} AB= \begin{pmatrix} 1-2+3\amp 2+2+6\\ 2-3+4\amp 4+3+8\\ 0+0+1 \amp 0+0+2 \end{pmatrix} = \begin{pmatrix} 2\amp 10\\ 3\amp 15\\ 1\amp 2 \end{pmatrix} \in \mathcal M_{{\color{blue}{3}},{\color{orange}{2}}}(\R) \end{equation*}

En revanche, le produit \(BA\) n'est pas défini 9 .

Pourquoi ?

En prévision d'un long road-trip, Ombre et Voyageur font quelques courses.

  • Ombre a besoin de 6 bouteilles d'eau, 3 barres de chocolat, 10 pommes.
  • Voyageur a besoin de 4 bouteilles d'eau, 8 barres de chocolat, 5 pommes.

Ils ont le choix entre deux magasins, avec le menu de prix suivant:

  • Chez Mr Nancy, une bouteille d'eau vaut 10 cts, une barre de chocolat 40cts, une pomme 10 cts
  • Chez Mr Monde, une bouteille d'eau vaut 15 cts, une barre de chocolat 30cts, une pomme 20 cts

\(\leadsto\) Dans quel magasin chacun des deux devraient-ils faire leurs achats ?

On pourrait calculer le coût du shopping de chacun dans chaque supermarché, et comparer, mais alors on ne verrait pas le rapport avec les matrices...

Introduisons une matrice de demande, d'une part,

Table 2.9.
Eau Chocolat Pommes
Ombre 6 3 10
Voyageur 4 8 5

\(\leadsto\) Matrice de demande \(\begin{pmatrix} 6\amp 3\amp 10 \\ 4\amp 4\amp 5\\ \end{pmatrix}\text{,}\)

Et d'autre part, une matrice de prix:

Table 2.10.
Mr Nancy Mr Monde
Eau 0.1 0.15
Chocolat 0.4 0.3
Pomme 0.1 0.2

\(\leadsto\) Matrice des prix \(\begin{pmatrix} 0.1\amp 0.15 \\ 0.4\amp 0.3\\ 0.1\amp 0.2\\ \end{pmatrix}\)

Alors le produit de ces deux matrices donne, pour chacun, le prix de son shopping dans chanque supermarché:

\begin{equation*} \begin{pmatrix} 6\amp 3\amp 10 \\ 4\amp 4\amp 5\\ \end{pmatrix}\begin{pmatrix} 0.1\amp 0.15 \\ 0.4\amp 0.3\\ 0.1\amp 0.2\\ \end{pmatrix}= \begin{pmatrix} 2.8\amp 3.8\\ 4.1\amp 4 \end{pmatrix} \end{equation*}

Ce qui donne:

Table 2.11.
Mr Nancy Mr Monde
Ombre 2.8 3.8
Voyageur 4.1 4

\(\leadsto\) Il est préférable pour Ombre d'aller chez Mr Nancy et pour Voyageur d'aller chez Mr Monde.

✑ Pourquoi ça marche ?

Sous-section 2.4 Propriétés intuitives du produit matriciel

Malgré sa définition alambiquée, le produit matriciel a tout de même un certain nombre de propriétés intuitives:

Démonstration

  1. ✑ Calculez le produit de \(A=\begin{pmatrix}a\amp b\amp c\\d\amp e\amp f\end{pmatrix}\) par la matrice nulle \(0_{3, 2}\text{.}\)

    Soient \(A\in \mathcal M_{n,p}(\K)\text{,}\)et \(q\in \N\text{.}\) Quelle est la taille de la matrice \(0_{qn}\cdot A\) ?

    On montre que c'est la matrice nulle en montrant que tous ses coefficients sont nuls:

    La matrice \(0_{qn}\cdot A\) est de taille \(q\times p\) et le coefficient en position \((i,j)\) est donné par la formule (2.1):

    \begin{equation*} \sum_{k=1}^n (0_{qn})_{ik}a_{kj} = 0 \text{ car } (0_{qn})_{ik}=0 \text{ pour tous }i,k. \end{equation*}

    Autrement dit, tous les coefficients de \(0_{qn}\cdot A\) sont nuls: donc \(0_{qn}\cdot A\) est la matrice nulle de taille \(q\times p\text{,}\) \(0_{qp}\text{.}\)

    ✑ Montrer de la même façon que \(A\cdot 0_{pq}=0_{nq}\text{.}\)

  2. ✑ Calculez le produit de \(A=\begin{pmatrix}1\amp 3\amp 2\\-1\amp 2\amp 1\end{pmatrix}\) par la matrice(-colonne) \(3B\text{,}\) où \(B= \begin{pmatrix}3\\-1\end{pmatrix}\text{,}\) puis le produit de \(3A\) par \(B\text{.}\)

    Soient \(A\in \mathcal M_{n,p}(\K), B\in \mathcal M_{p,q}(\K)\text{,}\) et \(\lambda \in \R\text{.}\) Les matrices \(\lambda (AB), (\lambda A)B, A(\lambda B)\) ont toutes la même taille. Reste à vérifier qu'elles ont les mêmes coefficients.

    On utilise pour cela la formule (2.1) pour calculer le \((i,j)\)-ième coefficient de \((\lambda A)B\) et vérifier qu'il est égal au \((i,j)\)-ième coefficient de \(\lambda (AB)\text{.}\)

    Soient \(i\in \{1,\ldots,n\}, j\in \{1,\ldots,q\}\text{.}\) Le \((i,j)\)-ième coefficient de \((\lambda A)B\) est donné par

    \begin{align*} \sum_{k=1}^p (\lambda A)_{ik}b_{kj} \amp = \sum_{k=1}^p (\lambda a_{ik}b_{kj}) \\ \amp = \lambda\sum_{k=1}^p a_{ik}b_{kj}\\ \amp = \lambda (AB)_{ij} \end{align*}

    c'est le coefficient en position \((i,j)\) de la matrice \(\lambda (AB)\text{.}\)

    ✑ Montrer de la même façon que \(A(\lambda B) = \lambda (AB).\)

  3. Soient \(A\in \mathcal M_{n,p}(\K), B\in \mathcal M_{p,q}(\K)\text{,}\) \(C\in \mathcal M_{q,r}(\K)\text{.}\)

    ✑ Quelles sont les tailles des matrices \(AB\text{,}\) \((AB)C\text{,}\) \(BC\) et \(A(BC)\) ?

    Puisqu'elles ont même taille, on montre l'égalité de \((AB)C\) et \(A(BC)\) coefficient par coefficient, en utilisant la formule (2.1) 10 :

    Soient \(i\in \{1,\ldots,n\}, j\in \{1,\ldots,r\}\text{.}\) Le \((i,j)\)-ième coefficient de \((AB)C\) est donné par

    \begin{align*} \sum_{k=1}^q (AB)_{ik}c_{kj} \amp = \sum_{k=1}^q \left (\sum_{\ell=1}^p a_{i\ell}b_{\ell k}\right)c_{kj} \\ \amp = \sum_{k=1}^q \sum_{\ell=1}^p a_{i\ell}b_{\ell k} c_{kj}\\ \amp = \sum_{\ell=1}^p \sum_{k=1}^q a_{i\ell}b_{\ell k} c_{kj} = \sum_{\ell=1}^p a_{i\ell} \left(\sum_{k=1}^q b_{\ell k} c_{kj}\right)\\ \amp = \sum_{\ell=1}^p a_{i\ell} (BC)_{\ell j}: \end{align*}

    c'est le coefficient en position \((i,j)\) de la matrice \(A(BC)\text{.}\)

    Puisque les matrices \((AB)C\) et \(A(BC)\) ont même taille et même coefficients, elles sont égales.

  4. Soient \(A\in \mathcal M_{n,p}(\K), B,C \in \mathcal M_{p,q}(\K)\text{.}\)

    ✑ Quelles sont les tailles des matrices \(AB, AC, AB+AC, B+C\) et \(A(B+C)\) ?

    Puisqu'elles ont même taille, reste à vérifier que les matrices \(AB+AC\) et \(A(B+C)\) ont les mêmes coefficients, toujours en utilisant (2.1) 11 .

    Soit \(i\in \{1,\ldots,n\}, j\in \{1,\ldots,q\}\text{.}\) On commence à en avoir l'habitude: le \((i,j)\)-ième coefficient de \(A(B+C)\) est donné par (2.1):

    \begin{align*} \sum_{k=1}^p a_{ik} (B+C)_{kj} \amp = \sum_{k=1}^p a_{ik} (b_{kj}+ c_{kj})\\ \amp =\sum_{k=1}^p (a_{ik}b_{kj}+ a_{ik}c_{kj}) =\sum_{k=1}^p a_{ik}b_{kj}+\sum_{k=1}^p a_{ik}c_{kj}: \end{align*}

    c'est le \((i,j)\)-ième coefficient de \(AB+AC\text{.}\)

    Puisque les matrices \(AB+AC\) at \(A(B+C)\) ont même taille et même coefficients, elles sont égales.

  5. Soient \(B,C \in \mathcal M_{n,p}(\K), A \in \mathcal M_{p,q}(\K)\text{.}\)

    ✑ En vous inspirant (ou pas !) du raisonnement ci-dessus, montrez que \((B+C)A=BA+CA\text{.}\)

✑ Essayez !
✑ Essayez !

Sous-section 2.5 Pièges du produit matriciel

Comme on l'a vu, notre description du produit matriciel nous permet de manipuler les systèmes linéaires et de représenter certains types de problèmes. Mais, du fait de sa définition en terme de "produit scalaire" ligne-colonne, il ne vérifie pas un certain nombre de propriétés qu'on attribue intuitivement à la notion de produit:

  • ⚠ En général, le produit de matrices n'est pas commutatif. La commutativité peut prendre l'eau de différentes manières:

    • Il se peut que \(AB\) soit défini mais pas \(BA\) (voir exemple Exemple 2.7).

    • Il se peut que \(AB\) et \(BA\) n'aient pas la même taille:

      ✑ Calculez \(AB\) et \(BA\) pour

      \begin{equation*} A= \begin{pmatrix} 1\amp 2\amp 3\\1\amp 1\amp 1 \end{pmatrix} , B= \begin{pmatrix} 1\amp 0\\-1\amp 0\\0\amp 1 \end{pmatrix}. \end{equation*}
      Spoiler
      Figure 2.13. Source: http://matrixmultiplication.xyz
    • Il se peut que \(AB\) et \(BA\) existent, aient la même taille mais \(AB\neq BA\text{:}\)

      ✑ Calculez \(AB\) et \(BA\) pour

      \begin{equation*} A= \begin{pmatrix} 5\amp -1\\2\amp 2 \end{pmatrix} , B= \begin{pmatrix} 1\amp 1\\2\amp 0 \end{pmatrix}. \end{equation*}
      Spoiler
      Figure 2.14. Source: http://matrixmultiplication.xyz
  • ⚠ On peut avoir \(A\neq 0_{n,p}\text{,}\) \(B\neq 0_{p,q}\) mais \(AB = 0_{nq}\text{:}\)

    ✑ Calculez \(AB\) et \(BA\) pour

    \begin{equation*} A= \begin{pmatrix} 0\amp 0 \amp 1\\0\amp 0 \amp 1 \end{pmatrix} , B= \begin{pmatrix} 2\amp -2\\-1\amp 1 \\ 0 \amp 0 \end{pmatrix}. \end{equation*}
    Spoiler
    Figure 2.15. Source: http://matrixmultiplication.xyz
  • ⚠ On peut avoir \(AB=AC\) mais \(B \neq C\text{:}\)

    ✑ Par exemple, calculez \(AB\) et \(AC\) pour

    \begin{equation*} A= \begin{pmatrix} 0\amp -1\\0\amp 1 \end{pmatrix} ,\ B= \begin{pmatrix} 4\amp -1\\5\amp 4 \end{pmatrix},\ C= \begin{pmatrix} 2\amp 5\\5\amp 4 \end{pmatrix}. \end{equation*}
    Spoiler
    Figure 2.16. Source: http://matrixmultiplication.xyz

Sous-section 2.6 Matrice identité

On a vu que la matrice nulle joue, pour le produit matriciel, le même rôle de zéro pour la multiplication des réels. On va voir maintenant qu'il existe une matrice qui joue le rôle de 1.

Définition 2.17.

On appelle matrice identité de taille \(n\), notée \(I_n\text{,}\) la matrice carrée

\begin{equation*} I_n= \begin{pmatrix} 1\amp 0\amp \cdots\amp 0\\ 0\amp 1\amp \ddots\amp \vdots\\ \vdots\amp \ddots\amp \ddots\amp 0\\ 0\amp \dots\amp 0\amp 1 \end{pmatrix} \in \mathcal M_n(\K). \end{equation*}

Ses coefficients sont notés \(\delta_{ij}\) et sont donc donnés par:

\begin{equation*} \delta_{ij}= \begin{cases} 1 \text{ si }i=j\\ 0 \text{ si }i\neq j \end{cases} \end{equation*}

Par "jouer le rôle de 1", on entend la chose suivante:

Démonstration

Soit \(A\in \mathcal M_{n,p}(\K)\text{.}\) On utilise, pour ne pas changer, la formule (2.1) pour calculer le coefficient en position \((i,j)\) de \(I_nA\) et montrer que c'est \(a_{ij}\text{.}\)

\begin{align*} \sum_{k=1}^n \delta_{ik}a_{kj} \amp= \delta_{ii}a_{ij} \text{ (puisque } \delta_{ik}=0 \text{ si } k\neq i)\\ \amp=a_{ij} \text{ (puisque } \delta_{ii}=1) \end{align*}

C'est le \((i,j)-\)ième coefficien de \(A\text{.}\)

\(\leadsto\)  12  Les matrices \(I_nA\) et \(A\) ont même taille et mêmes coefficients: elles sont donc égales.

Tous en choeur !

✑ Montrez de même que \(AI_p =A\text{.}\)

Posons

\begin{equation*} A= \begin{pmatrix} 0\amp 1\amp -2\\ 2\amp 3\amp 1 \end{pmatrix} \end{equation*}

✑ Calculer \(A I_3\) et \(I_2 A\text{.}\)

Spoiler
Figure 2.20. Source: http://matrixmultiplication.xyz

Sous-section 2.7 Puissances d'une matrice carrée

Remarquons que si \(A\) est une matrice carrée de taille \(n\text{,}\) on peut calculer le produit de \(A\) par \(A\) 13 : on obtient une nouvelle matrice carrée, qu'on notera \(A^2\) par analogie avec les puissances d'un nombre réel.

Et on ne peut faire ça que si \(A\)est carrée, pourquoi ?

Mais pourquoi s'arrêter là, alors qu'on peut maintenant recommencer: en multipliant \(A^2\) par \(A\text{,}\) on obtient une nouvelle matrice 14  qu'on note \(A^3\text{.}\)

Pourquoi, au fait, peut-on faire ce produit ?

On peut alors itérer le procédé, ce qui définit les puissances \(A^k\) de la matrice \(A\text{.}\)

✑ Qui pourrait être \(A^0\text{?}\)

Reprenons la matrice \(A\) des deux exercices précédents. Une idée pour \(A^k\) ?

Spoiler

Pour \(k\in \N\text{,}\) \(A^k=\begin{pmatrix}1\amp k\\0 \amp 1 \end{pmatrix} \text{.}\)

✑ On peut le faire facilement par récurrence sur \(k\) !

Formalisons cette idée:

Définition 2.26.

Soit \(A\in \mathcal M_{n}(\K)\text{.}\) On définit les puissances successives de \(A\) par

\begin{equation*} A^0=I_n,\ A^{k+1}=A^k \cdot A. \end{equation*}

Considérons la matrice \(A=\begin{pmatrix}1\amp 0\amp 1\\0\amp -1\amp 0\\0\amp 0\amp 2\end{pmatrix}\text{.}\)

On calcule  15 

✑ Faites-le !
\begin{equation*} A^2=\begin{pmatrix} 1\amp 0\amp 3\\0\amp 1\amp 0\\0\amp 0\amp 4 \end{pmatrix},\ A^3=A^2\cdot A=\begin{pmatrix} 1\amp 0\amp 7\\0\amp -1\amp 0\\0\amp 0\amp 8 \end{pmatrix}, A^4=A^3\cdot A = \begin{pmatrix} 1\amp 0\amp 15\\0\amp 1\amp 0\\0\amp 0\amp 16 \end{pmatrix}. \end{equation*}

✑ Vérifiez que \(A^4=A^2 \cdot A^2\text{.}\)

Il semble donc qu'on ait, pour \(p\in\N\text{:}\)

\begin{equation*} A^p=\begin{pmatrix} 1\amp 0\amp 2^{p}-1\\0\amp (-1)^p\amp 0\\0\amp 0\amp 2^p \end{pmatrix} \end{equation*}

On vérifie cette formule par récurrence sur \(p\text{:}\)

  • \(\boxed{p=0}\) On trouve bien \(A^0=I_3=\begin{pmatrix} 1\amp 0\amp 2^0-1\\0\amp (-1)^0\amp 0\\0\amp 0\amp 2^0 \end{pmatrix}\text{.}\)

  • \(\boxed{p\leadsto p+1}\) Supposons que, pour un rang \(p\text{,}\)

    \begin{equation*} A^p=\begin{pmatrix} 1\amp 0\amp 2^{p}-1\\0\amp (-1)^p\amp 0\\0\amp 0\amp 2^p \end{pmatrix} \end{equation*}

    et déduisons-en la formule au rang \(p+1\text{.}\) On calcule

    \begin{align*} A^{p+1}= A^p \cdot A \amp =\begin{pmatrix} 1\amp 0\amp 2^{p}-1\\0\amp (-1)^p\amp 0\\0\amp 0\amp 2^p \end{pmatrix}\begin{pmatrix}1\amp 0\amp 1\\0\amp -1\amp 0\\0\amp 0\amp 2\end{pmatrix}\\ \amp = \begin{pmatrix} 1\amp 0\amp 2*(2^p-1)+1\\ 0\amp -(-1)^p\amp 0\\ 0\amp 0\amp 2\cdot2^p \end{pmatrix} \\ \amp =\begin{pmatrix} 1\amp 0\amp 2^{p+1}-1\\0\amp (-1)^{p+1}\amp 0\\0\amp 0\amp 2^{p+1} \end{pmatrix} \end{align*}
Exploration 2.4. Puissances de matrices et transformations.

On a vu à l'Exploration 2.3 qu'à toute matrice \(A\in \mathcal{M}_{n,p}(\K)\text{,}\) on peut associer une application

\begin{equation*} \Phi_A: x=\begin{pmatrix} x_1\\\vdots\\x_p \end{pmatrix} \in \K^p\mapsto A\cdot x \in \K^n \end{equation*}
(a)

Soit \(A=\begin{pmatrix} 0\amp 1\amp -2\\ 2\amp 0\amp 1\\ 3\amp -1\amp 1 \end{pmatrix}\) et \(x=\begin{pmatrix} 1\\1\\0 \end{pmatrix} \in \R^3\text{.}\)

Calculer \(A^2\text{,}\) puis \(\Phi_A(x), \Phi_A\circ \Phi_A(x), \Phi_{A^2}(x)\text{.}\)

Spoiler
\begin{equation*} A^2 = \begin{pmatrix} 4\amp 2\amp -1\\3\amp 1\amp -3\\1\amp 2\amp -6 \end{pmatrix} \end{equation*}

De là, on calcule:

\begin{align*} \Phi_A(x)=A\cdot x \amp = \begin{pmatrix} 0\amp 1\amp -2\\ 2\amp 0\amp 1\\ 3\amp -1\amp 1 \end{pmatrix}\begin{pmatrix} 1\\1\\0 \end{pmatrix} = \begin{pmatrix} 1\\2\\2 \end{pmatrix}\\ \Phi_A(\Phi_A(x))=A\cdot (Ax) \amp = \begin{pmatrix} 0\amp 1\amp -2\\ 2\amp 0\amp 1\\ 3\amp -1\amp 1 \end{pmatrix}\begin{pmatrix} 1\\2\\2 \end{pmatrix} = \begin{pmatrix} -2\\4\\3 \end{pmatrix}\\ \Phi_{A^2}(x)=A^2\cdot x \amp = \begin{pmatrix} 4\amp 2\amp -1\\3\amp 1\amp -3\\1\amp 2\amp -6 \end{pmatrix}\begin{pmatrix} 1\\1\\0 \end{pmatrix} = \begin{pmatrix} -2\\4\\3 \end{pmatrix} \end{align*}
(b)

Soit \(A\in \mathcal{M}_{n}(\K)\) une matrice carrée quelconque. Exprimer \(\Phi_{A^2}\) en fonction de \(\Phi_A\text{.}\)

Spoiler

Soit \(x=\begin{pmatrix} x_1\\\vdots\\x_n \end{pmatrix} \in \K^n\text{.}\) Alors

\begin{equation*} \Phi_{A^2}(x)=A^2 \cdot x = A\cdot A\cdot x = A\cdot(A\cdot x) = \Phi_A(A\cdot x) = \Phi_A(\Phi_A(x)) \end{equation*}

Ceci étant vrai pour n'importe quel \(x\in \K^n\text{,}\) on en déduit que \(\Phi_{A^2}=\Phi_A\circ\Phi_A\text{.}\)

(c)

Considérons la matrice \(R=\begin{pmatrix}0\amp -1\\1\amp 0\end{pmatrix}\text{.}\) Alors on a:

\begin{equation*} R^2=\begin{pmatrix} 0\amp -1\\1\amp 0\end{pmatrix}\begin{pmatrix}0\amp -1\\1\amp 0\end{pmatrix}=\begin{pmatrix} -1\amp 0\\0\amp -1\end{pmatrix} = -I_2 \end{equation*}

On avait en fait déjà croisé la matrice \(R\) à l'Exploration 2.3, et on en avait donné une interprétation géométrique.

✑ Quelle serait l'interprétation géométrique de \(-I_2\) ? Est-ce que cela correspond à l'interprétation géométrique de \(R^2\) ?

Toujours plus de propriétés intuitives:

On démontre ces deux propriétés par récurrence sur \(\ell\text{.}\)

✑ Rédiger cette récurrence.

⚠ Pour le calcul de puissances aussi, le produit matriciel cache un piège:

On peut avoir \(A^p=0\) mais \(A\neq 0_{n,n}\text{.}\) On dit dans ce cas que \(A\) est nilpotente.

Posons \(A=\begin{pmatrix} 6\amp 4\\-9\amp -6 \end{pmatrix}\text{.}\) Alors

\begin{equation*} A^2=\begin{pmatrix} 6\amp 4\\-9\amp -6 \end{pmatrix}\begin{pmatrix} 6\amp 4\\-9\amp -6 \end{pmatrix}= \begin{pmatrix} 0\amp 0\\0\amp 0 \end{pmatrix}. \end{equation*}

✑ Déduisez-en que \(A^k=0\) pour tout \(k\geq 2\text{.}\)

Sous-section 2.8 Formule du binôme

On a vu qu'on pouvait sommer des matrices de même taille, et multiplier deux matrices de tailles \(n\times p\) et \(p\times q\text{.}\) En particulier, deux matrices carrées peuvent être à la fois sommées entre elles, mises à une puissance \(n \in \N\text{,}\) et multipliées entre elles.

\(\leadsto\) Comment ces différentes opérations interagissent-elles ?

La formule suivant est analogue à la formule du binôme de Newton pour les réels: elle permet de calculer les puissances d'une somme de deux matrices.

⚠ Toutefois, pour que cette analogie fonctionne, il faut les nos deux matrices se comportent "à peu près comme des réels": autrement dit, que \(AB=BA\) 16 .

Ce qui, on l'a vu en Sous-section 2.5, n'est pas systématique !

Démonstration

Soient \(A,B \in \mathcal M_n(\K)\) telles que \(AB=BA\text{.}\) On va procéder par récurrence sur \(p\in\N\text{.}\)

Initialisation : Commençons par montrer que la formule est vraie pour \(p=0\text{.}\)

Pour \(p=0\) on a

\begin{align*} (A+B)^0 \amp= I_n \text{ d'après la }\knowl{./knowl/def_puissance.html}{\text{Définition 2.26}}\\ \sum_{k=0}^0\binom{0}{k}A^kB^{0-k} \amp= \binom{0}{0}A^0 B^0 = I_n \end{align*}

✑ Avant de passer à la deuxième étape de la réccurrence, voyons ce que ça donne pour les quelques \(p\) suivants:

Spoiler

Pour \(p=1\) on a

\begin{align*} (A+B)^1 \amp = A+B \\ \sum_{k=0}^1\binom{1}{k}A^kB^{1-k} \amp = \binom{1}{0}A^0 B^1 + \binom{1}{1}A^1B^0 = 1\cdot I_n \cdot B + 1\cdot A \cdot I_n\\ \amp = A+B \text{ 🗸} \end{align*}

Pour \(p=2\) on a

\begin{align*} (A+B)^2 \amp = (A+B)(A+B)=A\cdot A + A\cdot B + B \cdot A + B\cdot B \\ \amp= A^2 + 2AB + B^2 \text{ car } AB= BA\\ \sum_{k=0}^2\binom{2}{k}A^kB^{2-k}\amp = \binom{2}{0}A^0 B^2 + \binom{2}{1}A^1B^1 + \binom{2}{2}A^2B^0\\ \amp= A^2 + 2 AB + B^2 \text{ 🗸} \end{align*}

Hérédité : Supposons que la formule est vraie pour un entier \(p\text{:}\)

\begin{equation} (A+B)^p=\sum_{k=0}^p\binom{p}{k}A^kB^{p-k}\label{eq_binom_rec}\tag{2.2} \end{equation}

et déduisons-en qu'elle doit aussi être vraie pour \(p+1\text{.}\)

Il nous faut donc calculer \((A+B)^{p+1}\text{.}\) Pour cela, on observe que, d'après la Définition 2.26, \((A+B)^{p+1}=(A+B)(A+B)^p\text{.}\)

Et ça tombe bien, on a supposé justement qu'on connaissait \((A+B)^p\) !

Grâce à notre hypothèse de récurrence (2.2), on montre que

\begin{align*} (A+B)^{p+1}\amp = (A+B)\sum_{k=0}^p\binom{p}{k}A^kB^{p-k} \\ \amp = A \sum_{k=0}^p\binom{p}{k}A^kB^{p-k} + B \sum_{k=0}^p\binom{p}{k}A^kB^{p-k}\\ \amp = \sum_{k=0}^p\binom{p}{k}A^{k+1}B^{p-k} + \sum_{k=0}^p\binom{p}{k}BA^kB^{p-k} \end{align*}

Pour avancer, il nous serait utile de pouvoir réécrire \(BA^kB^{p-k}\) en \(A^kB^{p-k+1}\text{.}\)

✑ Montrer que, si \(A,B\in \mathcal M_n(\K)\) vérifient \(AB=BA\text{,}\) alors pour tout entier \(k\text{,}\) \(A^kB=BA^k\text{.}\)

Spoiler

On procède par récurrence sur \(k\text{:}\)

Pour \(k=0\) on a \(A^0B=I_n B= B = B I_n = B A^0\text{.}\)

Supposons que \(A^kB=BA^k\) et déduisons-en que \(A^{k+1}B = BA^{k+1}\text{.}\) On a

\begin{align*} A^{k+1}B \amp = A^{k}A B = A^k B A \text{ car } AB = BA\\ \amp = B A^{k}A \text{ par hypothèse de récurrence}\\ \amp = BA^{k+1} \text{ 🗸} \end{align*}

En utilisant ceci, on a donc

\begin{equation*} (A+B)^{p+1} = \sum_{k=0}^p\binom{p}{k}A^{k+1}B^{p-k} + \sum_{k=0}^p\binom{p}{k}A^kB^{p+1-k} \end{equation*}

Or, \(p-k=(p+1)-(k+1)\text{.}\) Fantastique, me direz-vous, et alors ?

Alors, dans la première somme, on peut faire un changement d'indice en posant \(\ell = k+1\text{,}\) ce qui donne

\begin{equation*} (A+B)^{p+1} = \sum_{\ell =1 }^{p+1}\binom{p}{\ell-1}A^{\ell}B^{p+1-\ell} + \sum_{k=0}^p\binom{p}{k}A^kB^{p+1-k} \end{equation*}

Nos deux sommes commencent à se ressembler ! En mettant de côté les termes \(\ell = p+1\) dans la première et \(k=0\) dans la deuxième, on va pouvoir les rassembler:

\begin{align*} (A+B)^{p+1} \amp = {\color{orange}{\binom{p}{p+1-1}A^{p+1}B^0}} + {\color{purple}{\sum_{\ell =1 }^{p}\binom{p}{\ell-1}A^{\ell}B^{p+1-\ell}}}\\ \amp {\color{purple}{+\sum_{k=1}^p\binom{p}{k}A^kB^{p+1-k}}} + {\color{blue}{\binom{p}{0}A^0B^{p+1}}}\\ \amp = {\color{orange}{A^{p+1}}} + {\color{purple}{\sum_{k=1}^p\left(\binom{p}{k}+\binom{p}{k-1}\right) A^kB^{p+1-k}}} + {\color{blue}{B^{p+1}}} \end{align*}

Il ne nous reste plus que quelques remarques calcultoires à faire.

✑ D'abord, un petit calcul montre que \(\binom{p}{k}+\binom{p}{k-1}=\binom{p+1}{k}\text{.}\)

Spoiler

\begin{align*} \binom{p}{k}+\binom{p}{k-1} \amp = \frac{p!}{k!(p-k)!} + \frac{p!}{(k-1)!(p-(k-1))!}\\ \amp = \frac{(p+1-k)p!}{(p+1-k)k!(p-k)!)}+ \frac{k p!}{k(k-1)!(p-k+1))!}\\ \amp = \frac{(p+1-k)p!}{k!(p+1-k)!)}+ \frac{k p!}{k!(p-k+1))!}\\ \amp = \frac{(p+1-k+k)p!}{k!(p+1-k)!)} = \frac{(p+1)!}{k!(p+1-k)!)}\\ \amp = \binom{p+1}{k} \end{align*}

Ensuite, pour réintégrer les deux termes qu'on a laissé de côté, observons que:

\begin{equation*} A^{p+1} = \binom{p+1}{p+1}A^{p+1}B^{(p+1)-(p+1)},\quad B^{p+1}= \binom{p+1}{0}A^0B^{p+1} \end{equation*}

Ce qui, en mettant tout ensemble, donne:

\begin{align*} (A+B)^{p+1} \amp = {\color{orange}{\binom{p+1}{p+1}A^{p+1}B^{0}}}+{\color{purple}{\sum_{k=1}^p\binom{p+1}{k} A^kB^{p+1-k}}} + {\color{blue}{\binom{p+1}{0}A^0B^{p+1}}}\\ \amp = \sum_{k=0}^{p+1}\binom{p+1}{k} A^kB^{p+1-k} \end{align*}

Et 18  c'est bien ce qu'on voulait obtenir.

Ouf !

Comme on le voit, pour que ça marche, la condition \(AB=BA\) est indispensable.

Voyons ce qui se passe si \(AB\neq BA\text{:}\)

✑ Comparez \((A+B)^2\) et \(A^2+2AB+B^2\) pour

\begin{equation*} A=\begin{pmatrix} 6\amp 4\\-9\amp -6 \end{pmatrix}, B= \begin{pmatrix} 0\amp 0\\1\amp 0 \end{pmatrix} \end{equation*}
Spoiler

On trouve:

\begin{align*} AB= \begin{pmatrix} 4\amp 0\\-6\amp 0\end{pmatrix},\ BA = \begin{pmatrix} 0\amp 0\\6\amp 4\end{pmatrix}\\ (A+B)^2 = \begin{pmatrix} 4\amp 0\\0\amp 4\end{pmatrix}\\ A^2+2AB+B^2 = \begin{pmatrix} 8\amp 0\\-12\amp 0\end{pmatrix} \end{align*}