Calcul Matriciel

T:RnRm, lineˊaire. Sa matrice : A(m×n),A=[a1an]x=(x1xn)T(x)=Ax=x1a1++xnanSi A=(a11a12a1nam1am2amn), on a ak=(a1kajkamk)Donc i{1,,m}(Ax)i=l=1nailxl (ieˋme composante de AxRm)T:\R^n\rightarrow\R^m\text{, linéaire. Sa matrice : } A(m\times n),\,A=[\vec{a}_1\cdots\vec{a}_n]\\ \vec{x} = \begin{pmatrix}x_1\\\vdots\\x_n\end{pmatrix}\mapsto T(\vec{x})=A\vec{x}=x_1\vec{a}_1+\ldots+x_n\vec{a}_n\\ \text{Si } A= \begin{pmatrix}a_{11}&a_{12}&\cdots&a_{1n}\\ \vdots&\vdots& &\vdots\\a_{m1}&a_{m2}&\cdots&a_{mn}\end{pmatrix} \text{, on a }\vec{a}_k = \begin{pmatrix}a_{1k}\\\vdots\\a_{jk}\\ \vdots\\a_{mk}\end{pmatrix}\\ \text{Donc }\forall i \in \{1,\ldots,m\}\,(A\vec{x})_i = \sum^n_{l=1}a_{il}x_l \text{ ($i^{ème}$ composante de $A\vec{x}\in\R^m$)}

Opérations sur les matrices

Addition

Si A(m×n),B(m×n),A\,(m\times n),\,B\,(m\times n), alors A+B(m×n)A+B\,(m\times n) est definie ainsi :

A=(aij)i=1,,mj=1,,nB=(bij)i=1,,m,j=1,,n(A+B)ijaij+bijA =(a_{ij})_{i = 1,\ldots,m\,j = 1,\ldots,n}\\B = (b_{ij})_{i = 1,\ldots,m,\,j = 1,\ldots,n}\\ (A+B)_{ij}\coloneqq a_{ij}+b_{ij}

Multiplication par un scalaire λR\lambda\in\R

λA(m×n)\lambda A\,(m\times n) est (λA)ijλaij(\lambda A)_{ij} \coloneqq\lambda a_{ij}

Produit matriciel

Image aˋ mettre p.90\color{red}\text{Image à mettre p.90}

ST:RnRkx(ST)(x)=S(T(x))\begin{array}{rlll} S\circ T : &\R^n &\longrightarrow &\R^k\\ & \vec{x}&\longmapsto &(S\circ T)(\vec{x}) = S(T(\vec{x})) \end{array}

Exemple

BAC(320101)(123410)=(91402)2×33×22×2\begin{array}{cccc} B&A& &C\\ \begin{pmatrix}3&2&0\\-1&0&1\end{pmatrix} &\begin{pmatrix}1&2\\3&4\\1&0\end{pmatrix}&= &\begin{pmatrix}9&14\\0&-2\end{pmatrix}\\ \color{red}2\times3&\color{red}3\times2&&\color{red}2\times 2 \end{array}

Remarque : on ne peut multiplier que des matrces qui ont les bonnes dimensions ?

BAk×mm×n\begin{array}{cc} B&A\\ \uparrow&\uparrow\\ k\times m & m\times n \end{array}

Propriétés

  1. A(BC)=(AB)CA(BC) = (AB)C

  2. A(B+C)=AB+ACA(B+C)=AB+AC

  3. (A+B)C=AC+BC(A+B)C=AC+BC

  4. A(λB)=(λA)B=λ(AB)A(\lambda B)=(\lambda A)B =\lambda (AB)

  5. ABBA en geˊneˊral!\color{red}AB\not=BA\text{ en général!}

    Par exemple:

    A=(1001),B=(0110)AB=(1001)(0110)=(0110)BA=(0110)(1001)=(0110)}ABBAA=\begin{pmatrix}1&0\\0&-1\end{pmatrix},\, B=\begin{pmatrix}0&-1\\1&0\end{pmatrix}\\ \left.\begin{array}{lll}AB =\begin{pmatrix}1&0\\0&-1\end{pmatrix} \begin{pmatrix}0&-1\\1&0\end{pmatrix} = \begin{pmatrix}0&-1\\-1&0\end{pmatrix}\\ BA = \begin{pmatrix}0&-1\\1&0\end{pmatrix} \begin{pmatrix}1&0\\0&-1\end{pmatrix} = \begin{pmatrix}0&1\\1&0\end{pmatrix}\end{array}\right\}AB\not=BA

Définition

Si AB=BAAB=BA, on dit que AA et BB commutent.

Transposition

Définition

Si A(m×n)A\,(m\times n), sa transposée est une matrice n×mn\times m, notée AA^\intercal, définie ainsi :

(A)ijAjiLes colonnes de A sont les lignes de A.Les lignes de A sont les colonnes A.(A^\intercal)_{ij}\coloneqq A_{ji}\\ \color{red}\text{Les colonnes de }A^\intercal\text{ sont les lignes de }A.\\ \color{red}\text{Les lignes de }A^\intercal\text{ sont les colonnes }A.

Exemple :

A=(123456)A=(135246)(A)31=5(A)13=5A = \begin{pmatrix}1&2\\3&4\\\textcolor{red}{5}&6\end{pmatrix} \longrightarrow A^\intercal = \begin{pmatrix}1&3&\textcolor{red}{5}\\ 2&4&6\end{pmatrix}\\ \text{} \\ \textcolor{red}{(A)_{31}=5}\longrightarrow\textcolor{red} {(A^\intercal)_{13}=5}

Propriétés:

Matrice inverse

Définition

Soit T:RnRmT: \R^n \rightarrow\R^m, linéaire, bijective (c'est-à-dire injective et surjective).

    \implies \exists une application réciproque, notée

T1:RmRn,telle que T1(T(x))=xxRnT(T1(y))=yyRm()T\begin{array}{rl} & \,\, T^{-1}: \R^m\longrightarrow\R^n,\text{telle que }\\ &\boxed{\begin{aligned}T^{-1}(T(\vec{x}))=\vec{x}\quad \forall\vec{x}\in\R^n\\ T(T^{-1}(\vec{y}))=\vec{y}\quad \forall\vec{y}\in\R^m\end{aligned}}\,(*)_T \end{array}

Lemme 1

T1:RmRnT^{-1}:\R^m\longrightarrow\R^n est aussi linéaire !

Lemme 2

Si T:\R^n\longrightarrow\R^m $ est linaire et bijective, alors $n=m.

Preuve

Soit A(m×n)A\,(m\times n) la matrice qui représente TT : T(x)=Ax.T(\vec{x})=A\vec{x}.

    n=m.\implies n=m. \quad \square

Donc pour étudier les applications linéaires et bijectives, on va considérer

T:RnRnsa matrice A sera carreˊe:n×nT:\textcolor{orange}{\R^n}\longrightarrow\textcolor{blue}{\R^n}\qquad \text{sa matrice A sera} \textbf{ carrée}:n\times n

Donc, T1:RnRnT^{-1} : \textcolor{blue}{\R^n} \longrightarrow\textcolor{orange}{\R^n} est linéaire (lemme 1)

    \implies elle peut être représentée à l'aide d'une matrice, que l'on note "A1A^{-1}" :

T1(x)=A1xT^{-1}(\vec{x}) = A^{-1}\vec{x}

A1A^{-1} est une n×nn\times n appelée l'inverse de AA. Elle est caractérosée par

()T    ()A:A1(Ax)=xxRnA(A1y)=yyRn(*)_T \iff (*)_A : \boxed{\begin{aligned}A^{-1}(A\vec{x})=\vec{x} \quad \forall\,\vec{x}\in\R^n\\A(A^{-1}\vec{y})=\vec{y}\quad\forall \,\vec{y}\in\R^n\end{aligned}}

Définition

La matrice identité de dimension nn est la matrice :

In=(11001)I_n=\begin{pmatrix} 1&&&&\\&1&&\text{\huge0}&\\&&\ddots&&\\ &\text{\huge0}&&\ddots&\\&&&&1\end{pmatrix}

Propriétés

  1. Inx=xxRnI_n\vec{x}=\vec{x}\quad\forall\vec{x}\in\R^n

  2. AIn=InA=A matrices A(n×n)AI_n=I_nA=A \quad\forall\text{ matrices }A\,(n\times n )

Donc ()A(*)_A devient : A1A=InAA1=In()\boxed{\begin{aligned}A^{-1}A=I_n\\AA^{-1}=I_n\end{aligned}}\quad(*)

Image aˋ mettre p.97\color{red}\text{Image à mettre p.97}

Donc, on cherche, pour une T(x)=AxT(\vec{x})=A\vec{x} bijective, la matrice A1A^{-1}, à l'aide de ()(*), telle que T1(y)=A1yT^{-1}(\vec{y})=A^{-1}\vec{y}.

A priori, trouver A1(n×n)A^{-1}\,(n\times n) est un problème à n2n^2 inconnues !!

Définition

Pour une matrice A(n×n)A\,(n\times n) donnée, si une A1(n×n)A^{-1}\,(n\times n) existe ((satisfaisant ())(*)), AA est dite inversible, et A1A^{-1} est son inverse. Sinon, AA est singulière.

Par exemple, la matrice nulle A=(0)n×n est singulieˋre.Par exemple A=(1234) est inversible. En effet, si A1=(213212) on veˊrifie que : AA1=(1001)=I2, etA1A=(1001)=I2\begin{array}{ll} \bullet&\text{Par exemple, la matrice nulle } A= \Big(\,0\,\Big)\leftarrow n\times n \text{ est singulière.}\\ \bullet&\text{Par exemple } A=\begin{pmatrix}1&2\\3&4 \end{pmatrix}\text{ est inversible.}\\ &\text{ En effet, si }A^{-1} =\begin{pmatrix} -2&1\\\frac{3}{2} &-\frac{1}{2}\end{pmatrix}\text{ on vérifie que : }\\ & AA^{-1}=\begin{pmatrix}1&0\\0&1\end{pmatrix}=I_2\text{, et}\\ & A^{-1}A =\begin{pmatrix}1&0\\0&1\end{pmatrix}=I_2 \end{array}

Lemme 3

Si AA est inversible, son inverse est unique.

Preuve

Supposons que AB=In et BA=In, et que AC=In et CA=InAlors B=BIn=B(AC)=(BA)C=InC=C\begin{array}{ll}\text{Supposons que }AB = I_n\text{ et }BA=I_n\text{, et que }AC=I_n\text{ et }CA=I_n&\\\text{Alors }B=BI_n=B(AC)=(BA)C=I_nC=C&\\&\square\end{array}

Propriétés de la matrice inverse (lorsqu'elle existe)

Etude de l'inversibilité pour les matrices 2×22\times2

Soit A=(abcd)\text{Soit }A=\begin{pmatrix}a&b\\c&d\end{pmatrix}

  1. Comment savoir si AA est inversible ?

  2. Si AA est inversible, comment calculer A1A^{-1} ?

Pour répondre à 1 :

Lemme

On a équivalence entre

a) AA est inversible

b)(ac)et(bd)sont lineˊaires indeˊpendants.\text{b)}\begin{pmatrix}a\\c\end{pmatrix} \text{et} \begin{pmatrix}b\\d\end{pmatrix}\text{sont linéaires indépendants.}

c) adbc0ad-bc\not=0

Peuve
a)    b) : OK, puisque on sait que T(x)=Ax est bijective si et seulement si les colonnes de A sont lineˊairement indeˊpendantes (injective) et engendrent R2 (surjective).b)     c) : Supposons que (ac) et (bd) soient lineˊairement indeˊpendants (en particulier, ces deux vecteurs ne sont pas (00)), et que adbc=0. Sans perte de geˊneˊraliteˊ, supposons que a0. On a donc d=bca et(bd)=(bbca)=ba(ac),une contradiction.c)     a) : Si adbc0, supposons que(ac) et(bd)sont colineˊaires :λR tel que(ac)=λ(bd)a=λbdc=λdbadbc=λbdλdb=0,une contradiction. \begin{aligned} \text{a)$\iff$b) :}&\text{ OK, puisque on sait que }T(\vec{x})=A \vec{x}\text{ est bijective si et seulement}\\ &\text{ si les colonnes de $A$ sont linéairement indépendantes (injective)}\\ &\text{ et engendrent $\R^2$ (surjective).}\\ \text{b)$\implies$ c) :}&\text{ Supposons que }\begin{pmatrix} a\\c\end{pmatrix}\text{ et }\begin{pmatrix}b\\d\end{pmatrix} \text{ soient linéairement indépendants}\\ &\text{ (en particulier, ces deux vecteurs ne sont pas }\begin{pmatrix}0\\0\end{pmatrix} \text{), et que }\\ &\,ad-bc=0\text{. Sans perte de généralité, supposons que } a\not=0.\\ &\text{ On a donc }d=\frac{bc}{a}\text{ et}\begin{pmatrix} b\\d\end{pmatrix}=\begin{pmatrix}b\\ \frac{bc}{a}\end{pmatrix}= \frac{b}{a}\begin{pmatrix}a\\c\end{pmatrix},\text{une contradiction.}\\ \text{c)$\implies$ a) :}&\text{ Si $ad-bc\not=0$, supposons que} \begin{pmatrix}a\\c\end{pmatrix}\text{ et}\begin{pmatrix}b\\d \end{pmatrix}\text{sont colinéaires :}\\ &\begin{aligned}\exists\lambda\in\R\text{ tel que}\begin{pmatrix}a\\c \end{pmatrix}=\lambda\begin{pmatrix}b\\d\end{pmatrix}\rightarrow& \underline{\begin{array}{rr|l}&a=\lambda b&\cdot\, d\\ -&c=\lambda d&\cdot\, b\end{array}}\\ & ad-bc=\lambda bd-\lambda db = 0,\\ &\text{une contradiction. } \\& &\square \end{aligned} \end{aligned}

Définition

Si A=(abcd),det(A)adbc est le deˊtermient de A.\text{Si }A = \begin{pmatrix}a&b\\c&d\end{pmatrix}, \mathrm{det}(A)\coloneqq ad-bc \text{ est le }\textbf{détermient }\text{de }A.

L'équivalence 1)$\iff$3) peut s'exprimer ainsi :

Théorème (n=2n=2)

A(2×2)A\,(2\times 2) est inversible     \iff det(A)0\mathrm{det}(A)\not=0

Si A=(abcd)est telle que det(A)=adbc0, calculons son inverse:\text{Si }A =\begin{pmatrix}a&b\\c&d\end{pmatrix}\text{est telle que }\mathrm{det}(A) = ad-bc\not=0\text{, calculons son inverse:}

Posons : A1=(αβγδ)On veut : AA1=I2=(1001)A1A=I2Systeˋme de n2=4 inconnues :α,β,γ,δ{aα+bγ=1(1)aβ+bδ=0(2)cα+dγ=0(3)cβ+dδ=1(4)(1) et (3)    (adbc0)α=d(2) et (4)    (adbc0)β=b    A1=(dadbcbadbccadbcaadbc)=1det(A)(dbca)\begin{aligned} \text{Posons : }&A^{-1} =\begin{pmatrix}\alpha & \beta \\ \gamma & \delta \end{pmatrix}\\ \text{On veut : }&AA^{-1}=I_2=\begin{pmatrix}1&0\\0&1\end{pmatrix}\\ & A^{-1}A=I_2\\ \begin{array}{l} \color{red}\text{Système de }\\ \color{red}\text{$n^2 = 4$ inconnues :}\\ \color{red}\text{$\alpha,\beta,\gamma,\delta$} \end{array}&\left\{\begin{array}{llllll} a\alpha& &+b\gamma& &=1&(1)\\ &a\beta& &+b\delta&=0&(2)\\ c\alpha& &+d\gamma& &=0&(3)\\ &c\beta& &+d\delta&=1&(4) \end{array}\right. \end{aligned}\\ (1)\text{ et } (3) \implies (\overbrace{ad-bc}^{\not=0})\alpha = d \qquad(2)\text{ et } (4) \implies (\overbrace{ad-bc}^{\not=0})\beta = -b \\ \text{} \\ \implies\boxed{A^{-1}=\begin{pmatrix}\frac{d}{ad-bc} &\frac{-b}{ad-bc}\\ \frac{-c}{ad-bc}&\frac{a}{ad-bc}\end{pmatrix}= \frac{1}{\mathrm{det}(A)}\begin{pmatrix}d&-b\\-c&a\end{pmatrix}}
Exemple
A=(1234)det(A)=20A inversible, et A1=12(4231)=(213212)A=\begin{pmatrix}1&2\\3&4\end{pmatrix}\rightarrow\mathrm{det}(A)=-2 \not=0\rightarrow A\text{ inversible, }\\ \text{et } A^{-1}=\frac{1}{-2}\begin{pmatrix}4&-2\\-3&1\end{pmatrix} =\begin{pmatrix}-2&1\\\frac{3}{2}&-\frac{1}{2}\end{pmatrix}
Exemples (Transformations du plan)
  1. Réflexion par OxOx

    TT est injective et surjective, donc bijective. Sa réciprique est T1=TT^{-1}=T

    Par rapport à la base canonique :

    A=(1001)det(A)=10, etA1=11(1001)==A\begin{aligned} &A=\begin{pmatrix}1&0\\0&-1\end{pmatrix}\rightarrow\mathrm{det}(A)=-1\not=0 \text{, et}\\ &A^{-1}=\frac{1}{-1}\begin{pmatrix}-1&0\\0&1 \end{pmatrix}=\ldots=A \end{aligned}

    Image aˋ mettre p.102\color{red}\text{Image à mettre p.102}

  2. Projection sur OyOy

    TT n'est ni injective, ni surjective, donc par bijective. T1\rightarrow T^{-1} n'existe pas.

    Veˊrification :A=(0001)det(A)=0\text{Vérification :} A=\begin{pmatrix}0&0\\0&1\end{pmatrix}\rightarrow\mathrm{det}(A)=0

    Image aˋ mettre p.102\color{red}\text{Image à mettre p.102}

Matrice inverse et résolution d'un système n×nn\times n

Soit ()(*) un système carré (n×n)(n\times n ) : A(n×n),xRn,bRnA\,(n\times n),\,\vec{x}\in\R^{n},\,\vec{b}\in\R^n

Ax=bA\vec{x}=\vec{b}

Si AA est inversible, A1A^{-1} existe, et ()(*) est équivalent à

A1(Ax)=A1bx=A1b\begin{aligned} A^{-1}(A\vec{x})&=A^{-1}\vec{b}\\ \vec{x}&=A^{-1}\vec{b} \end{aligned}

\rightarrow en particulier, la solution de ()(*) est unique, et est donnée par x=A1b\vec{x}=A^{-1}\vec{b}

Exemple
()(5314)(x1x2)=(132)Axbdet0A inversible : A1=123(4315)x=A1b=(21)(solution unique)\begin{array}{rcccc} (*)&\begin{pmatrix}5&-3\\1&4\end{pmatrix}&\begin{pmatrix} x_1\\x_2\end{pmatrix}&=&\begin{pmatrix}13\\-2\end{pmatrix}\\ &A&\vec{x}&&\vec{b} \end{array}\\ \begin{aligned} \mathrm{det}\not=0&\rightarrow A \text{ inversible : }A^{-1} =\frac{1}{23}\begin{pmatrix}4&3\\-1&5\end{pmatrix}\\ &\rightarrow \vec{x} =A^{-1}\vec{b}=\begin{pmatrix}2\\-1\end{pmatrix} \text{(solution unique)} \end{aligned}

Iversibilité dans le cas n×nn\times n

Remarque : avant de se lancer dans le calcul de A1A^{-1}, vérifier qu'elle soit effectivement inversible !

Exemple : A=(18211174131922601102)A = \begin{pmatrix}1&8&2&-11\\1&7&4&13\\1&9&2&26\\0&11&0&-2\end{pmatrix}

Comme a3=2a1,A\vec{a}_3=2\vec{a}_1,\, A n'est pas inversible.

Méthode pour chercher A1A^{-1}

Soit A(n×n)A\,(n\times n), nous cherchons donc nue matrice A1(n×n)A^{-1}\, (n\times n), telle que

AA1=InA1A=InAA^{-1} = I_n\\ A^{-1}A=I_n

Ecrivons A1=[c1cn]ciRnA^{-1} =[\vec{c}_1\cdots\vec{c}_n]\quad\vec{c}_i\in\R^n

Comme AA1=[Ac1Ac2Acn]=[e1e2en]AA^{-1}=[A\vec{c}_1\,A\vec{c}_2\cdots A\vec{c}_n] =[\vec{e}_1\,\vec{e}_2\cdots \vec{e}_n] car AA1=InAA^{-1}=I_n

    Aci=eii=1,,nn\implies\boxed{A\vec{c}_i=\vec{e}_i\quad i=1,\ldots,n}\leftarrow n systèmes linéaire, chacun à $ n$ inconnues (les nn composantes de ci\vec{c}_i)

Idée : résoudre ces nn systèmes "en une seule fois".

Définition

Une matrice n×nn\times n est élémentaire si elle s'obtient à partir de InI_n à l'aide d'une seule opératoin élémentaire (de Type I, II ou III)

Exemple
E1=(100001010)est eˊleˊmentaire (c’est I3, surlaquelle on a fait L2L3)E2=(100020001)est eˊleˊmentaire (c’est I3, surlaquelle on a fait L22L2)(123010001)n’est pas eˊleˊmentaire\begin{array}{rll} E_1&=\begin{pmatrix}1&0&0\\0&0&1\\0&1&0\end{pmatrix}& \text{est élémentaire (c'est $I_3$, sur}\\ &&\text{laquelle on a fait $L_2\leftrightarrow L_3$)}\\ E_2&=\begin{pmatrix}1&0&0\\0&-2&0\\0&0&1\end{pmatrix}& \text{est élémentaire (c'est $I_3$, sur}\\ &&\text{laquelle on a fait $L_2\leftarrow-2L_2$)}\\ &\quad\begin{pmatrix}1&2&3\\0&1&0\\0&0&1\end{pmatrix}& \text{n'est pas élémentaire} \end{array}

Remarque :

  • Toute matrice élémentaire est inversible. (Par exemple : E11=E1E_1^{-1}=E_1)

  • On peut utiliser les matrices élémentaires pour voir les opérations élémentaires comme des produits matriciels.

    Par exemple : si A=(abcdefghi)L2L3A = \begin{pmatrix}a&b&c\\d&e&f\\g&h&i\end{pmatrix}\quad\color{red}L_2\leftrightarrow L_3

    E1A=(100001010)(abcdefghi)=(abcghidef)E_1A=\begin{pmatrix}1&0&0\\0&0&1\\0&1&0\end{pmatrix} \begin{pmatrix}a&b&c\\\color{orange}d&\color{orange}e& \color{orange}f\\\color{blue}g&\color{blue}h&\color{blue}i \end{pmatrix}=\begin{pmatrix}a&b&c\\ \color{blue}g& \color{blue}h&\color{blue}i\\\color{orange}d& \color{orange}e&\color{orange}f\end{pmatrix}

Théorème

Soit A(n×n)A\,(n\times n). Alors

AA est inversible     \iff AA est "équivalente-ligue" à InI_n (c'est-à-dire que l'on peut passer de AA à InI_n en un nombre fini d'opération élémentaire)

De plus, toute suite d'opérations élémentaires qui transforme AA en InI_n transforme aussi InI_n en A1A^{-1}.

Preuve

    \implies Supposons que AA est inversible. Donc bRn\forall\,\vec{b}\in\R^n, le système "Ax=bA\vec{x}=\vec{b}" possède une unique solution. Son "Ax=bA\vec{x}=\vec{b}" n'a pas de variables libres, donc la réduite de AA contient exactement n pivots, c'est donc InI_n.

    \impliedby Si AA est "équivalente-ligne" à InI_n, il existe des matrices élémentaires E(1),,E(N)E^{(1)},\ldots,E^{(N)} telles que

E(N)E(2)E(1)A=InE(N)1E(N1)E(1)A=E(N)1In=E(N)1E(N1)1A=E(1)1E(N)1    A est inversible, et A1=(E(1)1E(N)1)1=E(N)E(1)    A1=E(N)E(1)In\begin{array}{rlll} E^{(N)}\cdots E^{(2)}E^{(1)}A&=I_n &\\ &&\downarrow E^{(N)^{-1}}\cdot\\ E^{(N-1)}\cdots E^{(1)}A&=E^{(N)^{-1}}I_n=E^{(N)^{-1}}&\\ &&\downarrow E^{(N-1)^{-1}}\cdot\\ \vdots\\ A&=E^{(1)^{-1}}\cdots E^{(N)^{-1}} \end{array}\\\text{}\\ \begin{array}{rll} \implies A \text{ est inversible, et }A^{-1}&=(E^{(1)^{-1}} \cdots E^{(N)^{-1}})^{-1}&\\&=E^{(N)}\cdots E^{(1)}&\\ \implies A^{-1}&=E^{(N)}\cdots E^{(1)}\color{red}I_n&\\ &&\square \end{array}

Algorithme de Gauss-Jordan

Rappel :

Aci=eiE(1)Aci=E(1)eiInci=E(N)E(1)ei\begin{array}{rl}A\vec{c}_i&=\vec{e}_i\\ E^{(1)}A\vec{c}_i&=E^{(1)}\vec{e}_i\\ &\cdots\\ I_n\vec{c}_i&=E^{(N)}\cdots E^{(1)}\vec{e}_i\end{array}

Algorithme

Exemple 1
A=(1224)(AI2)=(12102401)L2L22L1=(12100021)\begin{array}{rl}A=\begin{pmatrix}1&2\\2&4\end{pmatrix} \qquad (A|I_2)& = \left(\begin{array}{rr|rr}1&2&1&0\\2&4&0&1 \end{array}\right)\\\\&\big\downarrow L_2\leftarrow L_2-2L_1\\\\&= \left(\begin{array}{rr|rr} 1&2&1&0\\0&0&-2&1 \end{array}\right) \end{array}

Comme A~I2\tilde A\not=I_2, AA singulière.

Exemple 2
A=(012103438)(AI3)=(012100103010438001)L1L2=(103010012100438001)L3L34L1=(103010012100034041)L3L3+3L2L3L32(aˋ veˊrifier !)L2L22L3L1L13L3=(1009273201024100132212)=(A~C)\begin{array}{rll} A &=\begin{pmatrix}0&1&2\\1&0&3\\4&-3&8\end{pmatrix}&\\ \text{}\\ (A|I_3)&=\left(\begin{array}{ccc|ccc}0&1&2&1&0&0\\1&0&3&0&1&0\\ 4&-3&8&0&0&1\end{array}\right)\\ &&\downarrow L_1\leftrightarrow L_2\\ &=\left(\begin{array}{ccc|ccc}1&0&3&0&1&0\\0&1&2&1&0&0\\ 4&-3&8&0&0&1\end{array}\right)&\\ &&\downarrow L_3\leftarrow L_3-4L_1\\ &=\left(\begin{array}{ccc|ccc}1&0&3&0&1&0\\0&1&2&1&0&0\\ 0&-3&-4&0&-4&1\end{array}\right)\\ &&\downarrow L_3\leftarrow L_3+3L_2\\ &&\cdots\\&&\downarrow L_3\leftarrow\frac{L_3}{2}\\ &\qquad\qquad\text{(à vérifier !)}&\cdots\\&&\downarrow L_2\leftarrow L_2-2L_3\\ &&\cdots\\&&\downarrow L_1\leftarrow L_1-3L_3\\ &=\left(\begin{array}{ccc|ccc}1&0&0&-\frac{9}{2}&7&-\frac{3}{2} \\0&1&0&-2&4&-1\\0&0&1&\frac{3}{2}&-2&\frac{1}{2}\end{array}\right) \\\\&=(\tilde A|C) \end{array}

Comme A~=In\tilde A=I_n, AA est inversible et A1=CA^{-1}=C. ((Vérifier que AC=CA=I3!)AC=CA=I_3 \,!)

Critères d'inversibilité

Théorème

Soit A(n×n)A\,(n\times n). Sont équivalents

  1. AA est inversible

  2. bRn\forall\,\vec{b}\in\R^n, le système "Ax=bA\vec{x}=\vec{b}" possède une unique solution

  3. Ax=0A\vec{x}=\vec{0} ne possède que la solution tiviale x=0\vec{x}=\vec{0}

  4. les nn colonnes de AA sont linéairement indépendantes

  5. Im(A)\mathrm{Im}(A) (ou "Col(A)\mathrm{Col}(A)") est tout Rn\R^n

  6. la réduite de AA possède un pivot sur chaque ligne

  7. AA peut se réduire à InI_n (à l'aide d'une suite finite d'opérations élémentaires)

  8. AA peut s'écrire comme produit de matrices élémentaires

Preuve
  1.     \implies 2. OK (début de la leçon)

  2.     \implies 3. OK

  3.     \implies 4. OK

  4.     \implies 5. OK

  5.     \implies 6. Si Im(A)=Rn\mathrm{Im}(A)=\R^n, tout vecteur yRn\vec{y}\in\R^n peut s'écrire comme combinaison linéaire des colonnes de AA :

    Ax=yreˊductionpas de variables libresreˊduite de A posseˋde n pivots, un dans chaque ligne\begin{aligned} A\vec{x}&=\vec{y}\\ &\downarrow\text{réduction}\\ \text{pas de }&\text{variables libres}\\ &\downarrow \end{aligned}\\ \text{réduite de $A$ possède $n$ pivots, un dans chaque ligne}