T : R n → R m , lin e ˊ aire. Sa matrice : A ( m × n ) , A = [ a ⃗ 1 ⋯ a ⃗ n ] x ⃗ = ( x 1 ⋮ x n ) ↦ T ( x ⃗ ) = A x ⃗ = x 1 a ⃗ 1 + … + x n a ⃗ n Si A = ( a 11 a 12 ⋯ a 1 n ⋮ ⋮ ⋮ a m 1 a m 2 ⋯ a m n ) , on a a ⃗ k = ( a 1 k ⋮ a j k ⋮ a m k ) Donc ∀ i ∈ { 1 , … , m } ( A x ⃗ ) i = ∑ l = 1 n a i l x l ( i e ˋ m e composante de A x ⃗ ∈ R m ) T:\R^n\rightarrow\R^m\text{, linéaire. Sa matrice : } A(m\times n),\,A=[\vec{a}_1\cdots\vec{a}_n]\\ \vec{x} = \begin{pmatrix}x_1\\\vdots\\x_n\end{pmatrix}\mapsto T(\vec{x})=A\vec{x}=x_1\vec{a}_1+\ldots+x_n\vec{a}_n\\ \text{Si } A= \begin{pmatrix}a_{11}&a_{12}&\cdots&a_{1n}\\ \vdots&\vdots& &\vdots\\a_{m1}&a_{m2}&\cdots&a_{mn}\end{pmatrix} \text{, on a }\vec{a}_k = \begin{pmatrix}a_{1k}\\\vdots\\a_{jk}\\ \vdots\\a_{mk}\end{pmatrix}\\ \text{Donc }\forall i \in \{1,\ldots,m\}\,(A\vec{x})_i = \sum^n_{l=1}a_{il}x_l \text{ ($i^{ème}$ composante de $A\vec{x}\in\R^m$)} T : R n → R m , lin e ˊ aire. Sa matrice : A ( m × n ) , A = [ a 1 ⋯ a n ] x = ⎝ ⎜ ⎜ ⎛ x 1 ⋮ x n ⎠ ⎟ ⎟ ⎞ ↦ T ( x ) = A x = x 1 a 1 + … + x n a n Si A = ⎝ ⎜ ⎜ ⎛ a 1 1 ⋮ a m 1 a 1 2 ⋮ a m 2 ⋯ ⋯ a 1 n ⋮ a m n ⎠ ⎟ ⎟ ⎞ , on a a k = ⎝ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎛ a 1 k ⋮ a j k ⋮ a m k ⎠ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎞ Donc ∀ i ∈ { 1 , … , m } ( A x ) i = l = 1 ∑ n a i l x l ( i e ˋ m e composante de A x ∈ R m )
Si A ( m × n ) , B ( m × n ) , A\,(m\times n),\,B\,(m\times n), A ( m × n ) , B ( m × n ) , alors A + B ( m × n ) A+B\,(m\times n) A + B ( m × n ) est definie ainsi :
A = ( a i j ) i = 1 , … , m j = 1 , … , n B = ( b i j ) i = 1 , … , m , j = 1 , … , n ( A + B ) i j ≔ a i j + b i j A =(a_{ij})_{i = 1,\ldots,m\,j = 1,\ldots,n}\\B = (b_{ij})_{i = 1,\ldots,m,\,j = 1,\ldots,n}\\ (A+B)_{ij}\coloneqq a_{ij}+b_{ij} A = ( a i j ) i = 1 , … , m j = 1 , … , n B = ( b i j ) i = 1 , … , m , j = 1 , … , n ( A + B ) i j : = a i j + b i j
λ A ( m × n ) \lambda A\,(m\times n) λ A ( m × n ) est ( λ A ) i j ≔ λ a i j (\lambda A)_{ij} \coloneqq\lambda a_{ij} ( λ A ) i j : = λ a i j
Image a ˋ mettre p.90 \color{red}\text{Image à mettre p.90} Image a ˋ mettre p.90
S ∘ T : R n ⟶ R k x ⃗ ⟼ ( S ∘ T ) ( x ⃗ ) = S ( T ( x ⃗ ) ) \begin{array}{rlll} S\circ T : &\R^n &\longrightarrow &\R^k\\ & \vec{x}&\longmapsto &(S\circ T)(\vec{x}) = S(T(\vec{x})) \end{array} S ∘ T : R n x ⟶ ⟼ R k ( S ∘ T ) ( x ) = S ( T ( x ) )
Est-ce que S ∘ T S\circ T S ∘ T est linéaire ? Oui, en effet:
∀ x ⃗ , y ⃗ ∈ R n , S ∘ T ) ( x ⃗ + y ⃗ ) = S ( T ( x ⃗ + y ⃗ ) ) ↓ T lin e ˊ aire = S ( T ( x ⃗ ) + T ( y ⃗ ) ) ↓ S lin e ˊ aire = S ( T x ⃗ ) + S ( T ( y ⃗ ) ) = ( S ∘ T ) ( x ⃗ ) + ( S ∘ T ) ( y ⃗ ) ∀ x ⃗ ∈ R n , ∀ λ ∈ R , ( S ∘ T ) ( λ x ⃗ ) = S ( T ( λ x ⃗ ) ) ↓ T lin e ˊ aire = S ( T ( x ⃗ ) + T ( y ⃗ ) ) ↓ S lin e ˊ aire = λ ( S ∘ T ) ( x ⃗ ) \begin{array}{rl} \forall\, \vec{x},\,\vec{y}\in\R^n,\,S\circ T)(\vec{x}+\vec{y}) &= S(T(\vec{x}+\vec{y}))\\ & \big\downarrow T \text{ linéaire}\\ &= S(T(\vec{x})+T(\vec{y}))\\ & \big\downarrow S \text{ linéaire}\\ &= S(T\vec{x})+S(T(\vec{y}))\\ &= (S\circ T)(\vec{x}) + (S\circ T )(\vec{y})\\ & \\ \forall\,\vec{x}\in\R^n,\,\forall \lambda\in\R,\, (S\circ T) (\lambda\vec{x})&=S(T(\lambda\vec{x}))\\ & \big\downarrow T \text{ linéaire}\\ &=S(T(\vec{x})+T(\vec{y}))\\ & \big\downarrow S \text{ linéaire}\\ &=\lambda(S\circ T)(\vec{x}) \end{array} ∀ x , y ∈ R n , S ∘ T ) ( x + y ) ∀ x ∈ R n , ∀ λ ∈ R , ( S ∘ T ) ( λ x ) = S ( T ( x + y ) ) ↓ ⏐ ⏐ T lin e ˊ aire = S ( T ( x ) + T ( y ) ) ↓ ⏐ ⏐ S lin e ˊ aire = S ( T x ) + S ( T ( y ) ) = ( S ∘ T ) ( x ) + ( S ∘ T ) ( y ) = S ( T ( λ x ) ) ↓ ⏐ ⏐ T lin e ˊ aire = S ( T ( x ) + T ( y ) ) ↓ ⏐ ⏐ S lin e ˊ aire = λ ( S ∘ T ) ( x )
Puisque S ∘ T S\circ T S ∘ T est linéaire, quelle est sa matrice (dans la base canonique ?
( S ∘ T ) ( x ⃗ ) = S ( T ( x ⃗ ) ) = S ( A x ⃗ ) = B ( A x ⃗ ) = C x ⃗ \begin{aligned} (S\circ T)(\vec{x}) = S(T(\vec{x}))&= S(A\vec{x})\\ & = B(A\vec{x})\\ & = C\vec{x} \end{aligned} ( S ∘ T ) ( x ) = S ( T ( x ) ) = S ( A x ) = B ( A x ) = C x
C C C sera la matrice associée à S ∘ T S\circ T S ∘ T , coment la calucler à l'aide de A A A et B B B ?
∀ j = 1 , … , k , ( B ( A x ⃗ ⏟ z ⃗ ) ) j = ( B z ⃗ ) j = ∑ i = 1 m b j i z i = ∑ i = 1 m b j i ( A x ⃗ ) i = ∑ i = 1 m b j i ( ∑ l = 1 m a i l x l ) = ∑ l = 1 n ( ∑ i = 1 m b j i a i l ⏟ ≕ c j l ) x l = ? ( C x ⃗ ) j , o u ˋ C = ( c j l ) j = 1 , … , k , l = 1 , … , n \begin{aligned} \forall\,j=1,\ldots,k,\,(B(\underbrace{A\vec{x}}_{\vec{z}}))_j &=(B\vec{z})_j=\sum^m_{i=1}b_{ji}z_i\\ &=\sum^m_{i=1}b_{ji}(A\vec{x})_i\\ &=\sum^m_{i=1}b_{ji}(\sum^{m}_{l=1}a_{il}x_l)\\ &=\sum^n_{l=1}(\underbrace{\sum^m_{i=1}b_{ji}a_{il}}_{\eqqcolon c_{jl}})x_l\\ &\stackrel{?}{=}(C\vec{x})_j\text{, où }C=(c_{jl})_{j=1,\ldots,k ,\,l=1,\ldots,n} \end{aligned} ∀ j = 1 , … , k , ( B ( z A x ) ) j = ( B z ) j = i = 1 ∑ m b j i z i = i = 1 ∑ m b j i ( A x ) i = i = 1 ∑ m b j i ( l = 1 ∑ m a i l x l ) = l = 1 ∑ n ( = : c j l i = 1 ∑ m b j i a i l ) x l = ? ( C x ) j , o u ˋ C = ( c j l ) j = 1 , … , k , l = 1 , … , n
Graphiquement : c i j c_{ij} c i j se calcule comme suit :
Image a ˋ mettre p.91 \color{red}\text{Image à mettre p.91} Image a ˋ mettre p.91
c j l = ∑ i = 1 m b j i a i l \boxed{c_{jl}=\sum_{i=1}^mb_{ji}a_{il}} c j l = i = 1 ∑ m b j i a i l
Définition : La matrice C = ( c j l ) C= (c_{jl}) C = ( c j l ) est le produit de B par A : on la noteC = B A \boxed{C=BA} C = B A
B A C ( 3 2 0 − 1 0 1 ) ( 1 2 3 4 1 0 ) = ( 9 14 0 − 2 ) 2 × 3 3 × 2 2 × 2 \begin{array}{cccc} B&A& &C\\ \begin{pmatrix}3&2&0\\-1&0&1\end{pmatrix} &\begin{pmatrix}1&2\\3&4\\1&0\end{pmatrix}&= &\begin{pmatrix}9&14\\0&-2\end{pmatrix}\\ \color{red}2\times3&\color{red}3\times2&&\color{red}2\times 2 \end{array} B ( 3 − 1 2 0 0 1 ) 2 × 3 A ⎝ ⎜ ⎛ 1 3 1 2 4 0 ⎠ ⎟ ⎞ 3 × 2 = C ( 9 0 1 4 − 2 ) 2 × 2
Remarque : on ne peut multiplier que des matrces qui ont les bonnes dimensions ?
B A ↑ ↑ k × m m × n \begin{array}{cc} B&A\\ \uparrow&\uparrow\\ k\times m & m\times n \end{array} B ↑ k × m A ↑ m × n
A ( B C ) = ( A B ) C A(BC) = (AB)C A ( B C ) = ( A B ) C
A ( B + C ) = A B + A C A(B+C)=AB+AC A ( B + C ) = A B + A C
( A + B ) C = A C + B C (A+B)C=AC+BC ( A + B ) C = A C + B C
A ( λ B ) = ( λ A ) B = λ ( A B ) A(\lambda B)=(\lambda A)B =\lambda (AB) A ( λ B ) = ( λ A ) B = λ ( A B )
A B ≠ B A en g e ˊ n e ˊ ral! \color{red}AB\not=BA\text{ en général!} A B = B A en g e ˊ n e ˊ ral!
Par exemple:
A = ( 1 0 0 − 1 ) , B = ( 0 − 1 1 0 ) A B = ( 1 0 0 − 1 ) ( 0 − 1 1 0 ) = ( 0 − 1 − 1 0 ) B A = ( 0 − 1 1 0 ) ( 1 0 0 − 1 ) = ( 0 1 1 0 ) } A B ≠ B A A=\begin{pmatrix}1&0\\0&-1\end{pmatrix},\, B=\begin{pmatrix}0&-1\\1&0\end{pmatrix}\\ \left.\begin{array}{lll}AB =\begin{pmatrix}1&0\\0&-1\end{pmatrix} \begin{pmatrix}0&-1\\1&0\end{pmatrix} = \begin{pmatrix}0&-1\\-1&0\end{pmatrix}\\ BA = \begin{pmatrix}0&-1\\1&0\end{pmatrix} \begin{pmatrix}1&0\\0&-1\end{pmatrix} = \begin{pmatrix}0&1\\1&0\end{pmatrix}\end{array}\right\}AB\not=BA A = ( 1 0 0 − 1 ) , B = ( 0 1 − 1 0 ) A B = ( 1 0 0 − 1 ) ( 0 1 − 1 0 ) = ( 0 − 1 − 1 0 ) B A = ( 0 1 − 1 0 ) ( 1 0 0 − 1 ) = ( 0 1 1 0 ) ⎭ ⎪ ⎪ ⎪ ⎬ ⎪ ⎪ ⎪ ⎫ A B = B A
Si A B = B A AB=BA A B = B A , on dit que A A A et B B B commutent .
Si A ( m × n ) A\,(m\times n) A ( m × n ) , sa transposée est une matrice n × m n\times m n × m , notée A ⊺ A^\intercal A ⊺ , définie ainsi :
( A ⊺ ) i j ≔ A j i Les colonnes de A ⊺ sont les lignes de A . Les lignes de A ⊺ sont les colonnes A . (A^\intercal)_{ij}\coloneqq A_{ji}\\ \color{red}\text{Les colonnes de }A^\intercal\text{ sont les lignes de }A.\\ \color{red}\text{Les lignes de }A^\intercal\text{ sont les colonnes }A. ( A ⊺ ) i j : = A j i Les colonnes de A ⊺ sont les lignes de A . Les lignes de A ⊺ sont les colonnes A .
Exemple :
A = ( 1 2 3 4 5 6 ) ⟶ A ⊺ = ( 1 3 5 2 4 6 ) ( A ) 31 = 5 ⟶ ( A ⊺ ) 13 = 5 A = \begin{pmatrix}1&2\\3&4\\\textcolor{red}{5}&6\end{pmatrix} \longrightarrow A^\intercal = \begin{pmatrix}1&3&\textcolor{red}{5}\\ 2&4&6\end{pmatrix}\\ \text{} \\ \textcolor{red}{(A)_{31}=5}\longrightarrow\textcolor{red} {(A^\intercal)_{13}=5} A = ⎝ ⎜ ⎛ 1 3 5 2 4 6 ⎠ ⎟ ⎞ ⟶ A ⊺ = ( 1 2 3 4 5 6 ) ( A ) 3 1 = 5 ⟶ ( A ⊺ ) 1 3 = 5
( A ⊺ ) ⊺ = A (A^\intercal)^\intercal=A ( A ⊺ ) ⊺ = A
( A + B ) ⊺ = A ⊺ + B ⊺ (A+B)^\intercal = A^\intercal+B^\intercal ( A + B ) ⊺ = A ⊺ + B ⊺
( λ A ) ⊺ = λ ( A ⊺ ) (\lambda A)^\intercal = \lambda(A^\intercal) ( λ A ) ⊺ = λ ( A ⊺ )
( A B ) ⊺ = B ⊺ A ⊺ (AB)^\intercal=B^\intercal A^\intercal ( A B ) ⊺ = B ⊺ A ⊺
En effet, si A ( m × n ) et B ( n × l ) , ( ( A B ) ⊺ ) i j = d e ˊ f . ( A B ) j i = ∑ k = 1 n A j k B k i = ∑ k = 1 n ( A ⊺ ) k j ( B ⊺ ) i k = ∑ k = 1 n ( B ⊺ ) i k ( A ⊺ ) k j = ( B ⊺ A ⊺ ) i j \text{En effet, si }A\,(m\times n)\text{ et }B\,(n\times l),\\ \begin{array}{rl} ((AB)^\intercal)_{ij}& \stackrel{déf.}{=}(AB)_{ji} = \sum_{k=1}^{n} A_{jk}B_{ki}\\ &=\sum_{k=1}^{n}(A^\intercal)_{kj}(B^\intercal)_{ik}\\ &=\sum_{k=1}^{n}(B^\intercal)_{ik}(A^\intercal)_{kj}= (B^\intercal A^\intercal)_{ij} \end{array} En effet, si A ( m × n ) et B ( n × l ) , ( ( A B ) ⊺ ) i j = d e ˊ f . ( A B ) j i = ∑ k = 1 n A j k B k i = ∑ k = 1 n ( A ⊺ ) k j ( B ⊺ ) i k = ∑ k = 1 n ( B ⊺ ) i k ( A ⊺ ) k j = ( B ⊺ A ⊺ ) i j
Soit T : R n → R m T: \R^n \rightarrow\R^m T : R n → R m , linéaire, bijective (c'est-à-dire injective et surjective).
⟹ ∃ \implies \exists ⟹ ∃ une application réciproque , notée
T − 1 : R m ⟶ R n , telle que T − 1 ( T ( x ⃗ ) ) = x ⃗ ∀ x ⃗ ∈ R n T ( T − 1 ( y ⃗ ) ) = y ⃗ ∀ y ⃗ ∈ R m ( ∗ ) T \begin{array}{rl} & \,\, T^{-1}: \R^m\longrightarrow\R^n,\text{telle que }\\ &\boxed{\begin{aligned}T^{-1}(T(\vec{x}))=\vec{x}\quad \forall\vec{x}\in\R^n\\ T(T^{-1}(\vec{y}))=\vec{y}\quad \forall\vec{y}\in\R^m\end{aligned}}\,(*)_T \end{array} T − 1 : R m ⟶ R n , telle que T − 1 ( T ( x ) ) = x ∀ x ∈ R n T ( T − 1 ( y ) ) = y ∀ y ∈ R m ( ∗ ) T
T − 1 : R m ⟶ R n T^{-1}:\R^m\longrightarrow\R^n T − 1 : R m ⟶ R n est aussi linéaire !
Si T:\R^n\longrightarrow\R^m $ est linaire et bijective, alors $n=m .
Soit A ( m × n ) A\,(m\times n) A ( m × n ) la matrice qui représente T T T : T ( x ⃗ ) = A x ⃗ . T(\vec{x})=A\vec{x}. T ( x ) = A x .
T T T est injective ⟺ \iff ⟺ les colonnes de A A A sont linéairement indépendantes donc n ⩽ m \textbf{n}\leqslant\textbf{m} n ⩽ m .
T T T est surjective ⟺ \iff ⟺ les colonnes de A A A engendrent R m \R^m R m , donc n ⩾ m \textbf{n}\geqslant\textbf{m} n ⩾ m .
⟹ n = m . □ \implies n=m. \quad \square ⟹ n = m . □
Donc pour étudier les applications linéaires et bijectives, on va considérer
T : R n ⟶ R n sa matrice A sera carr e ˊ e : n × n T:\textcolor{orange}{\R^n}\longrightarrow\textcolor{blue}{\R^n}\qquad \text{sa matrice A sera} \textbf{ carrée}:n\times n T : R n ⟶ R n sa matrice A sera carr e ˊ e : n × n
Donc, T − 1 : R n ⟶ R n T^{-1} : \textcolor{blue}{\R^n} \longrightarrow\textcolor{orange}{\R^n} T − 1 : R n ⟶ R n est linéaire (lemme 1)
⟹ \implies ⟹ elle peut être représentée à l'aide d'une matrice, que l'on note "A − 1 A^{-1} A − 1 " :
T − 1 ( x ⃗ ) = A − 1 x ⃗ T^{-1}(\vec{x}) = A^{-1}\vec{x} T − 1 ( x ) = A − 1 x
A − 1 A^{-1} A − 1 est une n × n n\times n n × n appelée l'inverse de A A A . Elle est caractérosée par
( ∗ ) T ⟺ ( ∗ ) A : A − 1 ( A x ⃗ ) = x ⃗ ∀ x ⃗ ∈ R n A ( A − 1 y ⃗ ) = y ⃗ ∀ y ⃗ ∈ R n (*)_T \iff (*)_A : \boxed{\begin{aligned}A^{-1}(A\vec{x})=\vec{x} \quad \forall\,\vec{x}\in\R^n\\A(A^{-1}\vec{y})=\vec{y}\quad\forall \,\vec{y}\in\R^n\end{aligned}} ( ∗ ) T ⟺ ( ∗ ) A : A − 1 ( A x ) = x ∀ x ∈ R n A ( A − 1 y ) = y ∀ y ∈ R n
La matrice identité de dimension n n n est la matrice :
I n = ( 1 1 0 ⋱ 0 ⋱ 1 ) I_n=\begin{pmatrix} 1&&&&\\&1&&\text{\huge0}&\\&&\ddots&&\\ &\text{\huge0}&&\ddots&\\&&&&1\end{pmatrix} I n = ⎝ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎛ 1 1 0 ⋱ 0 ⋱ 1 ⎠ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎞
I n x ⃗ = x ⃗ ∀ x ⃗ ∈ R n I_n\vec{x}=\vec{x}\quad\forall\vec{x}\in\R^n I n x = x ∀ x ∈ R n
A I n = I n A = A ∀ matrices A ( n × n ) AI_n=I_nA=A \quad\forall\text{ matrices }A\,(n\times n ) A I n = I n A = A ∀ matrices A ( n × n )
Donc ( ∗ ) A (*)_A ( ∗ ) A devient : A − 1 A = I n A A − 1 = I n ( ∗ ) \boxed{\begin{aligned}A^{-1}A=I_n\\AA^{-1}=I_n\end{aligned}}\quad(*) A − 1 A = I n A A − 1 = I n ( ∗ )
Image a ˋ mettre p.97 \color{red}\text{Image à mettre p.97} Image a ˋ mettre p.97
Donc, on cherche, pour une T ( x ⃗ ) = A x ⃗ T(\vec{x})=A\vec{x} T ( x ) = A x bijective, la matrice A − 1 A^{-1} A − 1 , à l'aide de ( ∗ ) (*) ( ∗ ) , telle que T − 1 ( y ⃗ ) = A − 1 y ⃗ T^{-1}(\vec{y})=A^{-1}\vec{y} T − 1 ( y ) = A − 1 y .
A priori, trouver A − 1 ( n × n ) A^{-1}\,(n\times n) A − 1 ( n × n ) est un problème à n 2 n^2 n 2 inconnues !!
Pour une matrice A ( n × n ) A\,(n\times n) A ( n × n ) donnée, si une A − 1 ( n × n ) A^{-1}\,(n\times n) A − 1 ( n × n ) existe ( ( ( satisfaisant ( ∗ ) ) (*)) ( ∗ ) ) , A A A est dite inversible , et A − 1 A^{-1} A − 1 est son inverse . Sinon, A A A est singulière .
∙ Par exemple, la matrice nulle A = ( 0 ) ← n × n est singuli e ˋ re. ∙ Par exemple A = ( 1 2 3 4 ) est inversible. En effet, si A − 1 = ( − 2 1 3 2 − 1 2 ) on v e ˊ rifie que : A A − 1 = ( 1 0 0 1 ) = I 2 , et A − 1 A = ( 1 0 0 1 ) = I 2 \begin{array}{ll} \bullet&\text{Par exemple, la matrice nulle } A= \Big(\,0\,\Big)\leftarrow n\times n \text{ est singulière.}\\ \bullet&\text{Par exemple } A=\begin{pmatrix}1&2\\3&4 \end{pmatrix}\text{ est inversible.}\\ &\text{ En effet, si }A^{-1} =\begin{pmatrix} -2&1\\\frac{3}{2} &-\frac{1}{2}\end{pmatrix}\text{ on vérifie que : }\\ & AA^{-1}=\begin{pmatrix}1&0\\0&1\end{pmatrix}=I_2\text{, et}\\ & A^{-1}A =\begin{pmatrix}1&0\\0&1\end{pmatrix}=I_2 \end{array} ∙ ∙ Par exemple, la matrice nulle A = ( 0 ) ← n × n est singuli e ˋ re. Par exemple A = ( 1 3 2 4 ) est inversible. En effet, si A − 1 = ( − 2 2 3 1 − 2 1 ) on v e ˊ rifie que : A A − 1 = ( 1 0 0 1 ) = I 2 , et A − 1 A = ( 1 0 0 1 ) = I 2
Si A A A est inversible, son inverse est unique.
Supposons que A B = I n et B A = I n , et que A C = I n et C A = I n Alors B = B I n = B ( A C ) = ( B A ) C = I n C = C □ \begin{array}{ll}\text{Supposons que }AB = I_n\text{ et }BA=I_n\text{, et que }AC=I_n\text{ et }CA=I_n&\\\text{Alors }B=BI_n=B(AC)=(BA)C=I_nC=C&\\&\square\end{array} Supposons que A B = I n et B A = I n , et que A C = I n et C A = I n Alors B = B I n = B ( A C ) = ( B A ) C = I n C = C □
Si A A A est inversible, alors A − 1 A^{-1} A − 1 est aussi inversible, et
( A − 1 ) − 1 = A (A^{-1})^{-1}=A ( A − 1 ) − 1 = A
Si A ( n × n ) A\,(n\times n) A ( n × n ) et B ( n × n ) B\,(n\times n) B ( n × n ) sont inversibles, alors A B AB A B est aussi inversible et
( A B ) − 1 = B − 1 A − 1 (AB)^{-1} = B^{-1}A^{-1} ( A B ) − 1 = B − 1 A − 1
(En effet : ( B − 1 A − 1 ) ( A B ) = B − 1 ( A − 1 A ⏞ I n ) B = B − 1 B = I n , et ( A B ) ( B − 1 A − 1 ) = A ( B − 1 B ⏞ I n ) A − 1 = A A − 1 = I n ) \text{(En effet : }(B^{-1}A^{-1})(AB)=B^{-1}(\overbrace{A^{-1}A}^{I_n})B=B^{-1}B=I_n,\\\text{et }(AB)(B^{-1}A^{-1})=A(\overbrace{B^{-1}B}^{I_n})A^{-1}=AA^{-1} =I_n) (En effet : ( B − 1 A − 1 ) ( A B ) = B − 1 ( A − 1 A I n ) B = B − 1 B = I n , et ( A B ) ( B − 1 A − 1 ) = A ( B − 1 B I n ) A − 1 = A A − 1 = I n )
Si A ( n × n ) A\,(n\times n) A ( n × n ) et B ( n × n ) B\,(n\times n) B ( n × n ) sont inversibles, alors A + B A+B A + B n'est en général pas inversible. (Par exemple : A = I n A=I_n A = I n , B = − I n B=-I_n B = − I n sont inversibles, mais A + B = ( 0 ) A+B=\Big(\,0\,\Big) A + B = ( 0 ) est singulière.)
Si A ( n × n ) A\,(n\times n) A ( n × n ) est inversible et λ ∈ R \lambda\in\R λ ∈ R , λ ≠ 0 \lambda\not=0 λ = 0 , alors λ A \lambda A λ A est inversible et
( λ A ) − 1 = 1 λ A − 1 (\lambda A)^{-1}=\frac{1}{\lambda}A^{-1} ( λ A ) − 1 = λ 1 A − 1
Si A ( n × n ) A\,(n\times n) A ( n × n ) est inversible, alors A ⊺ A^\intercal A ⊺ est aussi inversible, et
( A ⊺ ) − 1 = ( A − 1 ) ⊺ (A^\intercal)^{-1} = (A^{-1})^\intercal ( A ⊺ ) − 1 = ( A − 1 ) ⊺
Soit A = ( a b c d ) \text{Soit }A=\begin{pmatrix}a&b\\c&d\end{pmatrix} Soit A = ( a c b d )
Comment savoir si A A A est inversible ?
Si A A A est inversible, comment calculer A − 1 A^{-1} A − 1 ?
Pour répondre à 1 :
On a équivalence entre
a) A A A est inversible
b) ( a c ) et ( b d ) sont lin e ˊ aires ind e ˊ pendants. \text{b)}\begin{pmatrix}a\\c\end{pmatrix} \text{et} \begin{pmatrix}b\\d\end{pmatrix}\text{sont linéaires indépendants.} b) ( a c ) et ( b d ) sont lin e ˊ aires ind e ˊ pendants.
c) a d − b c ≠ 0 ad-bc\not=0 a d − b c = 0
a) ⟺ b) : OK, puisque on sait que T ( x ⃗ ) = A x ⃗ est bijective si et seulement si les colonnes de A sont lin e ˊ airement ind e ˊ pendantes (injective) et engendrent R 2 (surjective). b) ⟹ c) : Supposons que ( a c ) et ( b d ) soient lin e ˊ airement ind e ˊ pendants (en particulier, ces deux vecteurs ne sont pas ( 0 0 ) ), et que a d − b c = 0 . Sans perte de g e ˊ n e ˊ ralit e ˊ , supposons que a ≠ 0. On a donc d = b c a et ( b d ) = ( b b c a ) = b a ( a c ) , une contradiction. c) ⟹ a) : Si a d − b c ≠ 0 , supposons que ( a c ) et ( b d ) sont colin e ˊ aires : ∃ λ ∈ R tel que ( a c ) = λ ( b d ) → a = λ b ⋅ d − c = λ d ⋅ b ‾ a d − b c = λ b d − λ d b = 0 , une contradiction. □ \begin{aligned} \text{a)$\iff$b) :}&\text{ OK, puisque on sait que }T(\vec{x})=A \vec{x}\text{ est bijective si et seulement}\\ &\text{ si les colonnes de $A$ sont linéairement indépendantes (injective)}\\ &\text{ et engendrent $\R^2$ (surjective).}\\ \text{b)$\implies$ c) :}&\text{ Supposons que }\begin{pmatrix} a\\c\end{pmatrix}\text{ et }\begin{pmatrix}b\\d\end{pmatrix} \text{ soient linéairement indépendants}\\ &\text{ (en particulier, ces deux vecteurs ne sont pas }\begin{pmatrix}0\\0\end{pmatrix} \text{), et que }\\ &\,ad-bc=0\text{. Sans perte de généralité, supposons que } a\not=0.\\ &\text{ On a donc }d=\frac{bc}{a}\text{ et}\begin{pmatrix} b\\d\end{pmatrix}=\begin{pmatrix}b\\ \frac{bc}{a}\end{pmatrix}= \frac{b}{a}\begin{pmatrix}a\\c\end{pmatrix},\text{une contradiction.}\\ \text{c)$\implies$ a) :}&\text{ Si $ad-bc\not=0$, supposons que} \begin{pmatrix}a\\c\end{pmatrix}\text{ et}\begin{pmatrix}b\\d \end{pmatrix}\text{sont colinéaires :}\\ &\begin{aligned}\exists\lambda\in\R\text{ tel que}\begin{pmatrix}a\\c \end{pmatrix}=\lambda\begin{pmatrix}b\\d\end{pmatrix}\rightarrow& \underline{\begin{array}{rr|l}&a=\lambda b&\cdot\, d\\ -&c=\lambda d&\cdot\, b\end{array}}\\ & ad-bc=\lambda bd-\lambda db = 0,\\ &\text{une contradiction. } \\& &\square \end{aligned} \end{aligned} a) ⟺ b) : b) ⟹ c) : c) ⟹ a) : OK, puisque on sait que T ( x ) = A x est bijective si et seulement si les colonnes de A sont lin e ˊ airement ind e ˊ pendantes (injective) et engendrent R 2 (surjective). Supposons que ( a c ) et ( b d ) soient lin e ˊ airement ind e ˊ pendants (en particulier, ces deux vecteurs ne sont pas ( 0 0 ) ), et que a d − b c = 0 . Sans perte de g e ˊ n e ˊ ralit e ˊ , supposons que a = 0 . On a donc d = a b c et ( b d ) = ( b a b c ) = a b ( a c ) , une contradiction. Si a d − b c = 0, supposons que ( a c ) et ( b d ) sont colin e ˊ aires : ∃ λ ∈ R tel que ( a c ) = λ ( b d ) → − a = λ b c = λ d ⋅ d ⋅ b a d − b c = λ b d − λ d b = 0 , une contradiction. □
Si A = ( a b c d ) , d e t ( A ) ≔ a d − b c est le d e ˊ termient de A . \text{Si }A = \begin{pmatrix}a&b\\c&d\end{pmatrix}, \mathrm{det}(A)\coloneqq ad-bc \text{ est le }\textbf{détermient }\text{de }A. Si A = ( a c b d ) , d e t ( A ) : = a d − b c est le d e ˊ termient de A .
L'équivalence 1)$\iff$3) peut s'exprimer ainsi :
A ( 2 × 2 ) A\,(2\times 2) A ( 2 × 2 ) est inversible ⟺ \iff ⟺ d e t ( A ) ≠ 0 \mathrm{det}(A)\not=0 d e t ( A ) = 0
Si A = ( a b c d ) est telle que d e t ( A ) = a d − b c ≠ 0 , calculons son inverse: \text{Si }A =\begin{pmatrix}a&b\\c&d\end{pmatrix}\text{est telle que }\mathrm{det}(A) = ad-bc\not=0\text{, calculons son inverse:} Si A = ( a c b d ) est telle que d e t ( A ) = a d − b c = 0 , calculons son inverse:
Posons : A − 1 = ( α β γ δ ) On veut : A A − 1 = I 2 = ( 1 0 0 1 ) A − 1 A = I 2 Syst e ˋ me de n 2 = 4 inconnues : α , β , γ , δ { a α + b γ = 1 ( 1 ) a β + b δ = 0 ( 2 ) c α + d γ = 0 ( 3 ) c β + d δ = 1 ( 4 ) ( 1 ) et ( 3 ) ⟹ ( a d − b c ⏞ ≠ 0 ) α = d ( 2 ) et ( 4 ) ⟹ ( a d − b c ⏞ ≠ 0 ) β = − b ⟹ A − 1 = ( d a d − b c − b a d − b c − c a d − b c a a d − b c ) = 1 d e t ( A ) ( d − b − c a ) \begin{aligned} \text{Posons : }&A^{-1} =\begin{pmatrix}\alpha & \beta \\ \gamma & \delta \end{pmatrix}\\ \text{On veut : }&AA^{-1}=I_2=\begin{pmatrix}1&0\\0&1\end{pmatrix}\\ & A^{-1}A=I_2\\ \begin{array}{l} \color{red}\text{Système de }\\ \color{red}\text{$n^2 = 4$ inconnues :}\\ \color{red}\text{$\alpha,\beta,\gamma,\delta$} \end{array}&\left\{\begin{array}{llllll} a\alpha& &+b\gamma& &=1&(1)\\ &a\beta& &+b\delta&=0&(2)\\ c\alpha& &+d\gamma& &=0&(3)\\ &c\beta& &+d\delta&=1&(4) \end{array}\right. \end{aligned}\\ (1)\text{ et } (3) \implies (\overbrace{ad-bc}^{\not=0})\alpha = d \qquad(2)\text{ et } (4) \implies (\overbrace{ad-bc}^{\not=0})\beta = -b \\ \text{} \\ \implies\boxed{A^{-1}=\begin{pmatrix}\frac{d}{ad-bc} &\frac{-b}{ad-bc}\\ \frac{-c}{ad-bc}&\frac{a}{ad-bc}\end{pmatrix}= \frac{1}{\mathrm{det}(A)}\begin{pmatrix}d&-b\\-c&a\end{pmatrix}} Posons : On veut : Syst e ˋ me de n 2 = 4 inconnues : α , β , γ , δ A − 1 = ( α γ β δ ) A A − 1 = I 2 = ( 1 0 0 1 ) A − 1 A = I 2 ⎩ ⎪ ⎪ ⎪ ⎨ ⎪ ⎪ ⎪ ⎧ a α c α a β c β + b γ + d γ + b δ + d δ = 1 = 0 = 0 = 1 ( 1 ) ( 2 ) ( 3 ) ( 4 ) ( 1 ) et ( 3 ) ⟹ ( a d − b c = 0 ) α = d ( 2 ) et ( 4 ) ⟹ ( a d − b c = 0 ) β = − b ⟹ A − 1 = ( a d − b c d a d − b c − c a d − b c − b a d − b c a ) = d e t ( A ) 1 ( d − c − b a )
A = ( 1 2 3 4 ) → d e t ( A ) = − 2 ≠ 0 → A inversible, et A − 1 = 1 − 2 ( 4 − 2 − 3 1 ) = ( − 2 1 3 2 − 1 2 ) A=\begin{pmatrix}1&2\\3&4\end{pmatrix}\rightarrow\mathrm{det}(A)=-2 \not=0\rightarrow A\text{ inversible, }\\ \text{et } A^{-1}=\frac{1}{-2}\begin{pmatrix}4&-2\\-3&1\end{pmatrix} =\begin{pmatrix}-2&1\\\frac{3}{2}&-\frac{1}{2}\end{pmatrix} A = ( 1 3 2 4 ) → d e t ( A ) = − 2 = 0 → A inversible, et A − 1 = − 2 1 ( 4 − 3 − 2 1 ) = ( − 2 2 3 1 − 2 1 )
Réflexion par O x Ox O x
T T T est injective et surjective, donc bijective. Sa réciprique est T − 1 = T T^{-1}=T T − 1 = T
Par rapport à la base canonique :
A = ( 1 0 0 − 1 ) → d e t ( A ) = − 1 ≠ 0 , et A − 1 = 1 − 1 ( − 1 0 0 1 ) = … = A \begin{aligned} &A=\begin{pmatrix}1&0\\0&-1\end{pmatrix}\rightarrow\mathrm{det}(A)=-1\not=0 \text{, et}\\ &A^{-1}=\frac{1}{-1}\begin{pmatrix}-1&0\\0&1 \end{pmatrix}=\ldots=A \end{aligned} A = ( 1 0 0 − 1 ) → d e t ( A ) = − 1 = 0 , et A − 1 = − 1 1 ( − 1 0 0 1 ) = … = A
Image a ˋ mettre p.102 \color{red}\text{Image à mettre p.102} Image a ˋ mettre p.102
Projection sur O y Oy O y
T T T n'est ni injective, ni surjective, donc par bijective. → T − 1 \rightarrow T^{-1} → T − 1 n'existe pas.
V e ˊ rification : A = ( 0 0 0 1 ) → d e t ( A ) = 0 \text{Vérification :} A=\begin{pmatrix}0&0\\0&1\end{pmatrix}\rightarrow\mathrm{det}(A)=0 V e ˊ rification : A = ( 0 0 0 1 ) → d e t ( A ) = 0
Image a ˋ mettre p.102 \color{red}\text{Image à mettre p.102} Image a ˋ mettre p.102
Soit ( ∗ ) (*) ( ∗ ) un système carré ( n × n ) (n\times n ) ( n × n ) : A ( n × n ) , x ⃗ ∈ R n , b ⃗ ∈ R n A\,(n\times n),\,\vec{x}\in\R^{n},\,\vec{b}\in\R^n A ( n × n ) , x ∈ R n , b ∈ R n
A x ⃗ = b ⃗ A\vec{x}=\vec{b} A x = b
Si A A A est inversible , A − 1 A^{-1} A − 1 existe, et ( ∗ ) (*) ( ∗ ) est équivalent à
A − 1 ( A x ⃗ ) = A − 1 b ⃗ x ⃗ = A − 1 b ⃗ \begin{aligned} A^{-1}(A\vec{x})&=A^{-1}\vec{b}\\ \vec{x}&=A^{-1}\vec{b} \end{aligned} A − 1 ( A x ) x = A − 1 b = A − 1 b
→ \rightarrow → en particulier, la solution de ( ∗ ) (*) ( ∗ ) est unique, et est donnée par x ⃗ = A − 1 b ⃗ \vec{x}=A^{-1}\vec{b} x = A − 1 b
( ∗ ) ( 5 − 3 1 4 ) ( x 1 x 2 ) = ( 13 − 2 ) A x ⃗ b ⃗ d e t ≠ 0 → A inversible : A − 1 = 1 23 ( 4 3 − 1 5 ) → x ⃗ = A − 1 b ⃗ = ( 2 − 1 ) (solution unique) \begin{array}{rcccc} (*)&\begin{pmatrix}5&-3\\1&4\end{pmatrix}&\begin{pmatrix} x_1\\x_2\end{pmatrix}&=&\begin{pmatrix}13\\-2\end{pmatrix}\\ &A&\vec{x}&&\vec{b} \end{array}\\ \begin{aligned} \mathrm{det}\not=0&\rightarrow A \text{ inversible : }A^{-1} =\frac{1}{23}\begin{pmatrix}4&3\\-1&5\end{pmatrix}\\ &\rightarrow \vec{x} =A^{-1}\vec{b}=\begin{pmatrix}2\\-1\end{pmatrix} \text{(solution unique)} \end{aligned} ( ∗ ) ( 5 1 − 3 4 ) A ( x 1 x 2 ) x = ( 1 3 − 2 ) b d e t = 0 → A inversible : A − 1 = 2 3 1 ( 4 − 1 3 5 ) → x = A − 1 b = ( 2 − 1 ) (solution unique)
Remarque : avant de se lancer dans le calcul de A − 1 A^{-1} A − 1 , vérifier qu'elle soit effectivement inversible !
Exemple : A = ( 1 8 2 − 11 1 7 4 13 1 9 2 26 0 11 0 − 2 ) A = \begin{pmatrix}1&8&2&-11\\1&7&4&13\\1&9&2&26\\0&11&0&-2\end{pmatrix} A = ⎝ ⎜ ⎜ ⎜ ⎛ 1 1 1 0 8 7 9 1 1 2 4 2 0 − 1 1 1 3 2 6 − 2 ⎠ ⎟ ⎟ ⎟ ⎞
Comme a ⃗ 3 = 2 a ⃗ 1 , A \vec{a}_3=2\vec{a}_1,\, A a 3 = 2 a 1 , A n'est pas inversible.
Soit A ( n × n ) A\,(n\times n) A ( n × n ) , nous cherchons donc nue matrice A − 1 ( n × n ) A^{-1}\, (n\times n) A − 1 ( n × n ) , telle que
A A − 1 = I n A − 1 A = I n AA^{-1} = I_n\\ A^{-1}A=I_n A A − 1 = I n A − 1 A = I n
Ecrivons A − 1 = [ c ⃗ 1 ⋯ c ⃗ n ] c ⃗ i ∈ R n A^{-1} =[\vec{c}_1\cdots\vec{c}_n]\quad\vec{c}_i\in\R^n A − 1 = [ c 1 ⋯ c n ] c i ∈ R n
Comme A A − 1 = [ A c ⃗ 1 A c ⃗ 2 ⋯ A c ⃗ n ] = [ e ⃗ 1 e ⃗ 2 ⋯ e ⃗ n ] AA^{-1}=[A\vec{c}_1\,A\vec{c}_2\cdots A\vec{c}_n] =[\vec{e}_1\,\vec{e}_2\cdots \vec{e}_n] A A − 1 = [ A c 1 A c 2 ⋯ A c n ] = [ e 1 e 2 ⋯ e n ] car A A − 1 = I n AA^{-1}=I_n A A − 1 = I n
⟹ A c ⃗ i = e ⃗ i i = 1 , … , n ← n \implies\boxed{A\vec{c}_i=\vec{e}_i\quad i=1,\ldots,n}\leftarrow n ⟹ A c i = e i i = 1 , … , n ← n systèmes linéaire, chacun à $ n$ inconnues (les n n n composantes de c ⃗ i \vec{c}_i c i )
Idée : résoudre ces n n n systèmes "en une seule fois".
Une matrice n × n n\times n n × n est élémentaire si elle s'obtient à partir de I n I_n I n à l'aide d'une seule opératoin élémentaire (de Type I, II ou III)
E 1 = ( 1 0 0 0 0 1 0 1 0 ) est e ˊ l e ˊ mentaire (c’est I 3 , sur laquelle on a fait L 2 ↔ L 3 ) E 2 = ( 1 0 0 0 − 2 0 0 0 1 ) est e ˊ l e ˊ mentaire (c’est I 3 , sur laquelle on a fait L 2 ← − 2 L 2 ) ( 1 2 3 0 1 0 0 0 1 ) n’est pas e ˊ l e ˊ mentaire \begin{array}{rll} E_1&=\begin{pmatrix}1&0&0\\0&0&1\\0&1&0\end{pmatrix}& \text{est élémentaire (c'est $I_3$, sur}\\ &&\text{laquelle on a fait $L_2\leftrightarrow L_3$)}\\ E_2&=\begin{pmatrix}1&0&0\\0&-2&0\\0&0&1\end{pmatrix}& \text{est élémentaire (c'est $I_3$, sur}\\ &&\text{laquelle on a fait $L_2\leftarrow-2L_2$)}\\ &\quad\begin{pmatrix}1&2&3\\0&1&0\\0&0&1\end{pmatrix}& \text{n'est pas élémentaire} \end{array} E 1 E 2 = ⎝ ⎜ ⎛ 1 0 0 0 0 1 0 1 0 ⎠ ⎟ ⎞ = ⎝ ⎜ ⎛ 1 0 0 0 − 2 0 0 0 1 ⎠ ⎟ ⎞ ⎝ ⎜ ⎛ 1 0 0 2 1 0 3 0 1 ⎠ ⎟ ⎞ est e ˊ l e ˊ mentaire (c’est I 3 , sur laquelle on a fait L 2 ↔ L 3 ) est e ˊ l e ˊ mentaire (c’est I 3 , sur laquelle on a fait L 2 ← −2 L 2 ) n’est pas e ˊ l e ˊ mentaire
Remarque :
Toute matrice élémentaire est inversible. (Par exemple : E 1 − 1 = E 1 E_1^{-1}=E_1 E 1 − 1 = E 1 )
On peut utiliser les matrices élémentaires pour voir les opérations élémentaires comme des produits matriciels.
Par exemple : si A = ( a b c d e f g h i ) L 2 ↔ L 3 A = \begin{pmatrix}a&b&c\\d&e&f\\g&h&i\end{pmatrix}\quad\color{red}L_2\leftrightarrow L_3 A = ⎝ ⎜ ⎛ a d g b e h c f i ⎠ ⎟ ⎞ L 2 ↔ L 3
E 1 A = ( 1 0 0 0 0 1 0 1 0 ) ( a b c d e f g h i ) = ( a b c g h i d e f ) E_1A=\begin{pmatrix}1&0&0\\0&0&1\\0&1&0\end{pmatrix} \begin{pmatrix}a&b&c\\\color{orange}d&\color{orange}e& \color{orange}f\\\color{blue}g&\color{blue}h&\color{blue}i \end{pmatrix}=\begin{pmatrix}a&b&c\\ \color{blue}g& \color{blue}h&\color{blue}i\\\color{orange}d& \color{orange}e&\color{orange}f\end{pmatrix} E 1 A = ⎝ ⎜ ⎛ 1 0 0 0 0 1 0 1 0 ⎠ ⎟ ⎞ ⎝ ⎜ ⎛ a d g b e h c f i ⎠ ⎟ ⎞ = ⎝ ⎜ ⎛ a g d b h e c i f ⎠ ⎟ ⎞
Soit A ( n × n ) A\,(n\times n) A ( n × n ) . Alors
A A A est inversible ⟺ \iff ⟺ A A A est "équivalente-ligue" à I n I_n I n (c'est-à-dire que l'on peut passer de A A A à I n I_n I n en un nombre fini d'opération élémentaire)
De plus, toute suite d'opérations élémentaires qui transforme A A A en I n I_n I n transforme aussi I n I_n I n en A − 1 A^{-1} A − 1 .
⟹ \implies ⟹ Supposons que A A A est inversible. Donc ∀ b ⃗ ∈ R n \forall\,\vec{b}\in\R^n ∀ b ∈ R n , le système "A x ⃗ = b ⃗ A\vec{x}=\vec{b} A x = b " possède une unique solution. Son "A x ⃗ = b ⃗ A\vec{x}=\vec{b} A x = b " n'a pas de variables libres, donc la réduite de A A A contient exactement n pivots, c'est donc I n I_n I n .
⟸ \impliedby ⟸ Si A A A est "équivalente-ligne" à I n I_n I n , il existe des matrices élémentaires E ( 1 ) , … , E ( N ) E^{(1)},\ldots,E^{(N)} E ( 1 ) , … , E ( N ) telles que
E ( N ) ⋯ E ( 2 ) E ( 1 ) A = I n ↓ E ( N ) − 1 ⋅ E ( N − 1 ) ⋯ E ( 1 ) A = E ( N ) − 1 I n = E ( N ) − 1 ↓ E ( N − 1 ) − 1 ⋅ ⋮ A = E ( 1 ) − 1 ⋯ E ( N ) − 1 ⟹ A est inversible, et A − 1 = ( E ( 1 ) − 1 ⋯ E ( N ) − 1 ) − 1 = E ( N ) ⋯ E ( 1 ) ⟹ A − 1 = E ( N ) ⋯ E ( 1 ) I n □ \begin{array}{rlll} E^{(N)}\cdots E^{(2)}E^{(1)}A&=I_n &\\ &&\downarrow E^{(N)^{-1}}\cdot\\ E^{(N-1)}\cdots E^{(1)}A&=E^{(N)^{-1}}I_n=E^{(N)^{-1}}&\\ &&\downarrow E^{(N-1)^{-1}}\cdot\\ \vdots\\ A&=E^{(1)^{-1}}\cdots E^{(N)^{-1}} \end{array}\\\text{}\\ \begin{array}{rll} \implies A \text{ est inversible, et }A^{-1}&=(E^{(1)^{-1}} \cdots E^{(N)^{-1}})^{-1}&\\&=E^{(N)}\cdots E^{(1)}&\\ \implies A^{-1}&=E^{(N)}\cdots E^{(1)}\color{red}I_n&\\ &&\square \end{array} E ( N ) ⋯ E ( 2 ) E ( 1 ) A E ( N − 1 ) ⋯ E ( 1 ) A ⋮ A = I n = E ( N ) − 1 I n = E ( N ) − 1 = E ( 1 ) − 1 ⋯ E ( N ) − 1 ↓ E ( N ) − 1 ⋅ ↓ E ( N − 1 ) − 1 ⋅ ⟹ A est inversible, et A − 1 ⟹ A − 1 = ( E ( 1 ) − 1 ⋯ E ( N ) − 1 ) − 1 = E ( N ) ⋯ E ( 1 ) = E ( N ) ⋯ E ( 1 ) I n □
Rappel :
A c ⃗ i = e ⃗ i E ( 1 ) A c ⃗ i = E ( 1 ) e ⃗ i ⋯ I n c ⃗ i = E ( N ) ⋯ E ( 1 ) e ⃗ i \begin{array}{rl}A\vec{c}_i&=\vec{e}_i\\ E^{(1)}A\vec{c}_i&=E^{(1)}\vec{e}_i\\ &\cdots\\ I_n\vec{c}_i&=E^{(N)}\cdots E^{(1)}\vec{e}_i\end{array} A c i E ( 1 ) A c i I n c i = e i = E ( 1 ) e i ⋯ = E ( N ) ⋯ E ( 1 ) e i
Partir de la matrice n × 2 n n\times 2n n × 2 n
Appliquer une suite d'opérations élémentaires sur A A A (à l'aide de matrices E ( k ) E^{(k)} E ( k ) ) aussi sur le côte droit, jusqu'à avoir réduit A A A .
( A ∣ I n ) ⟶ o p . e ˊ l e ˊ m ( A ~ ∣ C ) (A|I_n)\stackrel{op.élém}{\longrightarrow}(\tilde A|C) ( A ∣ I n ) ⟶ o p . e ˊ l e ˊ m ( A ~ ∣ C )
A ~ \tilde A A ~ est la réduite de A A A .
Si A ~ = I n \tilde A = I_n A ~ = I n , alors A A A est inversible, et A − 1 = C A^{-1}=C A − 1 = C .
Si A ~ ≠ I n \tilde A\not=I_n A ~ = I n , alors A A A est singulière.
A = ( 1 2 2 4 ) ( A ∣ I 2 ) = ( 1 2 1 0 2 4 0 1 ) ↓ L 2 ← L 2 − 2 L 1 = ( 1 2 1 0 0 0 − 2 1 ) \begin{array}{rl}A=\begin{pmatrix}1&2\\2&4\end{pmatrix} \qquad (A|I_2)& = \left(\begin{array}{rr|rr}1&2&1&0\\2&4&0&1 \end{array}\right)\\\\&\big\downarrow L_2\leftarrow L_2-2L_1\\\\&= \left(\begin{array}{rr|rr} 1&2&1&0\\0&0&-2&1 \end{array}\right) \end{array} A = ( 1 2 2 4 ) ( A ∣ I 2 ) = ( 1 2 2 4 1 0 0 1 ) ↓ ⏐ ⏐ L 2 ← L 2 − 2 L 1 = ( 1 0 2 0 1 − 2 0 1 )
Comme A ~ ≠ I 2 \tilde A\not=I_2 A ~ = I 2 , A A A singulière.
A = ( 0 1 2 1 0 3 4 − 3 8 ) ( A ∣ I 3 ) = ( 0 1 2 1 0 0 1 0 3 0 1 0 4 − 3 8 0 0 1 ) ↓ L 1 ↔ L 2 = ( 1 0 3 0 1 0 0 1 2 1 0 0 4 − 3 8 0 0 1 ) ↓ L 3 ← L 3 − 4 L 1 = ( 1 0 3 0 1 0 0 1 2 1 0 0 0 − 3 − 4 0 − 4 1 ) ↓ L 3 ← L 3 + 3 L 2 ⋯ ↓ L 3 ← L 3 2 ( a ˋ v e ˊ rifier !) ⋯ ↓ L 2 ← L 2 − 2 L 3 ⋯ ↓ L 1 ← L 1 − 3 L 3 = ( 1 0 0 − 9 2 7 − 3 2 0 1 0 − 2 4 − 1 0 0 1 3 2 − 2 1 2 ) = ( A ~ ∣ C ) \begin{array}{rll} A &=\begin{pmatrix}0&1&2\\1&0&3\\4&-3&8\end{pmatrix}&\\ \text{}\\ (A|I_3)&=\left(\begin{array}{ccc|ccc}0&1&2&1&0&0\\1&0&3&0&1&0\\ 4&-3&8&0&0&1\end{array}\right)\\ &&\downarrow L_1\leftrightarrow L_2\\ &=\left(\begin{array}{ccc|ccc}1&0&3&0&1&0\\0&1&2&1&0&0\\ 4&-3&8&0&0&1\end{array}\right)&\\ &&\downarrow L_3\leftarrow L_3-4L_1\\ &=\left(\begin{array}{ccc|ccc}1&0&3&0&1&0\\0&1&2&1&0&0\\ 0&-3&-4&0&-4&1\end{array}\right)\\ &&\downarrow L_3\leftarrow L_3+3L_2\\ &&\cdots\\&&\downarrow L_3\leftarrow\frac{L_3}{2}\\ &\qquad\qquad\text{(à vérifier !)}&\cdots\\&&\downarrow L_2\leftarrow L_2-2L_3\\ &&\cdots\\&&\downarrow L_1\leftarrow L_1-3L_3\\ &=\left(\begin{array}{ccc|ccc}1&0&0&-\frac{9}{2}&7&-\frac{3}{2} \\0&1&0&-2&4&-1\\0&0&1&\frac{3}{2}&-2&\frac{1}{2}\end{array}\right) \\\\&=(\tilde A|C) \end{array} A ( A ∣ I 3 ) = ⎝ ⎜ ⎛ 0 1 4 1 0 − 3 2 3 8 ⎠ ⎟ ⎞ = ⎝ ⎜ ⎛ 0 1 4 1 0 − 3 2 3 8 1 0 0 0 1 0 0 0 1 ⎠ ⎟ ⎞ = ⎝ ⎜ ⎛ 1 0 4 0 1 − 3 3 2 8 0 1 0 1 0 0 0 0 1 ⎠ ⎟ ⎞ = ⎝ ⎜ ⎛ 1 0 0 0 1 − 3 3 2 − 4 0 1 0 1 0 − 4 0 0 1 ⎠ ⎟ ⎞ ( a ˋ v e ˊ rifier !) = ⎝ ⎜ ⎛ 1 0 0 0 1 0 0 0 1 − 2 9 − 2 2 3 7 4 − 2 − 2 3 − 1 2 1 ⎠ ⎟ ⎞ = ( A ~ ∣ C ) ↓ L 1 ↔ L 2 ↓ L 3 ← L 3 − 4 L 1 ↓ L 3 ← L 3 + 3 L 2 ⋯ ↓ L 3 ← 2 L 3 ⋯ ↓ L 2 ← L 2 − 2 L 3 ⋯ ↓ L 1 ← L 1 − 3 L 3
Comme A ~ = I n \tilde A=I_n A ~ = I n , A A A est inversible et A − 1 = C A^{-1}=C A − 1 = C . ( ( ( Vérifier que A C = C A = I 3 ! ) AC=CA=I_3 \,!) A C = C A = I 3 ! )
Soit A ( n × n ) A\,(n\times n) A ( n × n ) . Sont équivalents
A A A est inversible
∀ b ⃗ ∈ R n \forall\,\vec{b}\in\R^n ∀ b ∈ R n , le système "A x ⃗ = b ⃗ A\vec{x}=\vec{b} A x = b " possède une unique solution
A x ⃗ = 0 ⃗ A\vec{x}=\vec{0} A x = 0 ne possède que la solution tiviale x ⃗ = 0 ⃗ \vec{x}=\vec{0} x = 0
les n n n colonnes de A A A sont linéairement indépendantes
I m ( A ) \mathrm{Im}(A) I m ( A ) (ou "C o l ( A ) \mathrm{Col}(A) C o l ( A ) ") est tout R n \R^n R n
la réduite de A A A possède un pivot sur chaque ligne
A A A peut se réduire à I n I_n I n (à l'aide d'une suite finite d'opérations élémentaires)
A A A peut s'écrire comme produit de matrices élémentaires
⟹ \implies ⟹ 2. OK (début de la leçon)
⟹ \implies ⟹ 3. OK
⟹ \implies ⟹ 4. OK
⟹ \implies ⟹ 5. OK
⟹ \implies ⟹ 6. Si I m ( A ) = R n \mathrm{Im}(A)=\R^n I m ( A ) = R n , tout vecteur y ⃗ ∈ R n \vec{y}\in\R^n y ∈ R n peut s'écrire comme combinaison linéaire des colonnes de A A A :
A x ⃗ = y ⃗ ↓ r e ˊ duction pas de variables libres ↓ r e ˊ duite de A poss e ˋ de n pivots, un dans chaque ligne \begin{aligned} A\vec{x}&=\vec{y}\\ &\downarrow\text{réduction}\\ \text{pas de }&\text{variables libres}\\ &\downarrow \end{aligned}\\ \text{réduite de $A$ possède $n$ pivots, un dans chaque ligne} A x pas de = y ↓ r e ˊ duction variables libres ↓ r e ˊ duite de A poss e ˋ de n pivots, un dans chaque ligne
⟹ \implies ⟹ 7. Donc la réduite de A A A est I n I_n I n
⟹ \implies ⟹ 8. OK (voir théorème précédent)
⟹ \implies ⟹ 9. Si A = E ( 1 ) ⋯ E ( N ) A=E^{(1)}\cdots E^{(N)} A = E ( 1 ) ⋯ E ( N ) où chaque E ( i ) E^{(i)} E ( i ) est élémentaire, donc inversible, alors A A A est aussi inversible. □ \qquad\square □
A A -1 = I n A − 1 A = I n } faut-il vraiment v e ˊ rifier les deux conditions ? NON ! \left.\begin{aligned}AA^\text{-1}=I_n\\A^{-1}A=I_n\end{aligned} \right\}\text{faut-il vraiment vérifier les deux conditions ? NON !} A A -1 = I n A − 1 A = I n } faut-il vraiment v e ˊ rifier les deux conditions ? NON !
Si A A A est ( n × n ) (n\times n) ( n × n ) donnée.
Si ∃ C ( n × n ) \exists\,C\,(n\times n) ∃ C ( n × n ) tel que C A = I n CA =I_n C A = I n , alors A A A est inversibles, et A − 1 = C A^{-1} = C A − 1 = C .
Si ∃ B ( n × n ) \exists\,B\,(n\times n) ∃ B ( n × n ) tel que A B = I n AB=I_n A B = I n , alors A A A est inversible, et A − 1 = B A^{-1}=B A − 1 = B .
Supposons que C A = I n CA = I_n C A = I n .
Affirmation : Ceci implique que A x ⃗ = 0 ⃗ A\vec{x}=\vec{0} A x = 0 ne possède que la solution triviale. (Par le point 3 du théorème précédent, A A A est donc inversible)
En effet, si x ⃗ \vec{x} x est solution de A x ⃗ = 0 ⃗ A\vec{x}=\vec{0} A x = 0 , alors x ⃗ = I n x ⃗ = ( C A ) x ⃗ = C ( A x ⃗ ) = C 0 ⃗ = 0 ⃗ \vec{x}=I_n\vec{x}=(CA)\vec{x}=C(A\vec{x})=C\vec{0}=\vec{0} x = I n x = ( C A ) x = C ( A x ) = C 0 = 0
Donc C = C I n = A − 1 existe C ( A A − 1 ) = ( C A ) ⏟ I n A − 1 = A − 1 \text{Donc }C=CI_n\stackrel{A^{-1}\text{existe}}{=}C(AA^{-1})=\underbrace{(CA)}_{I_n}A^{-1}=A^{-1} Donc C = C I n = A − 1 existe C ( A A − 1 ) = I n ( C A ) A − 1 = A − 1
Supposons que A B = I n AB=I_n A B = I n . Alors ∀ y ⃗ ∈ R n \forall\,\vec{y}\in\R^n ∀ y ∈ R n
( A B ) y ⃗ = y ⃗ A ( B y ⃗ ) = y ⃗ (AB)\vec{y}=\vec{y}\\A(B\vec{y})=\vec{y} ( A B ) y = y A ( B y ) = y
Donc le système "A x ⃗ = y ⃗ A\vec{x}=\vec{y} A x = y " possède une solution, donnée par x ⃗ = B y ⃗ \vec{x}=B\vec{y} x = B y .
⟹ Im ( A ) = R n . \qquad\implies\textrm{Im}(A)=\R^n. ⟹ Im ( A ) = R n .
Par e) du théorème précédent, A A A est inversible.
Aussi, B = I n B = ( A − 1 A ) B = A − 1 existe A − 1 ( A B ) ⏟ I n = A − 1 □ B=I_nB=(A^{-1}A)B\stackrel{A^{-1}\text{existe}}{=}A^{-1}\underbrace{(AB)}_{I_n}=A^{-1}\quad\square B = I n B = ( A − 1 A ) B = A − 1 existe A − 1 I n ( A B ) = A − 1 □
Soit B ( n × n ) B\,(n\times n) B ( n × n ) . On étudie les matrices élémentaires associées aux opérations élémentaires de Types I, II, III, et leurs inverses.
B ⟼ L i ↔ L j T i j B o u ˋ T i j est la n × n T i j = ( 1 1 ⋱ 0 1 ↓ ⋱ ↑ 1 0 ⋱ 1 ) i j Comme T i j T i j = I n , T i j est inversible, et T i j − 1 = T i j B\stackrel{L_i\leftrightarrow L_j} {\longmapsto}T_{ij}B\quad\text{où $T_{ij}$ est la $n\times n$}\\\text{}\\ T_{ij}=\left(\begin{array}{cccccccc} 1&&&&&&&\\&1&&&&&&\\&&\ddots&&&&&\\&&&0&&1&&&\\&&&\downarrow& \ddots&\uparrow&&\\&&&1&&0&&&\\&&&&&&\ddots&\\&&&&&&&1 \end{array}\right)\begin{array}{l}\\ \text{} \\ \text{} \\ i \\ \text{} \\ j \\\text{}\\\text{}\end{array}\\ \text{}\\ \text{Comme } T_{ij}T_{ij}=I_n, \, T_{ij} \text{ est inversible, et} \\ \boxed{T_{ij}^{-1}=T^{ij}} B ⟼ L i ↔ L j T i j B o u ˋ T i j est la n × n T i j = ⎝ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎛ 1 1 ⋱ 0 ↓ 1 ⋱ 1 ↑ 0 ⋱ 1 ⎠ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎞ i j Comme T i j T i j = I n , T i j est inversible, et T i j − 1 = T i j
B ⟼ L i ← λ L i D i ( λ ) o u ˋ D i ( λ ) B est la n × n ( λ ≠ 0 ) D i ( λ ) = ( 1 1 ⋱ 0 1 λ 0 1 ⋱ 1 ) i B\stackrel{L_i\leftarrow\lambda L_i}\longmapsto D_i(\lambda) \quad \text{où }D_i(\lambda)B \text{ est la }n\times n \, (\lambda \not = 0)\\ \text{}\\ D_i(\lambda)=\left(\begin{array}{cccccccc} 1&&&&&&&\\&1&&&&&&\\&&\ddots&&&&\text{\huge0}&\\&&&1&&&&&\\&&&& \lambda&&&\\&&\text{\huge0}&&&1&&&\\&&&&&&\ddots&\\&&&&&&&1 \end{array}\right)\begin{array}{l}\\ \\ \text{} \\ \text{} \\ i \\ \text{} \\\text{}\\\text{}\end{array}\\ B ⟼ L i ← λ L i D i ( λ ) o u ˋ D i ( λ ) B est la n × n ( λ = 0 ) D i ( λ ) = ⎝ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎛ 1 1 ⋱ 0 1 λ 1 0 ⋱ 1 ⎠ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎞ i
Comme D i ( λ ) D i ( μ ) = D i ( λ μ ) D_i(\lambda)D_i(\mu)=D_i(\lambda\mu) D i ( λ ) D i ( μ ) = D i ( λ μ ) , et D i ( 1 ) = I n D_i(1)=I_n D i ( 1 ) = I n , on peut chercher le μ \mu μ tel que
D i ( λ ) D i ( μ ) = I n = D i ( 1 ) → μ = 1 λ D_i(\lambda)D_i(\mu) = I_n =D_i(1)\rightarrow\mu=\frac{1}{\lambda} D i ( λ ) D i ( μ ) = I n = D i ( 1 ) → μ = λ 1
Donc lorsque λ ≠ 0 \lambda\not=0 λ = 0 , D i ( λ ) D_i(\lambda) D i ( λ ) est inversible, et
D i ( λ ) − 1 = D i ( 1 λ ) \boxed{D_i(\lambda)^{-1}=D_i(\frac{1}{\lambda})} D i ( λ ) − 1 = D i ( λ 1 )
B ⟼ L i ↔ L i + λ L j L i j ( λ ) B o u ˋ L i j ( λ ) est la n × n Remarque: le 1 e r indice ( i ) est celui de la ligne qui change T i j = ( 1 1 ⋱ 0 1 1 λ ⋱ ↑ 1 0 ⋱ 1 ) i j B\stackrel{L_i\leftrightarrow L_i +\lambda L_j} {\longmapsto}L_{ij}(\lambda)B\quad\text{où $L{ij}(\lambda)$ est la $n\times n$}\\\textbf{Remarque: }\text{le $1^{er}$ indice $(i)$ est celui de la ligne qui change}\\\text{}\\ T_{ij}=\left(\begin{array}{ccccccccc} 1&&&&&&&&\\&1&&&&&&&\\&&\ddots&&&&&\text{\huge0}&\\&&&1&&&&&&\\&&&&1&&\lambda&& \\&&&&&\ddots&\uparrow&&\\&&&&&&1&&&\\&&\text{\huge0}&&&&&\ddots&\\&&&&&&&&1 \end{array}\right)\begin{array}{l}\\ \text{} \\ \text{} \\ \text{} \\ i \\ \text{} \\ j \\\text{}\\\text{}\end{array}\\ \text{}\\ B ⟼ L i ↔ L i + λ L j L i j ( λ ) B o u ˋ L i j ( λ ) est la n × n Remarque: le 1 e r indice ( i ) est celui de la ligne qui change T i j = ⎝ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎛ 1 1 ⋱ 0 1 1 ⋱ λ ↑ 1 0 ⋱ 1 ⎠ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎞ i j
Comme L i j ( 0 ) = I n L_{ij}(0)=I_n L i j ( 0 ) = I n , et L i j ( μ ) L i j ( λ ) = L i j ( λ + μ ) L_{ij}(\mu)L_{ij}(\lambda)=L_{ij}(\lambda+\mu) L i j ( μ ) L i j ( λ ) = L i j ( λ + μ ) , on peut chercher le λ \lambda λ tel que
L i j ( μ ) L i j ( λ ) = I n ( = L i j ( 0 ) ) → λ = − μ L_{ij}(\mu)L_{ij}(\lambda)=I_n(=L_{ij}(0))\rightarrow\lambda=-\mu L i j ( μ ) L i j ( λ ) = I n ( = L i j ( 0 ) ) → λ = − μ
Donc L i j ( μ ) L_{ij}(\mu) L i j ( μ ) est inversibles, et
L i j ( μ ) − 1 = L i j ( − μ ) \boxed{L_{ij}(\mu)^{-1}=L_{ij}(-\mu)} L i j ( μ ) − 1 = L i j ( − μ )
Une C ( m × n ) C\,(m\times n) C ( m × n ) est
triangulaire inférieure si C i j = 0 ∀ 1 ⩽ i ⩽ j ⩽ n C_{ij}=0\quad\forall\,1\leqslant i\leqslant j\leqslant n C i j = 0 ∀ 1 ⩽ i ⩽ j ⩽ n .
triangulaire supérieure si C i j = 0 ∀ , 1 ⩽ j ⩽ i ⩽ n C_{ij}=0\quad\forall,1\leqslant j\leqslant i\leqslant n C i j = 0 ∀ , 1 ⩽ j ⩽ i ⩽ n
T i j T_{ij} T i j n'est ni triangle inférieur, ni triangle supérieur.
D i ( λ ) D_i(\lambda) D i ( λ ) est triangle inférieur et supérieur.
L i j est triangle inf e ˊ rieur si i > j , est triangle sup e ˊ rieur si i < j L_{ij} \text{ est triangle inférieur si } i>j, \text{est triangle supérieur si } i<j L i j est triangle inf e ˊ rieur si i > j , est triangle sup e ˊ rieur si i < j .
Démontrez qu'un produit de matrices triangulaires inférieures est triangulaire inférieur et qu'un produit de matrices triangulaires supérieures est triangulaire supérieur.
Soit A A A une matrice ( m × n ) (m\times n) ( m × n ) . Une décomposition L U LU L U de A A A est une factorisation de la forme
A = L U o u ˋ , A=LU\text{ où,} A = L U o u ˋ ,
A = ( 1 1 1 2 3 5 4 6 8 ) = ( 1 0 0 2 1 0 4 2 1 ) ⏟ L ( 1 1 1 0 + 1 3 0 0 − 2 ) ⏟ U A=\left(\begin{array}{rrrr}1&1&1\\2&3&5\\4&6&8\end{array}\right)=\underbrace{\left(\begin{array}{rrrrr}\textcolor{blue}1&0&0\\2&\textcolor{blue}1&0\\4&2&\textcolor{blue}1\end{array}\right)}_L\,\underbrace{\left(\begin{array}{rrrrrr}1&1&1\\0&\textcolor{white}+1&3\\0&0&-2\end{array}\right)}_U A = ⎝ ⎜ ⎛ 1 2 4 1 3 6 1 5 8 ⎠ ⎟ ⎞ = L ⎝ ⎜ ⎛ 1 2 4 0 1 2 0 0 1 ⎠ ⎟ ⎞ U ⎝ ⎜ ⎛ 1 0 0 1 + 1 0 1 3 − 2 ⎠ ⎟ ⎞
Utilité : on aimerait résoudre N N N systèmes linéaires
{ A x ⃗ ( 1 ) = b ⃗ 1 A x ⃗ ( 2 ) = b ⃗ 2 ⋮ A x ⃗ ( N ) = b ⃗ N \begin{cases} &A\vec{x}^{(1)}=\vec{b}_{1}\\ &A\vec{x}^{(2)}=\vec{b}_{2}\\ &\quad\vdots\\ &A\vec{x}^{(N)}=\vec{b}_{N} \end{cases} ⎩ ⎪ ⎪ ⎪ ⎪ ⎪ ⎨ ⎪ ⎪ ⎪ ⎪ ⎪ ⎧ A x ( 1 ) = b 1 A x ( 2 ) = b 2 ⋮ A x ( N ) = b N
Décomposition A A A en A = L U A=LU A = L U (lorsque c'est possible)
∀ i = 1 , … , N \forall\,i=1,\ldots,N ∀ i = 1 , … , N
R e ˊ soudre “ A x ⃗ i = b ⃗ i " ⟺ L ( U x ⃗ ( i ) ) = b ⃗ i ⇕ ∙ r e ˊ soudre L y ⃗ ( i ) = b ⃗ i ∙ r e ˊ soudre U x ⃗ ( i ) = y ⃗ ( i ) \begin{aligned} \boxed{\text{Résoudre “$A\vec{x}^i=\vec{b}_i$" }} \iff&\boxed{L(U\vec{x}^{(i)})=\vec{b}_i}\\ &\qquad\quad\Big\Updownarrow\\ &\boxed{ \begin{array}{lllll} \bullet&\text{résoudre }L\vec{y}^{(i)}=\vec{b}_i\\ \bullet&\text{résoudre } U\vec{x}^{(i)}=\vec{y}^{(i)}\\ \end{array} } \end{aligned} R e ˊ soudre “ A x i = b i " ⟺ L ( U x ( i ) ) = b i ⇓ ‖ ‖ ⇑ ∙ ∙ r e ˊ soudre L y ( i ) = b i r e ˊ soudre U x ( i ) = y ( i )
Remarque : ces systèmes étant triangulaires, ils sont rapides à résoudre !
Si A A A est une matrice ( m × n ) (m\times n) ( m × n ) , que l'on peut échelonner à l'aide d'opérations élémentaires de Type III, dans lesquelles on ne fait des additions que vers le bas , (c'est-à-dire à l'aide de matrices L i j ( λ ) L_{ij}(\lambda) L i j ( λ ) avec i > j i>j i > j ), alors il existe une décomposition :
A = L U , o u ˋ A=LU, \text{où} A = L U , o u ˋ
U U U est l'échelonnée de A A A .
Supposons que l'échelonnée de A A A soit
A ~ = E N ⋯ E 2 E 1 ‾ A \tilde{A}=\color{red}\underline{\color{black}E_N\cdots E_2\,E_1}\color{black}\,A A ~ = E N ⋯ E 2 E 1 A
où les E 1 ⋯ E N E_1\cdots E_N E 1 ⋯ E N sont de type "L i j ( λ ) L_{ij}(\lambda) L i j ( λ ) ", avec i > j i>j i > j .
Par construction, A ~ \tilde{A} A ~ est triangle supérieur.
Chaque E k E_k E k étant de type "L i j ( λ ) L_{ij}(\lambda) L i j ( λ ) " avec i > j i>j i > j , on a
E k E_k E k est inversible
E k E_k E k est triangulaire inférieure
E k E_k E k n'a que des "1 1 1 " sur sa diagonale
⟹ M ≔ E N ⋯ E 2 E 1 1. est inversible 2. est triangulaire infl e ˊ rieure 3. n’a que des “ 1 " sur sa diagonale \begin{aligned}\implies M\coloneqq E_N\cdots E_2\,E_1\quad\,&1. \text{ est inversible}\\&2.\text{ est triangulaire inflérieure}\\&3.\text{ n'a que des “}1\text{" sur sa diagonale}\end{aligned} ⟹ M : = E N ⋯ E 2 E 1 1 . est inversible 2 . est triangulaire infl e ˊ rieure 3 . n’a que des “ 1 " sur sa diagonale
Donc, par 1., M M M est inversible et
M − 1 = E 1 − 1 ⋯ E N − 1 1. est inversible 2. est triangulaire infl e ˊ rieure 3. n’a que des “ 1 " sur sa diagonale \begin{aligned}\qquad M^{-1}=E_1^{-1}\cdots E_N^{-1}\qquad\quad&1. \text{ est inversible}\\&2.\text{ est triangulaire inflérieure}\\&3.\text{ n'a que des “}1\text{" sur sa diagonale}\end{aligned} M − 1 = E 1 − 1 ⋯ E N − 1 1 . est inversible 2 . est triangulaire infl e ˊ rieure 3 . n’a que des “ 1 " sur sa diagonale
A ~ = M A ⟺ A = M − 1 A ~ \tilde{A}=MA\iff A=M^{-1}\tilde{A} A ~ = M A ⟺ A = M − 1 A ~
Remarque :
Donc on prend L ≔ M − 1 U ≔ A ~ □ \begin{aligned}L&\coloneqq M^{-1}\\U&\coloneqq\tilde{A}\\&&\square\end{aligned} L U : = M − 1 : = A ~ □
En partant de A A A ,
U = E N ⋯ E 2 E 1 A ⏟ ◯ 1 ⏟ ◯ 2 ⏟ ⋯ ◯ 1 , , ⏟ ◯ N ∣ produit a ˋ gauche . puis : L = I n E 1 − 1 ⏟ ◯ 1 E 2 − 1 ⏟ ◯ 2 ⋯ ⏟ ⋯ ◯ 1 E N − 1 ⏟ ◯ N ∣ produit a ˋ droite . \begin{array}{lllll}\qquad\quad&U=\color{blue}\underbrace{\color{black}E_N\color{blue}\underbrace{\color{black}\cdots\color{blue}\underbrace{\color{black}E_2\,\color{blue}\underbrace{\color{black}E_1\,A}_{{\bigcirc}\mathllap{\tiny1\,\,}}}_{{\bigcirc}\mathllap{\tiny2\,\,}}}_{\,\,\,\,\,\cdots\color{white}{\bigcirc}\mathllap{\tiny1,,}}}_{{\bigcirc}\mathllap{\tiny N\,}}\qquad&\color{red}|\text{ produit à }\textbf{gauche}.\\\text{puis :}\\&L=\color{blue}\underbrace{\color{black}\color{blue}\underbrace{\color{black}\color{blue}\underbrace{\color{black}\color{blue}\underbrace{\color{black}I_n\,E_1^{-1}}_{{\bigcirc}\mathllap{\tiny1\,\,}}\,\color{black}E_2^{-1}}_{{\bigcirc}\mathllap{\tiny2\,\,}}\color{black}\cdots}_{\,\,\,\,\,\cdots\color{white}{\bigcirc}\mathllap{\tiny1\,\,}}\color{black}\,E_N^{-1}}_{{\bigcirc}\mathllap{\tiny N\,}}\qquad&\color{red}|\text{ produit à }\textbf{droite}.\end{array} puis : U = ◯ N E N ⋯ ◯ 1 , , ⋯ ◯ 2 E 2 ◯ 1 E 1 A L = ◯ N ⋯ ◯ 1 ◯ 2 ◯ 1 I n E 1 − 1 E 2 − 1 ⋯ E N − 1 ∣ produit a ˋ gauche . ∣ produit a ˋ droite .
À comprendre : que signifie "multiplier à droite pour une matrice élémentaire" ?
Rappel : ↷ L i ↔ L j A ⟼ T i j A \qquad\begin{array}{ccc}&\stackrel{L_i\leftrightarrow L_j}{\curvearrowright}\\A&\longmapsto &T_{ij}A\end{array} A ↷ L i ↔ L j ⟼ T i j A
( a b c d e f g h i ) ( 0 1 0 1 0 0 0 0 1 ) = ( b a c e d f h g i ) T 12 \begin{aligned} \begin{pmatrix}\textcolor{blue}{a}&\textcolor{red}{b}&c\\\textcolor{blue}{d}&\textcolor{red}{e}&f\\\textcolor{blue}{g}&\textcolor{red}{h}&i\end{pmatrix} &\begin{pmatrix}0&1&0\\1&0&0\\0&0&1\end{pmatrix}= \begin{pmatrix}\textcolor{red}{b}&\textcolor{blue}{a}&c\\\textcolor{red}{e}&\textcolor{blue}{d}&f\\\textcolor{red}{h}&\textcolor{blue}{g}&i\end{pmatrix}\\&\qquad\,\, T_{12} \end{aligned} ⎝ ⎜ ⎛ a d g b e h c f i ⎠ ⎟ ⎞ ⎝ ⎜ ⎛ 0 1 0 1 0 0 0 0 1 ⎠ ⎟ ⎞ = ⎝ ⎜ ⎛ b e h a d g c f i ⎠ ⎟ ⎞ T 1 2
On a échangé la première et la deuxième colonne.
Multiplier par T i j a ˋ droite , c’est e ˊ changer les colonnes i et j . \boxed{\text{Multiplier par }T_{ij} \text{ à }\textbf{droite}\text{, c'est échanger les colonnes }i \text{ et }j.} Multiplier par T i j a ˋ droite , c’est e ˊ changer les colonnes i et j .
Rappel : A ↦ D i ( λ ) A \qquad A\mapsto D_i(\lambda) A A ↦ D i ( λ ) A
( a b c d e f g h i ) ( 1 0 0 0 λ 0 0 0 1 ) = ( a b λ c d e λ f g h λ i ) D 2 ( λ ) \begin{aligned} \begin{pmatrix}a&b&c\\d&e&f\\g&h&i\end{pmatrix} &\begin{pmatrix}1&0&0\\0&\lambda&0\\0&0&1\end{pmatrix}= \begin{pmatrix}a&b\lambda&c\\d&e\lambda&f\\g&h\lambda&i\end{pmatrix}\\ &\quad\,\,\,\, D_2(\lambda) \end{aligned} ⎝ ⎜ ⎛ a d g b e h c f i ⎠ ⎟ ⎞ ⎝ ⎜ ⎛ 1 0 0 0 λ 0 0 0 1 ⎠ ⎟ ⎞ = ⎝ ⎜ ⎛ a d g b λ e λ h λ c f i ⎠ ⎟ ⎞ D 2 ( λ )
On a multiplié la deuxième colonne par λ \lambda λ .
Multiplier par D i ( λ ) a ˋ droite , c’est multiplier la colonne i par λ . \boxed{\text{Multiplier par }D_i(\lambda) \text{ à }\textbf{droite}\text{, c'est multiplier la colonne }i \text{ par }\lambda.} Multiplier par D i ( λ ) a ˋ droite , c’est multiplier la colonne i par λ .
Rappel : A ↦ L i j ( λ ) A A\mapsto L_{ij}(\lambda)A A ↦ L i j ( λ ) A
( a b c d e f g h i ) ( 1 0 0 0 1 λ 0 0 1 ) = ( a b c + λ b d e f + λ e g h i + λ h ) L 23 ( λ ) \begin{aligned} \begin{pmatrix}a&b&c\\d&e&f\\g&h&i\end{pmatrix} &\begin{pmatrix}1&0&0\\0&1&\lambda\\0&0&1\end{pmatrix}= \begin{pmatrix}a&b&c+\lambda b\\d&e&f+\lambda e\\g&h&i+\lambda h\end{pmatrix}\\ &\quad\,\,\,\, L_{23}(\lambda) \end{aligned} ⎝ ⎜ ⎛ a d g b e h c f i ⎠ ⎟ ⎞ ⎝ ⎜ ⎛ 1 0 0 0 1 0 0 λ 1 ⎠ ⎟ ⎞ = ⎝ ⎜ ⎛ a d g b e h c + λ b f + λ e i + λ h ⎠ ⎟ ⎞ L 2 3 ( λ )
On a ajouté λ \lambda λ fois la deuxième colonne à la troisième.
Multiplier par L i j ( λ ) a ˋ droite , c’est ajouter a ˋ la colonne j λ fois la i e ˋ me . \boxed{\text{Multiplier par }L_{ij}(\lambda) \text{ à }\textbf{droite}\text{, c'est ajouter à la colonne }j\, \lambda\text{ fois la i}^\text{ème}.} Multiplier par L i j ( λ ) a ˋ droite , c’est ajouter a ˋ la colonne j λ fois la i e ˋ me .
A I n ◯ 1 E 1 I n E 1 − 1 ◯ 1 ′ ◯ 2 E 2 E 1 A I n E 1 − 1 E 2 − 1 ◯ 2 ′ ⋮ ⋮ ◯ N E N ⋯ E 1 A ⏟ U I n E 1 − 1 ⋯ E N − 1 ⏟ L ◯ N ′ \begin{array}{rr|ll} &A&I_n&\\ \color{blue}{\bigcirc}\mathllap{\footnotesize1\,\,}&E_1&I_nE_1^{-1}&\color{blue}{\bigcirc}\mathllap{\footnotesize1\,\,}'\\ \color{blue}{\bigcirc}\mathllap{\footnotesize2\,\,}&E_2E_1A&I_nE_1^{-1}E_2^{-1}&\color{blue}{\bigcirc}\mathllap{\footnotesize2\,\,}'\\ \text{}\\ &\vdots\quad&\quad\vdots&\\ \text{}\\ \color{blue}{\bigcirc}\mathllap{\footnotesize N\,}&\underbrace{E_N\cdots E_1A}_{U}&\underbrace{I_nE_1^{-1}\cdots E_N^{-1}}_{L}&\color{blue}{\bigcirc}\mathllap{\footnotesize N\,}' \end{array} ◯ 1 ◯ 2 ◯ N A E 1 E 2 E 1 A ⋮ U E N ⋯ E 1 A I n I n E 1 − 1 I n E 1 − 1 E 2 − 1 ⋮ L I n E 1 − 1 ⋯ E N − 1 ◯ 1 ′ ◯ 2 ′ ◯ N ′
A = ( 1 1 1 2 3 5 4 6 8 ) ( 1 0 0 0 1 0 0 0 1 ) = I n ◯ 1 L 21 ( − 2 ) A = ( 1 1 1 0 1 3 4 6 8 ) ( 1 0 0 2 1 0 0 0 1 ) = I n L 21 ( − 2 ) − 1 = I n L 21 ( 2 ) ◯ 1 ′ ◯ 2 L 31 ( − 4 ) L 21 ( − 2 ) A = ( 1 1 1 0 1 3 0 2 4 ) ( 1 0 0 2 1 0 4 0 1 ) = I n L 21 ( 2 ) L 31 ( − 4 ) − 1 = I n L 21 ( 2 ) L 31 ( 4 ) ◯ 2 ′ ⋮ ⋮ ◯ N L 32 ( − 2 ) L 31 ( − 4 ) L 21 ( − 2 ) A = ( 1 1 1 0 1 3 0 0 − 2 ) ⏟ U ( 1 0 0 2 1 0 4 2 1 ) = I n L 21 ( 2 ) L 31 ( 4 ) L 32 ( − 2 ) − 1 = I n L 21 ( 2 ) L 31 ( 4 ) L 32 ( 2 ) ⏟ L ◯ N ′ \begin{array}{rr|ll} &A=\begin{pmatrix}1&1&1\\2&3&5\\4&6&8\end{pmatrix}&\begin{pmatrix}1&0&0\\0&1&0\\0&0&1\end{pmatrix}=I_n&\\ \text{}\\ \color{blue}{\bigcirc}\mathllap{\footnotesize1\,\,}&L_{21}(-2)A=\begin{pmatrix}1&1&1\\0&1&3\\4&6&8\end{pmatrix}&\begin{pmatrix}1&0&0\\2&1&0\\0&0&1\end{pmatrix}\begin{aligned}&\text{}\\&=I_nL_{21}(-2)^{-1}\\&=I_nL_{21}(2)\\\end{aligned}&\color{blue}{\bigcirc}\mathllap{\footnotesize1\,\,}'\\ \text{}\\ \color{blue}{\bigcirc}\mathllap{\footnotesize2\,\,}&L_{31}(-4)L_{21}(-2)A=\begin{pmatrix}1&1&1\\0&1&3\\0&2&4\end{pmatrix}&\begin{pmatrix}1&0&0\\2&1&0\\4&0&1\end{pmatrix}\begin{aligned}&\text{}\\&=I_nL_{21}(2)L_{31}(-4)^{-1}\\&=I_nL_{21}(2)L_{31}(4)\\\end{aligned}&\color{blue}{\bigcirc}\mathllap{\footnotesize2\,\,}'\\ \text{}\\ &\vdots\quad&\quad\vdots&\\ \text{}\\ \color{blue}{\bigcirc}\mathllap{\footnotesize N\,}&\underbrace{L_{32}(-2)L_{31}(-4)L_{21}(-2)A=\begin{pmatrix}1&1&1\\0&1&3\\0&0&-2\end{pmatrix}\begin{aligned}&\text{}\\&\text{}\\&\text{}\\\end{aligned}}_{U}&\underbrace{\begin{pmatrix}1&0&0\\2&1&0\\4&2&1\end{pmatrix}\begin{aligned}&\text{}\\&=I_nL_{21}(2)L_{31}(4)L_{32}(-2)^{-1}\\&=I_nL_{21}(2)L_{31}(4)L_{32}(2)\end{aligned}}_{L}&\color{blue}{\bigcirc}\mathllap{\footnotesize N\,}' \end{array} ◯ 1 ◯ 2 ◯ N A = ⎝ ⎜ ⎛ 1 2 4 1 3 6 1 5 8 ⎠ ⎟ ⎞ L 2 1 ( − 2 ) A = ⎝ ⎜ ⎛ 1 0 4 1 1 6 1 3 8 ⎠ ⎟ ⎞ L 3 1 ( − 4 ) L 2 1 ( − 2 ) A = ⎝ ⎜ ⎛ 1 0 0 1 1 2 1 3 4 ⎠ ⎟ ⎞ ⋮ U L 3 2 ( − 2 ) L 3 1 ( − 4 ) L 2 1 ( − 2 ) A = ⎝ ⎜ ⎛ 1 0 0 1 1 0 1 3 − 2 ⎠ ⎟ ⎞ ⎝ ⎜ ⎛ 1 0 0 0 1 0 0 0 1 ⎠ ⎟ ⎞ = I n ⎝ ⎜ ⎛ 1 2 0 0 1 0 0 0 1 ⎠ ⎟ ⎞ = I n L 2 1 ( − 2 ) − 1 = I n L 2 1 ( 2 ) ⎝ ⎜ ⎛ 1 2 4 0 1 0 0 0 1 ⎠ ⎟ ⎞ = I n L 2 1 ( 2 ) L 3 1 ( − 4 ) − 1 = I n L 2 1 ( 2 ) L 3 1 ( 4 ) ⋮ L ⎝ ⎜ ⎛ 1 2 4 0 1 2 0 0 1 ⎠ ⎟ ⎞ = I n L 2 1 ( 2 ) L 3 1 ( 4 ) L 3 2 ( − 2 ) − 1 = I n L 2 1 ( 2 ) L 3 1 ( 4 ) L 3 2 ( 2 ) ◯ 1 ′ ◯ 2 ′ ◯ N ′
Soit V V V un EV de dimension n n n , et
B = ( b 1 , … , b n ) C = ( c 1 , … , c 2 ) } deux bases. \quad\left.\begin{aligned}&\mathcal{B}=(b_1,\ldots,b_n)\\&\mathcal{C}=(c_1,\ldots,c_2)\end{aligned}\right\}\text{deux bases.} B = ( b 1 , … , b n ) C = ( c 1 , … , c 2 ) } deux bases.
IMAGE P.125/126
Relatif a ˋ B : [ v ] B = ( β 1 ⋮ β n ) Relatif a ˋ C : [ v ] C = ( γ 1 ⋮ γ n ) \quad\begin{aligned}&\text{Relatif à }\mathcal{B}:\\&&\left[v\right]_\mathcal{B}=\begin{pmatrix}\beta_1\\\vdots\\\beta_n\end{pmatrix}\end{aligned}\qquad\begin{aligned}&\text{Relatif à }\mathcal{C}:\\&&\left[v\right]_\mathcal{C}=\begin{pmatrix}\gamma_1\\\vdots\\\gamma_n\end{pmatrix}\end{aligned} Relatif a ˋ B : [ v ] B = ⎝ ⎜ ⎜ ⎛ β 1 ⋮ β n ⎠ ⎟ ⎟ ⎞ Relatif a ˋ C : [ v ] C = ⎝ ⎜ ⎜ ⎛ γ 1 ⋮ γ n ⎠ ⎟ ⎟ ⎞
Y a-t-il un lien entre β n \beta_n β n et γ n \gamma_n γ n ?
Il existe une matrice ( m × n ) (m\times n) ( m × n ) inversible notée P C B P_{\mathcal{C}\mathcal{B}} P C B (ou parfois P C ← B P_{\mathcal{C}\leftarrow\mathcal{B}} P C ← B ), telle que
[ v ] C = P C B [ v ] B [v]_\mathcal{C}=P_{\mathcal{C}\textcolor{red}{\mathcal{B}}}\left[v\right]_\textcolor{red}{\mathcal{B}} [ v ] C = P C B [ v ] B
De plus, P C B = [ [ b 1 ] C ⋯ [ b n ] C ] , et P C B − 1 = P B C = [ [ c 1 ] B ⋯ [ c n ] B ] \begin{aligned}\text{De plus, }&P_{\mathcal{C}\mathcal{B}}=\left[[b_1]_\mathcal{C}\cdots[b_n]_\mathcal{C}\right]\text{, et}\\&P_{\mathcal{C}\mathcal{B}}^{-1}=P_{\mathcal{B}\mathcal{C}}=\left[[c_1]_\mathcal{B}\cdots[c_n]_\mathcal{B}\right]\end{aligned} De plus, P C B = [ [ b 1 ] C ⋯ [ b n ] C ] , et P C B − 1 = P B C = [ [ c 1 ] B ⋯ [ c n ] B ]
(P C B P_{\mathcal{C}\mathcal{B}} P C B et P B C P_{\mathcal{B}\mathcal{C}} P B C sont des matrices de changement de base ).
IMAGE P.126
Soit v ∈ V v\in V v ∈ V , décomposé dans B \mathcal{B} B :
Soit v ∈ V , d e ˊ compos e ˊ dans B : v = β 1 b 1 + … + β n b n ↓ [ . ] C , qui est lin e ˊ aire [ v ] C = β 1 [ b 1 ] C + … + β n [ b n ] C ⏟ il s’agit d’un produit ! = [ [ b 1 ] C ⋯ [ b n ] C ] ⏟ matrice : P C B [ v ] B ( ∗ ) 1 De m e ˆ me, [ v ] B = [ c 1 ] B ⋯ [ c n ] B ⏟ P B C [ v ] C ( ∗ ) 2 Il faut injecter ( ∗ ) 2 dans ( ∗ ) 1 : [ v ] C = P C B P B C [ v ] C ( ∀ ) v \begin{array}{llll} \text{Soit $v\in V$, décomposé dans $\mathcal{B}$:}\\ \text{}\\ \qquad v=\beta_1b_1+\ldots+\beta_nb_n&\\ &\Big\downarrow\begin{array}{llll}[\,.\,]_\mathcal{C},\\\text{qui est linéaire}\end{array}\\ \qquad\begin{aligned}[v]_\mathcal{C}&=\underbrace{\beta_1[b_1]_\mathcal{C}+\ldots+\beta_n[b_n]_\mathcal{C}}_{ \text{il s'agit d'un produit !}}\\ \text{}\\ &=\underbrace{\left[[b_1]_\mathcal{C}\cdots[b_n]_\mathcal{C}\right]}_{\text{matrice : }P_{\mathcal{C}\mathcal{B}}}[v]_\mathcal{B}\quad(*)_1 \end{aligned}\\ \text{De même,}\\ \text{}\\ \qquad[v]_\mathcal{B}=\underbrace{[c_1]_\mathcal{B}\cdots[c_n]_\mathcal{B}}_{P_{\mathcal{B}\mathcal{C}}}[v]_\mathcal{C}\quad\,\,\,(*)_2\\ \text{}\\ \text{Il faut injecter }(*)_2 \text{ dans } (*)_1 :\\ \text{}\\ \qquad[v]_\mathcal{C}=P_{\mathcal{C}\mathcal{B}}P_{\mathcal{B}\mathcal{C}}[v]_{\mathcal{C}}\quad(\forall )v \end{array} Soit v ∈ V , d e ˊ compos e ˊ dans B : v = β 1 b 1 + … + β n b n [ v ] C = il s’agit d’un produit ! β 1 [ b 1 ] C + … + β n [ b n ] C = matrice : P C B [ [ b 1 ] C ⋯ [ b n ] C ] [ v ] B ( ∗ ) 1 De m e ˆ me, [ v ] B = P B C [ c 1 ] B ⋯ [ c n ] B [ v ] C ( ∗ ) 2 Il faut injecter ( ∗ ) 2 dans ( ∗ ) 1 : [ v ] C = P C B P B C [ v ] C ( ∀ ) v ↓ ⏐ ⏐ ⏐ [ . ] C , qui est lin e ˊ aire
Exercice : Si x ⃗ = M x ⃗ ∀ x ⃗ ∈ R n , alors M = I n . \vec{x}=M\vec{x}\quad\forall\vec{x}\in\R^n\text{, alors } M=I_n. x = M x ∀ x ∈ R n , alors M = I n .
⟶ P C B P B C = I n \longrightarrow P_{\mathcal{C}\mathcal{B}}P_{\mathcal{B}\mathcal{C}}=I_n ⟶ P C B P B C = I n
Donc P C B − 1 = P B C P_{\mathcal{C}\mathcal{B}}^{-1}=P_{\mathcal{B}\mathcal{C}} P C B − 1 = P B C , et P B C − 1 = P C B □ \begin{aligned}P_{\mathcal{B}\mathcal{C}}^{-1}=P_{\mathcal{C}\mathcal{B}}\\&\qquad\square\end{aligned} P B C − 1 = P C B □
IMAGE P.127
Cousin 1 : B c a n = ( e ⃗ 1 , e ⃗ 2 ) \mathcal{B}_\mathrm{can}=(\vec{e}_1,\vec{e}_2) B c a n = ( e 1 , e 2 )
Cousin 2 : B ′ = ( b ⃗ 1 , b ⃗ 2 ) \mathcal{B}'=(\vec{b}_1,\vec{b}_2) B ′ = ( b 1 , b 2 )
Consid e ˊ rons v ⃗ = 3 e ⃗ 1 + e ⃗ 2 ⟹ [ v ⃗ ] B c a n = ( 3 1 ) \text{Considérons }\vec{v}=3\vec{e}_1+\vec{e}_2\implies[\vec{v}]_{\mathcal{B}\mathrm{can}}=\begin{pmatrix}3\\1\end{pmatrix} Consid e ˊ rons v = 3 e 1 + e 2 ⟹ [ v ] B c a n = ( 3 1 )
But : [ v ⃗ ] B ′ = ( α β ) ? ≃ ( 1.2 − 1.5 ) ( a ˋ peu pr e ˋ s, sur le dessin) \textbf{But : }[\vec{v}]_{\mathcal{B}'}=\begin{pmatrix}\alpha\\\beta\end{pmatrix}\text{ ?}\quad\color{orange}\simeq\begin{pmatrix}1.2\\-1.5\end{pmatrix}\text{ (à peu près, sur le dessin)} But : [ v ] B ′ = ( α β ) ? ≃ ( 1 . 2 − 1 . 5 ) ( a ˋ peu pr e ˋ s, sur le dessin)
Mais : [ v ⃗ ] B ′ = P B ′ ← B c a n ⏟ a ˋ calculer [ v ⃗ ] B c a n ⏟ ( 3 1 ) \text{Mais : }[\vec{v}]_{\mathcal{B}'}=\underbrace{P_{\mathcal{B}'\leftarrow\mathcal{B}_\mathrm{can}}}_{\text{à calculer}}\,\underbrace{[\vec{v}]_{\mathcal{B}\mathrm{can}}}_{\begin{pmatrix}3\\1\end{pmatrix}} Mais : [ v ] B ′ = a ˋ calculer P B ′ ← B c a n ( 3 1 ) [ v ] B c a n
Par la proposition, P B ′ ← B c a n = [ [ e ⃗ 1 ] B ′ [ e ⃗ 2 ] B ′ ] Or, { b ⃗ 1 = e ⃗ 1 + 2 e ⃗ 2 ← [ b ⃗ 1 ] B c a n = ( 1 2 ) b ⃗ 2 = − e ⃗ 1 + e ⃗ 2 ← [ b ⃗ 2 ] B c a n = ( − 1 1 ) ↓ { e ⃗ 1 = 1 3 b ⃗ 1 − 2 3 b ⃗ 2 → [ e ⃗ 1 ] B ′ = ( 1 / 3 − 2 / 3 ) e ⃗ 2 = 1 3 b ⃗ 1 + 1 3 b ⃗ 2 → [ b ⃗ 2 ] B ′ = ( 1 / 3 1 / 3 ) Donc P B ′ ← B c a n = ( 1 / 3 1 / 3 − 2 / 3 1 / 3 ) → [ v ⃗ ] B ′ = ( 1 / 3 1 / 3 − 2 / 3 1 / 3 ) ( 3 1 ) = ( 4 / 3 − 5 / 3 ) \begin{array}{llll} \text{Par la proposition, }\\ \text{}\\ \qquad P_{\mathcal{B}'}\leftarrow\mathcal{B}_\mathrm{can}=\left[[\vec{e}_1]_{\mathcal{B}'}[\vec{e}_2]_{\mathcal{B}'}\right]\\ \text{Or,}\\ \qquad\begin{cases} \vec{b}_1=\vec{e}_1+2\vec{e}_2&\leftarrow[\vec{b}_1]_{\mathcal{B}\mathrm{can}}=\begin{pmatrix}1\\2\end{pmatrix}\\ \text{}\\ \vec{b}_2=-\vec{e}_1+\vec{e}_2&\leftarrow[\vec{b}_2]_{\mathcal{B}\mathrm{can}}=\begin{pmatrix}-1\\1\end{pmatrix} \end{cases}\\ \big\downarrow\\ \qquad\begin{cases} \vec{e}_1=\frac{1}{3}\vec{b}_1-\frac{2}{3}\vec{b}_2&\rightarrow[\vec{e}_1]_{\mathcal{B}'}=\begin{pmatrix}1/3\\-2/3\end{pmatrix}\\ \text{}\\ \vec{e}_2=\frac{1}{3}\vec{b}_1+\frac{1}{3}\vec{b}_2&\rightarrow[\vec{b}_2]_{\mathcal{B}'}=\begin{pmatrix}1/3\\1/3\end{pmatrix} \end{cases}\\ \text{}\\ \text{Donc }P_{\mathcal{B}'}\leftarrow\mathcal{B}_\mathrm{can}=\begin{pmatrix}1/3&1/3\\-2/3&1/3\end{pmatrix} \text{}\\ \rightarrow[\vec{v}]_{\mathcal{B}'}=\begin{pmatrix}1/3&1/3\\-2/3&1/3\end{pmatrix}\begin{pmatrix}3\\1\end{pmatrix}=\begin{pmatrix}4/3\\-5/3\end{pmatrix} \end{array} Par la proposition, P B ′ ← B c a n = [ [ e 1 ] B ′ [ e 2 ] B ′ ] Or, ⎩ ⎪ ⎪ ⎪ ⎪ ⎪ ⎨ ⎪ ⎪ ⎪ ⎪ ⎪ ⎧ b 1 = e 1 + 2 e 2 b 2 = − e 1 + e 2 ← [ b 1 ] B c a n = ( 1 2 ) ← [ b 2 ] B c a n = ( − 1 1 ) ↓ ⏐ ⏐ ⎩ ⎪ ⎪ ⎪ ⎪ ⎪ ⎨ ⎪ ⎪ ⎪ ⎪ ⎪ ⎧ e 1 = 3 1 b 1 − 3 2 b 2 e 2 = 3 1 b 1 + 3 1 b 2 → [ e 1 ] B ′ = ( 1 / 3 − 2 / 3 ) → [ b 2 ] B ′ = ( 1 / 3 1 / 3 ) Donc P B ′ ← B c a n = ( 1 / 3 − 2 / 3 1 / 3 1 / 3 ) → [ v ] B ′ = ( 1 / 3 − 2 / 3 1 / 3 1 / 3 ) ( 3 1 ) = ( 4 / 3 − 5 / 3 )
P B ′ ← B c a n = ( P B c a n ← B ′ ) − 1 = [ [ b ⃗ 1 ] B c a n [ b ⃗ 2 ] B c a n ] − 1 = ( 1 − 1 2 1 ) − 1 = 1 3 ( 1 1 − 2 1 ) = ( 1 / 3 1 / 3 − 2 / 3 1 / 3 ) \begin{aligned} P_{\mathcal{B}'\leftarrow\mathcal{B}_\mathrm{can}}&=\left(P_{\mathcal{B}\mathrm{can}\leftarrow\mathcal{B}'}\right)^{-1}\\ &=\left[[\vec{b}_1]_{\mathcal{B}\mathrm{can}}[\vec{b}_2]_{\mathcal{B}\mathrm{can}}\right]^{-1}\\ &=\begin{pmatrix}1&-1\\2&1\end{pmatrix}^{-1}\\ &=\frac{1}{3}\begin{pmatrix}1&1\\-2&1\end{pmatrix}=\begin{pmatrix}1/3&1/3\\-2/3&1/3\end{pmatrix} \end{aligned} P B ′ ← B c a n = ( P B c a n ← B ′ ) − 1 = [ [ b 1 ] B c a n [ b 2 ] B c a n ] − 1 = ( 1 2 − 1 1 ) − 1 = 3 1 ( 1 − 2 1 1 ) = ( 1 / 3 − 2 / 3 1 / 3 1 / 3 )
Donc pour un vecteur quelconque v ⃗ , [ v ⃗ ] B c a n = ( v 1 v 2 ) \text{Donc pour un vecteur quelconque }\vec{v},[\vec{v}]_{\mathcal{B}\mathrm{can}}=\begin{pmatrix}v_1\\v_2\end{pmatrix} Donc pour un vecteur quelconque v , [ v ] B c a n = ( v 1 v 2 )
[ v ⃗ ] B ′ = ( 1 / 3 1 / 3 − 2 / 3 1 / 3 ) ( v 1 v 2 ) = ( 1 / 3 v 1 1 / 3 v 2 − 2 / 3 v 1 1 / 3 v 2 ) \boxed{[\vec{v}]_{\mathcal{B}'}=\begin{pmatrix}1/3&1/3\\-2/3&1/3\end{pmatrix}\begin{pmatrix}v_1\\v_2\end{pmatrix}= \begin{pmatrix}1/3v_1&1/3v_2\\-2/3v_1&1/3v_2\end{pmatrix} } [ v ] B ′ = ( 1 / 3 − 2 / 3 1 / 3 1 / 3 ) ( v 1 v 2 ) = ( 1 / 3 v 1 − 2 / 3 v 1 1 / 3 v 2 1 / 3 v 2 )