On identifie chaque "liste" ( x 1 , x 2 , … , x n ) ∈ R n (x_1,x_2,\ldots,x_n)\in\R^n ( x 1 , x 2 , … , x n ) ∈ R n avec un vecteur de R n \R^n R n noté
x ⃗ = ( x 1 x 2 ⋮ x n ) \vec{x}= \begin{pmatrix} x_1 \\ x_2 \\ \vdots\\ x_n \end{pmatrix} x = ⎝ ⎜ ⎜ ⎜ ⎜ ⎛ x 1 x 2 ⋮ x n ⎠ ⎟ ⎟ ⎟ ⎟ ⎞
Si x ⃗ = ( x 1 x 2 ⋮ x n ) , y ⃗ = ( y 1 y 2 ⋮ y n ) , x ⃗ + y ⃗ ≔ ( x 1 + y 1 x 2 + y 2 ⋮ x n + y n ) \text{Si } \vec{x}= \begin{pmatrix} x_1 \\ x_2 \\ \vdots\\ x_n \end{pmatrix},\vec{y}= \begin{pmatrix} y_1 \\ y_2 \\ \vdots\\ y_n \end{pmatrix},\vec{x}+\vec{y}\coloneqq \begin{pmatrix} x_1 + y_1 \\ x_2 +y_2 \\ \vdots\\ x_n + y_n \end{pmatrix} Si x = ⎝ ⎜ ⎜ ⎜ ⎜ ⎛ x 1 x 2 ⋮ x n ⎠ ⎟ ⎟ ⎟ ⎟ ⎞ , y = ⎝ ⎜ ⎜ ⎜ ⎜ ⎛ y 1 y 2 ⋮ y n ⎠ ⎟ ⎟ ⎟ ⎟ ⎞ , x + y : = ⎝ ⎜ ⎜ ⎜ ⎜ ⎛ x 1 + y 1 x 2 + y 2 ⋮ x n + y n ⎠ ⎟ ⎟ ⎟ ⎟ ⎞
Géométriquement, l'addition correspond à la règle du parallélogramme :
Remarques
Si λ ∈ R \lambda\in\R λ ∈ R est un scalaire (c'est-à-dire un nombre sans dimension), et x ⃗ \vec{x} x un vecteur de R n \R^n R n :
x ⃗ = ( x 1 x 2 ⋮ x n ) \vec{x}=\begin{pmatrix}x_1\\x_2\\\vdots\\x_n\end{pmatrix} x = ⎝ ⎜ ⎜ ⎜ ⎜ ⎛ x 1 x 2 ⋮ x n ⎠ ⎟ ⎟ ⎟ ⎟ ⎞
La multiplication de x ⃗ \vec{x} x par λ \lambda λ est un vecteur défini par
λ x ⃗ ≔ ( λ x 1 λ x 2 ⋮ λ x n ) \lambda\vec{x}\coloneqq\begin{pmatrix} \lambda x_1\\ \lambda x_2\\ \vdots\\ \lambda x_n \end{pmatrix} λ x : = ⎝ ⎜ ⎜ ⎜ ⎜ ⎛ λ x 1 λ x 2 ⋮ λ x n ⎠ ⎟ ⎟ ⎟ ⎟ ⎞
Géométriquement :
Pour tout x ⃗ , y ⃗ , z ⃗ ∈ R n \vec{x},\vec{y},\vec{z}\in\R^n x , y , z ∈ R n et tout scalaire λ , μ ∈ R \lambda,\mu\in\R λ , μ ∈ R ,
x ⃗ + y ⃗ = y ⃗ + x ⃗ \vec{x}+\vec{y}=\vec{y}+\vec{x} x + y = y + x
x ⃗ + ( y ⃗ + z ⃗ ) = ( x ⃗ + y ⃗ ) + z ⃗ \vec{x}+(\vec{y}+\vec{z})=(\vec{x}+\vec{y})+\vec{z} x + ( y + z ) = ( x + y ) + z
λ ( x ⃗ + y ⃗ ) = λ x ⃗ + λ y ⃗ \lambda(\vec{x}+\vec{y})=\lambda\vec{x}+\lambda\vec{y} λ ( x + y ) = λ x + λ y
( λ + μ ) x ⃗ = λ x ⃗ + μ x ⃗ (\lambda+\mu)\vec{x}=\lambda\vec{x}+\mu\vec{x} ( λ + μ ) x = λ x + μ x
λ ( μ x ⃗ ) = ( λ μ ) x ⃗ = μ ( λ x ⃗ ) \lambda(\mu\vec{x})=(\lambda\mu)\vec{x}=\mu(\lambda\vec{x}) λ ( μ x ) = ( λ μ ) x = μ ( λ x )
⇒ Avec l’addition et la multiplication par un scalaire, on peut faire une arithm e ˊ tique vectorielle. \begin{aligned} \Rightarrow\quad&\text{Avec l'addition et la multiplication par un scalaire, }\\ &\text{on peut faire une arithmétique vectorielle.} \end{aligned} ⇒ Avec l’addition et la multiplication par un scalaire, on peut faire une arithm e ˊ tique vectorielle.
Remarque : il s'agit de la généralisation de la notion de "parallélisme" à n n n dimensions.
Deux vecteurs x ⃗ \vec{x} x , y ⃗ \vec{y} y de R n \R^n R n sont colinéaires si l'un peut s'obtenir à partir de l'autre par la multiplication par un scalaire. Autrement dit, il doit exister un λ ∈ R \lambda\in\R λ ∈ R tel que x ⃗ = λ y ⃗ \vec{x}=\lambda\vec{y} x = λ y ou y ⃗ = λ x ⃗ \vec{y}=\lambda\vec{x} y = λ x .
Remarque : le vecteur nul 0 ⃗ \vec{0} 0 est colinéaire à tous les vecteurs de R n \R^n R n , puisque ∀ x ⃗ , 0 ⃗ = 0 x ⃗ \forall \vec{x},\vec{0}=0\vec{x} ∀ x , 0 = 0 x .
Soient v ⃗ 1 , v ⃗ 2 , … , v ⃗ p \vec{v}_1,\vec{v}_2,\ldots,\vec{v}_p v 1 , v 2 , … , v p des vecteurs de R n \R^n R n et α 1 , α 2 , … , α p \alpha_1,\alpha_2,\ldots,\alpha_p α 1 , α 2 , … , α p des scalaires ( α i ∈ R , ∀ i = 1 , 2 , … , p ) (\alpha_i\in\R,\forall i =1,2,\ldots,p) ( α i ∈ R , ∀ i = 1 , 2 , … , p ) .
Alors α 1 v ⃗ 1 + α 2 v ⃗ 2 + … + α p v ⃗ p ∈ R n \alpha_1\vec{v}_1+\alpha_2\vec{v}_2+\ldots+\alpha_p\vec{v}_p\in\R^n α 1 v 1 + α 2 v 2 + … + α p v p ∈ R n est une combinaison linéaire des v ⃗ 1 , v ⃗ 2 , … , v ⃗ p \vec{v}_1,\vec{v}_2,\ldots,\vec{v}_p v 1 , v 2 , … , v p ; les α 1 , α 2 , … , α p \alpha_1,\alpha_2,\ldots,\alpha_p α 1 , α 2 , … , α p sont ses coefficients .
Soient v ⃗ 1 , v ⃗ 2 ∈ R 2 \vec{v}_1,\vec{v}_2\in\R^2 v 1 , v 2 ∈ R 2 fixés. Si α 1 , α 2 ∈ R \alpha_1,\alpha_2\in\R α 1 , α 2 ∈ R , soit
w ⃗ ≔ α 1 v ⃗ 1 + α 2 v ⃗ 2 \boxed{\vec{w}\coloneqq\alpha_1\vec{v}_1+\alpha_2\vec{v}_2} w : = α 1 v 1 + α 2 v 2
IMAGE 3.6
Si v ⃗ 1 = ( 3 6 ) , v ⃗ 2 = ( − 1 2 ) , w ⃗ = ( 5 − 2 ) \text{Si }\vec{v}_1=\begin{pmatrix}3\\6\end{pmatrix},\vec{v}_2 =\begin{pmatrix}-1\\2\end{pmatrix},\vec{w}=\begin{pmatrix}5\\-2\end{pmatrix} Si v 1 = ( 3 6 ) , v 2 = ( − 1 2 ) , w = ( 5 − 2 )
Est-ce que w ⃗ \vec{w} w est une combinaison linéaire de v ⃗ 1 \vec{v}_1 v 1 et v ⃗ 2 \vec{v}_2 v 2 ?
→ \rightarrow → On cherche α 1 , α 2 ∈ R \alpha_1,\alpha_2\in\R α 1 , α 2 ∈ R tels que
w ⃗ = α 1 v ⃗ 1 + α 2 v ⃗ 2 ( 5 − 2 ) = α 1 ( 3 6 ) + α 2 ( − 1 2 ) = ( 3 α 1 α 2 6 α 1 + 2 α 2 ) { 3 α 1 − α 2 = 5 6 α 1 + 2 α 2 = − 2 → syst e ˋ me ! ⇒ α 1 = 2 3 , α 2 = − 3 \begin{array}{l} \begin{aligned} \vec{w}&=\alpha_1\vec{v}_1+\alpha_2\vec{v}_2\\ \begin{pmatrix}\color{red}5\\\color{red}-2\end{pmatrix} &=\alpha_1\begin{pmatrix}3\\6\end{pmatrix}+ \alpha_2\begin{pmatrix}-1\\2\end{pmatrix} =\begin{pmatrix}\color{blue}3\alpha_1\alpha_2\\\color{blue}6\alpha_1+2\alpha_2\end{pmatrix} \end{aligned} \\ \text{ } \\ \begin{array}{ll} \begin{cases} \color{blue}3\alpha_1-\alpha_2\color{black}&=\color{red}5\\ \color{blue}6\alpha_1+2\alpha_2\color{black}&=\color{red}-2 \end{cases}&\rightarrow\text{système !} \end{array} \\ \text{} \\ \Rightarrow\alpha_1=\frac{2}{3},\alpha_2=-3 \end{array} w ( 5 − 2 ) = α 1 v 1 + α 2 v 2 = α 1 ( 3 6 ) + α 2 ( − 1 2 ) = ( 3 α 1 α 2 6 α 1 + 2 α 2 ) { 3 α 1 − α 2 6 α 1 + 2 α 2 = 5 = − 2 → syst e ˋ me ! ⇒ α 1 = 3 2 , α 2 = − 3
Donc w ⃗ = 2 3 v ⃗ 1 − 3 v ⃗ 2 \vec{w}=\frac{2}{3}\vec{v}_1-3\vec{v}_2 w = 3 2 v 1 − 3 v 2 , la réponse est "oui".
Remarque : à moins que v ⃗ 1 \vec{v}_1 v 1 et v ⃗ 2 \vec{v}_2 v 2 soient colinéaires, ou que l'un d'eux soit nul, on a l'impression que l'on pourrait décomposer n'importe quel w ⃗ \vec{w} w du plan en une combinaison linéaire de v ⃗ 1 \vec{v}_1 v 1 et v ⃗ 2 \vec{v}_2 v 2 ...
IMAGE 3.7
Soient v ⃗ 1 , v ⃗ 2 \vec{v}_1,\vec{v}_2 v 1 , v 2 , deux vecteurs de R 3 \R^3 R 3 fixés. Soient α 1 , α 2 ∈ R \alpha_1,\alpha_2\in\R α 1 , α 2 ∈ R ; on considère
w ⃗ = α 1 v ⃗ 1 + α 2 v ⃗ 2 \vec{w}=\alpha_1\vec{v}_1+\alpha_2\vec{v}_2 w = α 1 v 1 + α 2 v 2
IMAGE 3.8
Si v ⃗ 1 \vec{v}_1 v 1 et v ⃗ 2 \vec{v}_2 v 2 ne sont pas colinéaires, alors toutes les combinaisons linéaires de la forme w ⃗ = α 1 v ⃗ 1 + α 2 v ⃗ 2 \vec{w}=\alpha_1\vec{v}_1+\alpha_2\vec{v}_2 w = α 1 v 1 + α 2 v 2 avec α 1 , α 2 ∈ R \alpha_1,\alpha_2\in\R α 1 , α 2 ∈ R "vivent" dans un plan engendré par v ⃗ 1 \vec{v}_1 v 1 et v ⃗ 2 \vec{v}_2 v 2 .
Si v ⃗ 1 \vec{v}_1 v 1 et v ⃗ 2 \vec{v}_2 v 2 sont colinéaires, alors toutes ces combinaisons linéaires "vivent" sur la droite dirigée par v ⃗ 1 \vec{v}_1 v 1 (ou v ⃗ 2 \vec{v}_2 v 2 ).
Si v ⃗ 1 = ( 1 0 1 ) , v ⃗ 2 = ( 0 1 − 1 ) w ⃗ = ( 1 1 1 ) \text{Si }\vec{v}_1=\begin{pmatrix}1\\0\\1\end{pmatrix}, \vec{v}_2=\begin{pmatrix}0\\1\\-1\end{pmatrix} \vec{w}=\begin{pmatrix}1\\1\\1\end{pmatrix} Si v 1 = ⎝ ⎜ ⎛ 1 0 1 ⎠ ⎟ ⎞ , v 2 = ⎝ ⎜ ⎛ 0 1 − 1 ⎠ ⎟ ⎞ w = ⎝ ⎜ ⎛ 1 1 1 ⎠ ⎟ ⎞
Est-ce que w ⃗ \vec{w} w peut s'exprimer comme une combinaison linéaire de v 1 ⃗ \vec{v_1} v 1 et v 2 ⃗ \vec{v_2} v 2 ?
→ \rightarrow → On cherche α 1 , α 2 \alpha_1,\alpha_2 α 1 , α 2 tels que
( 1 1 1 ) = α 1 ( 1 0 1 ) + α 2 ( 0 1 − 1 ) \begin{pmatrix}1\\1\\1\end{pmatrix}= \alpha_1\begin{pmatrix}1\\0\\1\end{pmatrix} +\alpha_2\begin{pmatrix}0\\1\\-1\end{pmatrix} ⎝ ⎜ ⎛ 1 1 1 ⎠ ⎟ ⎞ = α 1 ⎝ ⎜ ⎛ 1 0 1 ⎠ ⎟ ⎞ + α 2 ⎝ ⎜ ⎛ 0 1 − 1 ⎠ ⎟ ⎞
→ { α 1 = 1 α 2 = 1 α 1 − α 2 = 1 \begin{aligned} &\rightarrow &&\begin{cases} \begin{alignedat}{3}&\alpha_1& &=1\\ & &\alpha_2&=1\\ &\alpha_1&-\alpha_2&=1 \end{alignedat} \end{cases}\\ \end{aligned} → ⎩ ⎪ ⎪ ⎨ ⎪ ⎪ ⎧ α 1 α 1 α 2 − α 2 = 1 = 1 = 1
→ \rightarrow → Pas de solution, la réponse est donc "non".
IMAGE 3.9
Soient v ⃗ 1 , v ⃗ 2 , … , v ⃗ p \vec{v}_1,\vec{v}_2,\ldots,\vec{v}_p v 1 , v 2 , … , v p des vecteurs de R n \R^n R n . La partie de R n \R^n R n engendrée par les v ⃗ 1 , v ⃗ 2 , … , v ⃗ p \vec{v}_1,\vec{v}_2,\ldots,\vec{v}_p v 1 , v 2 , … , v p est l'ensemble des points de R n \R^n R n associés à toutes les combinaisons possibles des v ⃗ 1 , v ⃗ 2 , … , v ⃗ p \vec{v}_1,\vec{v}_2,\ldots,\vec{v}_p v 1 , v 2 , … , v p .
Notation : Vect { v ⃗ 1 , v ⃗ 2 , … , v ⃗ p } ⊂ R n \text{Vect}\{\vec{v}_1,\vec{v}_2,\ldots,\vec{v}_p\}\sub\R^n Vect { v 1 , v 2 , … , v p } ⊂ R n , en anglais Span { v ⃗ 1 , v ⃗ 2 , … , v ⃗ p } \text{Span}\{\vec{v}_1,\vec{v}_2,\ldots,\vec{v}_p\} Span { v 1 , v 2 , … , v p } .
Dans dans R 3 \R^3 R 3
Si v ⃗ 1 ≠ 0 ⃗ , v ⃗ 2 ≠ 0 ⃗ \vec{v}_1≠\vec{0}, \vec{v}_2≠\vec{0} v 1 = 0 , v 2 = 0
IMAGE 3.10
Si v ⃗ 1 , v ⃗ 2 \vec{v}_1, \vec{v}_2 v 1 , v 2 ne sont pas colinéaires, Vect { v ⃗ 1 , v ⃗ 2 } \text{Vect}\{\vec{v}_1, \vec{v}_2\} Vect { v 1 , v 2 } est un plan .
Si v ⃗ 1 , v ⃗ 2 \vec{v}_1, \vec{v}_2 v 1 , v 2 sont colinéaires, Vect { v ⃗ 1 , v ⃗ 2 } \text{Vect}\{\vec{v}_1, \vec{v}_2\} Vect { v 1 , v 2 } est une droite .
Dans dans R 3 \R^3 R 3
Si v ⃗ 1 = ( 2 0 1 ) , v ⃗ 2 = ( 1 3 1 ) , v ⃗ 3 = ( − 1 1 1 ) \text{Si }\vec{v}_1=\begin{pmatrix}2\\0\\1\end{pmatrix},\vec{v}_2=\begin{pmatrix}1\\3\\1\end{pmatrix},\vec{v}_3=\begin{pmatrix}-1\\1\\1\end{pmatrix} Si v 1 = ⎝ ⎜ ⎛ 2 0 1 ⎠ ⎟ ⎞ , v 2 = ⎝ ⎜ ⎛ 1 3 1 ⎠ ⎟ ⎞ , v 3 = ⎝ ⎜ ⎛ − 1 1 1 ⎠ ⎟ ⎞
Vect { v ⃗ 1 , v ⃗ 2 , v ⃗ 3 } = R 3 \text{Vect}\{\vec{v}_1, \vec{v}_2,\vec{v}_3\}=\R^3 Vect { v 1 , v 2 , v 3 } = R 3 (tout entier).
( ∗ ) { a 11 x 1 + a 12 x 2 + … + a 1 n x n = b 1 a 21 x 1 + a 22 x 2 + … + a 2 n x n = b 2 ⋮ a m 1 x 1 + a m 2 x 2 + … + a m n x n = b m “syst e ˋ me" ⇕ “ e ˊ quation vectorielle" x 1 ( a 11 ⋮ a m 1 ) ⏟ a ⃗ 1 + x 2 ( a 12 ⋮ a m 2 ) ⏟ a ⃗ 2 + … + x n ( a 1 n ⋮ a m n ) = ( b 1 ⋮ b m ) ⏟ a ⃗ n \begin{array}{rl} (*) &\begin{cases} a_{11}x_1+a_{12}x_2+\ldots+a_{1n}x_n &= b_1 \\ a_{21}x_1+a_{22}x_2+\ldots+a_{2n}x_n &= b_2 \\ \vdots \\ a_{m1}x_1+a_{m2}x_2+\ldots+a_{mn}x_n &= b_m \\ \end{cases}\\ \\ & \qquad \text{\textquotedblleft système"}\\ & \qquad \qquad \Updownarrow &\\ & \text{\textquotedblleft équation vectorielle"} \\ \\ & x_1\underbrace{\begin{pmatrix}a_{11}\\ \vdots \\ a_{m1}\end{pmatrix}} _{\vec{a}_1} + x_2\underbrace{\begin{pmatrix}a_{12}\\ \vdots \\ a_{m2}\end{pmatrix}} _{\vec{a}_2} + \ldots + x_n\begin{pmatrix}a_{1n}\\ \vdots \\ a_{mn}\end{pmatrix} = \underbrace{\begin{pmatrix}b_{1}\\ \vdots \\ b_{m}\end{pmatrix}} _{\vec{a}_n} \end{array} ( ∗ ) ⎩ ⎪ ⎪ ⎪ ⎪ ⎪ ⎨ ⎪ ⎪ ⎪ ⎪ ⎪ ⎧ a 1 1 x 1 + a 1 2 x 2 + … + a 1 n x n a 2 1 x 1 + a 2 2 x 2 + … + a 2 n x n ⋮ a m 1 x 1 + a m 2 x 2 + … + a m n x n = b 1 = b 2 = b m “syst e ˋ me" ⇕ “ e ˊ quation vectorielle" x 1 a 1 ⎝ ⎜ ⎜ ⎛ a 1 1 ⋮ a m 1 ⎠ ⎟ ⎟ ⎞ + x 2 a 2 ⎝ ⎜ ⎜ ⎛ a 1 2 ⋮ a m 2 ⎠ ⎟ ⎟ ⎞ + … + x n ⎝ ⎜ ⎜ ⎛ a 1 n ⋮ a m n ⎠ ⎟ ⎟ ⎞ = a n ⎝ ⎜ ⎜ ⎛ b 1 ⋮ b m ⎠ ⎟ ⎟ ⎞
Ces vecteurs( a i ⃗ ∈ R m ) (\vec{a_{i}}\in\mathbb{R}^{m}) ( a i ∈ R m ) sont les colonnes de la matrice A A A ( m × n ) (m \times n) ( m × n ) associée à ( ∗ ) (*) ( ∗ ) .
Soit A A A une matrice ( m × n ) (m \times n) ( m × n ) , A = [ a ⃗ 1 ⋯ a ⃗ n ] A = [\vec{a}_1\cdots\vec{a}_n] A = [ a 1 ⋯ a n ] , a ⃗ i ∈ R m \vec{a}_i\in\mathbb{R}^{m} a i ∈ R m , et si
x ⃗ = ( x 1 ⋮ x n ) ∈ R n , \vec{x} = \begin{pmatrix}x_1\\ \vdots \\ x_n \end{pmatrix}\in \mathbb{R}^n, x = ⎝ ⎜ ⎜ ⎛ x 1 ⋮ x n ⎠ ⎟ ⎟ ⎞ ∈ R n ,
on définit A x ⃗ A\vec{x} A x comme le vecteur de R m \mathbb{R}^m R m définit par
A x ⃗ ≔ x 1 a ⃗ 1 + … + x n a ⃗ n , \boxed{A\vec{x}\coloneqq x_1\vec{a}_1 + \ldots + x_n\vec{a}_n}\text{,{}} A x : = x 1 a 1 + … + x n a n ,
où A x ⃗ A\vec{x} A x est le produit de A A A par x ⃗ \vec{x} x .
Contrainte : A ( m × n ) A (m \times \textcolor{red}{n}) A ( m × n ) multiple x ⃗ ∈ R n \vec{x}\in\mathbb{R}^\color{red}n x ∈ R n
On a ainsi une fonction : x ⃗ ↦ f ( x ⃗ ) ≔ A x ⃗ \vec{x}\mapsto f(\vec{x})\coloneqq A\vec{x} x ↦ f ( x ) : = A x
Image a ˋ mettre \color{red}\text{Image à mettre} Image a ˋ mettre
La fonction x ⃗ ↦ A x ⃗ \vec{x} \mapsto A\vec{x} x ↦ A x est linéraire , c'est-à-dire :
∀ x ⃗ , y ⃗ , A ( x ⃗ + y ⃗ = A x ⃗ + A y ⃗ ) \forall \vec{x},\vec{y},\, A(\vec{x}+\vec{y} = A\vec{x} + A\vec{y}) ∀ x , y , A ( x + y = A x + A y )
∀ x ⃗ ∈ R n , ∀ λ ∈ R , A ( λ x ⃗ ) = λ A x ⃗ . \forall \vec{x} \in \mathbb{R}^{n}, \, \forall\lambda\in\mathbb{R},\,A(\lambda\vec{x}) = \lambda A\vec{x}. ∀ x ∈ R n , ∀ λ ∈ R , A ( λ x ) = λ A x .
Si A = [ a 1 ⃗ ⋯ a ⃗ ∗ n ] , x ⃗ = ( x 1 ⋮ x n ) , y ⃗ = ( y 1 ⋮ y n ) , A ( x ⃗ + y ⃗ ) = A ( x 1 + y 1 ⋮ x n + y n ) = d e ˊ f ( x 1 + y 1 ) a ⃗ 1 + … + ( x n + y n ) a ⃗ n = ( x 1 a ⃗ 1 + … + x n a ⃗ n ⏟ A x ⃗ ) + ( y 1 a ⃗ 1 + … + y n a ⃗ n ⏟ A y ⃗ ) □ \begin{array}{lr}\text{Si }A = [\vec{a_1}\cdots\vec{a}*n], \, \vec{x} = \begin{pmatrix}x_1\\ \vdots \\ x_n \end{pmatrix},\vec{y} =\begin{pmatrix}y_1\\ \vdots \\ y_n \end{pmatrix},&\\ A(\vec{x}+\vec{y}) = A \begin{pmatrix} x_1+y_1 \\ \vdots \\ x_n + y_n \end{pmatrix} \stackrel{\text{déf}}{=}(x_1+y_1)\vec{a}_1 + \ldots + (x_n+y_n)\vec{a}_n &\\= (\underbrace{x_1\vec{a}_1+\ldots+x_n\vec{a}_n}_{A\vec{x}})+ (\underbrace{y_1\vec{a}_1+\ldots+y_n\vec{a}_n}_{A\vec{y}}) \\ &\square\end{array} Si A = [ a 1 ⋯ a ∗ n ] , x = ⎝ ⎜ ⎜ ⎛ x 1 ⋮ x n ⎠ ⎟ ⎟ ⎞ , y = ⎝ ⎜ ⎜ ⎛ y 1 ⋮ y n ⎠ ⎟ ⎟ ⎞ , A ( x + y ) = A ⎝ ⎜ ⎜ ⎛ x 1 + y 1 ⋮ x n + y n ⎠ ⎟ ⎟ ⎞ = d e ˊ f ( x 1 + y 1 ) a 1 + … + ( x n + y n ) a n = ( A x x 1 a 1 + … + x n a n ) + ( A y y 1 a 1 + … + y n a n ) □
Reformulons ( ∗ ) (*) ( ∗ ) sous forme vectorielle :
A = [ a ⃗ 1 ⋯ a ⃗ n ] , b ⃗ = ( b 1 ⋮ b m ) , \\\ A = [\vec{a}_1 \cdots \vec{a}_n],\, \vec{b} = \begin{pmatrix}b_1 \\ \vdots \\ b_m\end{pmatrix}, A = [ a 1 ⋯ a n ] , b = ⎝ ⎜ ⎜ ⎛ b 1 ⋮ b m ⎠ ⎟ ⎟ ⎞ ,
( ∗ ) (*) ( ∗ ) devient A x ⃗ = b ⃗ ( ∗ ∗ ) A\vec{x} = \vec{b}\,(**) A x = b ( ∗ ∗ ) , où x ⃗ ∈ R n \vec{x}\in \mathbb{R}^n x ∈ R n et y ⃗ ∈ R m \vec{y}\in\mathbb{R}^m y ∈ R m .
Une preuve "compacte" du théorème "0 0 0 , 1 1 1 , ∞ \infty ∞ " :
Supposons que ( ∗ ∗ ) (**) ( ∗ ∗ ) possède deux solutions distinctes : x ⃗ \vec{x} x et y ⃗ ( x ⃗ , y ⃗ ∈ R n ) \vec{y}\ (\vec{x},\vec{y}\in\mathbb{R}^n) y ( x , y ∈ R n )
A x ⃗ = b ⃗ A y ⃗ = b ⃗ A\vec{x} = \vec{b}\\ A\vec{y} = \vec{b} A x = b A y = b
Soit , z ⃗ ≔ x ⃗ + λ ( y ⃗ − x ⃗ ⏞ v ⃗ ≠ 0 ⃗ ) o u ˋ λ ∈ R est quelconque. Alors A z ⃗ = A ( x ⃗ + λ ( y ⃗ − x ⃗ ) ) = A x ⃗ + A ( λ ( y ⃗ − x ⃗ ) ) = A x ⃗ ⏟ b ⃗ + λ ( A y ⃗ − A x ⃗ ⏟ 0 ⃗ ( ∈ R m ) ) = b ⃗ □ \begin{array}{lr}\text{Soit},\vec{z}\coloneqq \vec{x} + \lambda(\overbrace{\vec{y}-\vec{x}}^{\textcolor{blue}{\vec{v}} \not = \vec{0}})\text{ où }\lambda \in \mathbb{R} \text{ est quelconque.}&\\ \begin{array}{rl} \text{Alors } A\vec{z} &= A(\vec{x} + \lambda (\vec{y} - \vec{x}))\\ &= A\vec{x} + A(\lambda(\vec{y}-\vec{x})) \\ &= \underbrace{A\vec{x}}_{\vec{b}} + \lambda(\underbrace{A\vec{y}-A\vec{x}}_{\vec{0}(\in \mathbb{R}^m)})\\ &=\vec{b} \end{array}& \\ &\square\end{array} Soit , z : = x + λ ( y − x v = 0 ) o u ˋ λ ∈ R est quelconque. Alors A z = A ( x + λ ( y − x ) ) = A x + A ( λ ( y − x ) ) = b A x + λ ( 0 ( ∈ R m ) A y − A x ) = b □
Image a ˋ mettre \color{red}\text{Image à mettre} Image a ˋ mettre
Remarque sur "A x ⃗ A\vec{x} A x " :
Si A = [ a ⃗ 1 ⋯ a ⃗ n ] , x ⃗ = ( x 1 ⋮ x n ) , A x ⃗ = x 1 a ⃗ 1 + … + x n a ⃗ n se calcule : ( a 11 a 12 a 13 ⋯ a 1 n a 21 a 22 a 23 ⋯ a 2 n ⋮ ⋮ ⋮ ⋮ a m 1 a m 2 a m 3 ⋯ a m n ) ( x 1 x 2 ⋮ x n ) = ( a 11 x 1 a 12 x 2 ⋯ a 1 n x n a 21 x 1 a 22 x 2 ⋯ a 2 n x n ⋮ ⋮ ⋮ a m 1 x 1 a m 2 x 2 ⋯ a m n x n ) \begin{aligned}\text{Si \,}A = [\vec{a}_1\cdots\vec{a}_n], \, \vec{x} = \begin{pmatrix} x_1 \\ \vdots \\ x_n \end{pmatrix},\, A\vec{x} = x_1\vec{a}_1 + \ldots + x_n\vec{a}_n \\ \text{se calcule :} \begin{pmatrix} \textcolor{orange}{a_{11}} & \textcolor{blue}{a_{12}} & a_{13} & \cdots & \textcolor{red}{a_{1n}} \\ a_{21} & a_{22} & a_{23} & \cdots & a_{2n} \\ \vdots & \vdots & \vdots & & \vdots \\ a_{m1} & a_{m2} & a_{m3} & \cdots & a_{mn} \end{pmatrix}\begin{pmatrix} \textcolor{orange}{x_1} \\ \textcolor{blue}{x_2} \\ \vdots \\ \textcolor{red}{x_n} \end{pmatrix} \\ \text{} \\= \begin{pmatrix} \textcolor{orange}{a_{11}x_1} & \textcolor{blue}{a_{12}x_2} & \cdots & \textcolor{red}{a_{1n}x_n} \\ a_{21}x_1 & a_{22}x_2 & \cdots & a_{2n}x_n \\ \vdots & \vdots & & \vdots \\ a_{m1}x_1 & a_{m2}x_2 & \cdots & a_{mn}x_n \end{pmatrix} \end{aligned} Si A = [ a 1 ⋯ a n ] , x = ⎝ ⎜ ⎜ ⎛ x 1 ⋮ x n ⎠ ⎟ ⎟ ⎞ , A x = x 1 a 1 + … + x n a n se calcule : ⎝ ⎜ ⎜ ⎜ ⎜ ⎛ a 1 1 a 2 1 ⋮ a m 1 a 1 2 a 2 2 ⋮ a m 2 a 1 3 a 2 3 ⋮ a m 3 ⋯ ⋯ ⋯ a 1 n a 2 n ⋮ a m n ⎠ ⎟ ⎟ ⎟ ⎟ ⎞ ⎝ ⎜ ⎜ ⎜ ⎜ ⎛ x 1 x 2 ⋮ x n ⎠ ⎟ ⎟ ⎟ ⎟ ⎞ = ⎝ ⎜ ⎜ ⎜ ⎜ ⎛ a 1 1 x 1 a 2 1 x 1 ⋮ a m 1 x 1 a 1 2 x 2 a 2 2 x 2 ⋮ a m 2 x 2 ⋯ ⋯ ⋯ a 1 n x n a 2 n x n ⋮ a m n x n ⎠ ⎟ ⎟ ⎟ ⎟ ⎞
Conclusion : A x ⃗ = b ⃗ ⟺ b ⃗ A\vec{x}=\vec{b} \iff \vec{b} A x = b ⟺ b est une combinaison linéaire des solonnes de A . ⟺ b ⃗ ∈ Vect { a ⃗ 1 , … , a ⃗ n } A. \iff \vec{b} \in \text{Vect}\{\vec{a}_1,\ldots,\vec{a}_{n}\} A . ⟺ b ∈ Vect { a 1 , … , a n } , où les a ⃗ 1 , … a ⃗ n \vec{a}_1, \ldots\vec{a}_n a 1 , … a n sont les colonnes de A . A. A .
{ Si b ⃗ = 0 ⃗ , le syst e ˋ me A x ⃗ = 0 ⃗ est homog e ˋ ne . Si b ⃗ ≠ 0 ⃗ , le syst e ˋ me A x ⃗ = 0 ⃗ est inhomog e ˋ ne . \begin{cases} \text{Si } \vec{b} = \vec{0} \text{, le système }A\vec{x} = \vec{0} \text{ est } \textbf{homogène}. \\ \text{Si } \vec{b} \not = \vec{0} \text{, le système }A\vec{x} = \vec{0} \text{ est } \textbf{inhomogène}. \end{cases} { Si b = 0 , le syst e ˋ me A x = 0 est homog e ˋ ne . Si b = 0 , le syst e ˋ me A x = 0 est inhomog e ˋ ne .
Remarque : Tout système homogène A x ⃗ = 0 ⃗ ( ∈ R m ) A\vec{x} = \vec{0} \,(\in \mathbb{R}^m) A x = 0 ( ∈ R m ) possède la solution triviale : x ⃗ = 0 ⃗ ( ∈ R n ) \vec{x} = \vec{0} \, (\in \mathbb{R}^{n}) x = 0 ( ∈ R n )
Intéressant : savoir s'il existe des solutions non-trivales, et décrire leur structure.
Remarque : Dès qu'on a vue solution non-triviale pour A x ⃗ = 0 ⃗ A\vec{x} = \vec{0} A x = 0 , on en a une infinité. En effet, si v ⃗ ≠ 0 ⃗ \vec{v}\not =\vec{0} v = 0 et si A v ⃗ = 0 ⃗ A\vec{v} = \vec{0} A v = 0 . Alors, pour tout scalaire λ ∈ R \lambda \in \mathbb{R} λ ∈ R , si w ⃗ ≔ λ v ⃗ \vec{w}\coloneqq\lambda\vec{v} w : = λ v , on a que
A w ⃗ = A ( λ v ⃗ ) = λ A v ⃗ ⏟ = 0 ⃗ = λ 0 ⃗ = 0 ⃗ , A\vec{w} = A(\lambda\vec{v}) = \lambda \underbrace{A\vec{v}}_{=\vec{0}} = \lambda \vec{0} = \vec{0}, A w = A ( λ v ) = λ = 0 A v = λ 0 = 0 ,
donc w ⃗ \vec{w} w est aussi une solution non-triviale de A x ⃗ = 0 ⃗ A\vec{x} = \vec{0} A x = 0 .
( 3 5 − 4 − 3 − 2 4 b 1 − 8 ) ( x 1 x 2 x 3 ) = ( 0 0 0 ) ( ∗ ) A x ⃗ 0 ⃗ ← homog e ˋ ne Syst e ˋ me r e ˊ duit: [ 1 0 − 4 3 0 0 1 0 0 0 0 0 0 ] → { x 1 = 4 3 x 3 x 2 = 0 x 3 libre Ensemble des solutions de ( ∗ ) : { ( 4 3 x 3 0 x 3 ) ∣ x 3 libre } = { λ v ⃗ ∣ λ ∈ R } = Vect { v ⃗ } o u ˋ v ⃗ = ( 4 3 0 1 ) \begin{array}{ccccl} \begin{pmatrix} 3 & 5 & -4 \\ -3 & -2 & 4 \\ b & 1 & -8 \\ \end{pmatrix}&\begin{pmatrix} x_1 \\ x_2 \\ x_3 \\ \end{pmatrix}& = &\begin{pmatrix} 0 \\ 0 \\ 0 \\ \end{pmatrix}&(*)\\ \\ A&\vec{x}& & \vec{0} & \leftarrow\text{homogène} \end{array}\\ \\ \text{} \\ \begin{array}{l} \text{Système réduit:} \left[\begin{array}{ccc:c} 1 & 0 & -\frac{4}{3} & 0 \\ 0 & 1 & 0 & 0 \\ 0 & 0 & 0 & 0 \end{array}\right] \rightarrow \begin{cases} x_1 = \frac{4}{3}x_3 \\ x_2 = 0 \\ x_3 \text{ libre} \end{cases}\\ \\ \text{Ensemble des solutions de } (*) : \end{array}\\ \text{} \\ \begin{Bmatrix} \left. \begin{pmatrix} \frac{4}{3}x_3\\ 0 \\ x_3 \end{pmatrix}\right\vert x_3 \text{ libre} \end{Bmatrix} = \{\lambda\vec{v}|\lambda \in\R \} = \textcolor{red}{\text{Vect}\{\vec{v}\}} \text{ où }\vec{v} = \begin{pmatrix} \frac{4}{3} \\ 0 \\ 1 \end{pmatrix} ⎝ ⎜ ⎛ 3 − 3 b 5 − 2 1 − 4 4 − 8 ⎠ ⎟ ⎞ A ⎝ ⎜ ⎛ x 1 x 2 x 3 ⎠ ⎟ ⎞ x = ⎝ ⎜ ⎛ 0 0 0 ⎠ ⎟ ⎞ 0 ( ∗ ) ← homog e ˋ ne Syst e ˋ me r e ˊ duit: ⎣ ⎢ ⎡ 1 0 0 0 1 0 − 3 4 0 0 0 0 0 ⎦ ⎥ ⎤ → ⎩ ⎪ ⎪ ⎨ ⎪ ⎪ ⎧ x 1 = 3 4 x 3 x 2 = 0 x 3 libre Ensemble des solutions de ( ∗ ) : ⎩ ⎪ ⎨ ⎪ ⎧ ⎝ ⎜ ⎛ 3 4 x 3 0 x 3 ⎠ ⎟ ⎞ ∣ ∣ ∣ ∣ ∣ ∣ ∣ x 3 libre ⎭ ⎪ ⎬ ⎪ ⎫ = { λ v ∣ λ ∈ R } = Vect { v } o u ˋ v = ⎝ ⎜ ⎛ 3 4 0 1 ⎠ ⎟ ⎞
Remarque : Vect { v ⃗ } \color{red}\text{Vect}\{\vec{v}\} Vect { v } est la droite de R 3 \R^3 R 3 dirigée pas v ⃗ \vec{v} v , passant par l'origine.
( 1 1 1 1 1 0 − 1 0 ) ( x 1 x 2 x 3 x 4 ) = ( 0 0 ) Syst e ˋ me r e ˊ duit: [ 1 0 − 1 0 0 0 1 0 0 0 ] → { x 1 = x 3 x 2 = − 2 x 3 − x 4 x 3 et x 4 libres Ensemble des solutions de ( ∗ ) : { ( x 3 − 2 x 3 − x 4 x 3 x 4 ) ∣ x 3 , x 4 libres } = { λ ( 1 − 2 1 0 ) + μ ( 0 − 1 0 1 ) ∣ x 3 , x 4 libres } = Vect { v ⃗ 1 , v ⃗ 2 } \begin{pmatrix} 1 & 1 & 1 & 1\\ 1 & 0 & -1 & 0 \end{pmatrix} \begin{pmatrix} x_1 \\ x_2 \\ x_3 \\ x_4 \end{pmatrix} = \begin{pmatrix} 0 \\ 0 \end{pmatrix}\\ \begin{array}{l} \text{Système réduit:} \left[\begin{array}{cccc:c} 1 & 0 & -1 & 0 & 0 \\ 0 & 1 & 0 & 0 & 0 \end{array}\right] \rightarrow \begin{cases} x_1 = x_3 \\ x_2 = -2x_3-x_4 \\ x_3 \text{ et } x_4 \text{ libres} \end{cases}\\ \text{Ensemble des solutions de } (*) : \\ \text{} \\ \end{array}\\ \begin{array}{rl} &\begin{Bmatrix}\left. \begin{pmatrix} x_3\\ -2x_3-x_4 \\ x_3\\ x_4 \end{pmatrix}\right\vert x_3, x_4\text{ libres} \end{Bmatrix}\\ \text{} \\ = & \begin{Bmatrix}\left. \lambda\begin{pmatrix} 1\\-2\\1\\0 \end{pmatrix} + \mu\begin{pmatrix} 0\\-1\\0\\1 \end{pmatrix}\right\vert x_3, x_4\text{ libres} \end{Bmatrix}\\ \text{} \\ = & \color{red}\text{Vect}\{\vec{v}_1,\vec{v}_2\} \end{array} ( 1 1 1 0 1 − 1 1 0 ) ⎝ ⎜ ⎜ ⎜ ⎛ x 1 x 2 x 3 x 4 ⎠ ⎟ ⎟ ⎟ ⎞ = ( 0 0 ) Syst e ˋ me r e ˊ duit: [ 1 0 0 1 − 1 0 0 0 0 0 ] → ⎩ ⎪ ⎪ ⎨ ⎪ ⎪ ⎧ x 1 = x 3 x 2 = − 2 x 3 − x 4 x 3 et x 4 libres Ensemble des solutions de ( ∗ ) : = = ⎩ ⎪ ⎪ ⎪ ⎨ ⎪ ⎪ ⎪ ⎧ ⎝ ⎜ ⎜ ⎜ ⎛ x 3 − 2 x 3 − x 4 x 3 x 4 ⎠ ⎟ ⎟ ⎟ ⎞ ∣ ∣ ∣ ∣ ∣ ∣ ∣ ∣ ∣ x 3 , x 4 libres ⎭ ⎪ ⎪ ⎪ ⎬ ⎪ ⎪ ⎪ ⎫ ⎩ ⎪ ⎪ ⎪ ⎨ ⎪ ⎪ ⎪ ⎧ λ ⎝ ⎜ ⎜ ⎜ ⎛ 1 − 2 1 0 ⎠ ⎟ ⎟ ⎟ ⎞ + μ ⎝ ⎜ ⎜ ⎜ ⎛ 0 − 1 0 1 ⎠ ⎟ ⎟ ⎟ ⎞ ∣ ∣ ∣ ∣ ∣ ∣ ∣ ∣ ∣ x 3 , x 4 libres ⎭ ⎪ ⎪ ⎪ ⎬ ⎪ ⎪ ⎪ ⎫ Vect { v 1 , v 2 }
Remarque : Vect { v ⃗ 1 , v ⃗ 2 } \color{red}\text{Vect}\{\vec{v}_1,\vec{v}_2\} Vect { v 1 , v 2 } est un plan dans R 4 \R^4 R 4 passant par l'origine, engendré par v ⃗ 1 \vec{v}_1 v 1 et v ⃗ 2 \vec{v}_2 v 2 .
Les solutoins de A x ⃗ = b ⃗ A\vec{x}=\vec{b} A x = b peuvent s'écrire x ⃗ = p ⃗ + v ⃗ \vec{x} = \vec{p} + \vec{v} x = p + v , où
Soit p ⃗ une solution particuli e ˋ re de A x ⃗ = b ⃗ : Soit x ⃗ une autre solution particuli e ˋ re : A p ⃗ = b ⃗ − A x ⃗ = b ⃗ A ( p ⃗ − x ⃗ ) = 0 ⃗ Donc p ⃗ − x ⃗ est solution du syst e ˋ me homog e ˋ ne associ e ˊ ! v ⃗ ≔ p ⃗ − x ⃗ ⟹ x ⃗ = p ⃗ − v ⃗ □ \begin{array}{lr} \begin{array}{l} \text{Soit $\vec{p}$ une solution particulière de $A\vec{x} = \vec{b}$ :}\\ \text{Soit $\vec{x}$ une autre solution particulière :} \\ \text{} \end{array} \begin{array}{rrl} & A\vec{p} &= \vec{b} \\ \textcolor{red}{-}&A\vec{x} &= \vec{b}\\ \hline & A(\vec{p}-\vec{x}) &= \vec{0} \end{array}&\\ \text{Donc }\vec{p}-\vec{x} \text{ est solution du système homogène associé ! }\\ \vec{v}\coloneqq\vec{p}-\vec{x} \implies \vec{x} = \vec{p}-\vec{v}&\\ &\square \end{array} Soit p une solution particuli e ˋ re de A x = b : Soit x une autre solution particuli e ˋ re : − A p A x A ( p − x ) = b = b = 0 Donc p − x est solution du syst e ˋ me homog e ˋ ne associ e ˊ ! v : = p − x ⟹ x = p − v □
( 3 5 − 4 − 3 − 2 4 b 1 − 8 ) ( x 1 x 2 x 3 ) = ( 7 − 1 − 4 ) A x ⃗ b ⃗ Syst e ˋ me r e ˊ duit: [ 1 0 − 4 3 − 1 0 1 0 2 0 0 0 0 ] → { x 1 = 4 3 x 3 − 1 x 2 = 2 x 3 libre Ensemble des solutions : { ( − 1 + 4 3 x 3 2 x 3 ) ∣ x 3 libre } = { ( − 1 2 0 ) ⏟ p ⃗ + λ ( 4 3 0 1 ) ⏟ v ⃗ ∣ λ ∈ R } \begin{array}{cccc} \begin{pmatrix} 3 & 5 & -4 \\ -3 & -2 & 4 \\ b & 1 & -8 \\ \end{pmatrix}&\begin{pmatrix} x_1 \\x_2 \\x_3 \\ \end{pmatrix}& = &\begin{pmatrix} 7 \\ -1 \\ -4 \\ \end{pmatrix}\\ \\ A&\vec{x}& & \vec{b} \end{array}\\ \\ \text{} \\ \begin{array}{l} \text{Système réduit:} \left[\begin{array}{ccc:c} 1 & 0 & -\frac{4}{3} & -1 \\ 0 & 1 & 0 & 2 \\ 0 & 0 & 0 & 0 \end{array}\right] \rightarrow \begin{cases} x_1 = \frac{4}{3}x_3-1 \\ x_2 = 2 \\ x_3 \text{ libre} \end{cases}\\ \\ \text{Ensemble des solutions :} \end{array}\\ \text{} \\ \begin{Bmatrix} \left. \begin{pmatrix} -1+\frac{4}{3}x_3\\ 2 \\ x_3 \end{pmatrix}\right\vert x_3 \text{ libre} \end{Bmatrix}\\ \text{}\\ = \begin{Bmatrix} \left. \underbrace{\begin{pmatrix} -1\\2\\0 \end{pmatrix}}_{\vec{p}} + \lambda\underbrace{\begin{pmatrix} \frac{4}{3}\\0\\1 \end{pmatrix}}_{\vec{v}}\right\vert \lambda \in \R \end{Bmatrix} ⎝ ⎜ ⎛ 3 − 3 b 5 − 2 1 − 4 4 − 8 ⎠ ⎟ ⎞ A ⎝ ⎜ ⎛ x 1 x 2 x 3 ⎠ ⎟ ⎞ x = ⎝ ⎜ ⎛ 7 − 1 − 4 ⎠ ⎟ ⎞ b Syst e ˋ me r e ˊ duit: ⎣ ⎢ ⎡ 1 0 0 0 1 0 − 3 4 0 0 − 1 2 0 ⎦ ⎥ ⎤ → ⎩ ⎪ ⎪ ⎨ ⎪ ⎪ ⎧ x 1 = 3 4 x 3 − 1 x 2 = 2 x 3 libre Ensemble des solutions : ⎩ ⎪ ⎨ ⎪ ⎧ ⎝ ⎜ ⎛ − 1 + 3 4 x 3 2 x 3 ⎠ ⎟ ⎞ ∣ ∣ ∣ ∣ ∣ ∣ ∣ x 3 libre ⎭ ⎪ ⎬ ⎪ ⎫ = ⎩ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎨ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎧ p ⎝ ⎜ ⎛ − 1 2 0 ⎠ ⎟ ⎞ + λ v ⎝ ⎜ ⎛ 3 4 0 1 ⎠ ⎟ ⎞ ∣ ∣ ∣ ∣ ∣ ∣ ∣ ∣ ∣ ∣ ∣ ∣ λ ∈ R ⎭ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎬ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎫
En variant λ \lambda λ , ces vecteurs sont toutes les solutions du système homogène associé A x ⃗ = 0 ⃗ A\vec{x} = \vec{0} A x = 0 (résoli plus haut).
( 1 1 1 1 1 0 − 1 0 ) ( x 1 x 2 x 3 x 4 ) = ( 5 − 1 ) “ A x ⃗ = b ⃗ " Syst e ˋ me r e ˊ duit: [ 1 0 − 1 0 − 1 0 1 2 1 6 ] → { x 1 = − 1 + x 3 x 2 = 6 − 2 x 3 − x 4 x 3 et x 4 libres Ensemble des solutions : { ( x 1 x 2 x 3 x 4 ) ⏟ x ⃗ = ( − 1 6 0 0 ) ⏟ p ⃗ + λ ( 1 − 2 1 0 ) ⏞ v ⃗ 1 + μ ( 0 − 1 0 1 ) ⏞ v ⃗ 2 ⏟ v ⃗ , sol. du probl e ˋ me homog e ˋ ne } \begin{pmatrix} 1 & 1 & 1 & 1\\ 1 & 0 & -1 & 0 \end{pmatrix} \begin{pmatrix} x_1 \\ x_2 \\ x_3 \\ x_4 \end{pmatrix} = \begin{pmatrix} 5 \\ -1 \end{pmatrix} \qquad \text{\textquotedblleft}A\vec{x}=\vec{b}"\\ \begin{array}{l} \text{Système réduit:} \left[\begin{array}{cccc:c} 1 & 0 & -1 & 0 & -1 \\ 0 & 1 & 2 & 1 & 6 \end{array}\right] \rightarrow \begin{cases} x_1 = -1 + x_3 \\ x_2 = 6 -2x_3-x_4 \\ x_3 \text{ et } x_4 \text{ libres} \end{cases}\\ \text{Ensemble des solutions :}\\ \text{} \\ \end{array}\\ \begin{array}{rl} &\begin{Bmatrix} \underbrace{\begin{pmatrix} x_1\\ x_2 \\ x_3\\ x_4 \end{pmatrix}}_{\vec{x}} = \underbrace{\begin{pmatrix} -1\\ 6 \\ 0\\ 0 \end{pmatrix}}_{\color{blue}\vec{p}} + \lambda \underbrace{\overbrace{\begin{pmatrix} 1\\ -2 \\ 1\\ 0 \end{pmatrix}}^{\color{red}\vec{v}_1} + \mu \overbrace{\begin{pmatrix} 0\\ -1 \\ 0\\ 1 \end{pmatrix}}^{\color{red}\vec{v}_2}}_{\vec{v}\text{, sol. du problème homogène}} \end{Bmatrix} \end{array} ( 1 1 1 0 1 − 1 1 0 ) ⎝ ⎜ ⎜ ⎜ ⎛ x 1 x 2 x 3 x 4 ⎠ ⎟ ⎟ ⎟ ⎞ = ( 5 − 1 ) “ A x = b " Syst e ˋ me r e ˊ duit: [ 1 0 0 1 − 1 2 0 1 − 1 6 ] → ⎩ ⎪ ⎪ ⎨ ⎪ ⎪ ⎧ x 1 = − 1 + x 3 x 2 = 6 − 2 x 3 − x 4 x 3 et x 4 libres Ensemble des solutions : ⎩ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎨ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎧ x ⎝ ⎜ ⎜ ⎜ ⎛ x 1 x 2 x 3 x 4 ⎠ ⎟ ⎟ ⎟ ⎞ = p ⎝ ⎜ ⎜ ⎜ ⎛ − 1 6 0 0 ⎠ ⎟ ⎟ ⎟ ⎞ + λ v , sol. du probl e ˋ me homog e ˋ ne ⎝ ⎜ ⎜ ⎜ ⎛ 1 − 2 1 0 ⎠ ⎟ ⎟ ⎟ ⎞ v 1 + μ ⎝ ⎜ ⎜ ⎜ ⎛ 0 − 1 0 1 ⎠ ⎟ ⎟ ⎟ ⎞ v 2 ⎭ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎬ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎫
Géométriquement : l'ensemble des solution de l'équation "A x ⃗ = b ⃗ A\vec{x} = \vec{b} A x = b " est un "plan" de R 4 \R^4 R 4 :
Image a ˋ mettre \color{red}\text{Image à mettre} Image a ˋ mettre
Motivation : considérons toutes les combinaisons linéaires de deux vecteurs v ⃗ 1 , v ⃗ 2 \vec{v}_1,\vec{v}_2 v 1 , v 2 du plan
w ⃗ = α 1 v ⃗ 1 + α 2 v ⃗ 2 \vec{w} = \alpha_1\vec{v}_1+\alpha_2\vec{v}_2 w = α 1 v 1 + α 2 v 2
But : essayons de trouver α 1 , α 2 \alpha_1,\alpha_2 α 1 , α 2 tels que w ⃗ = 0 ⃗ . \vec{w} = \vec{0}. w = 0 .
Si v ⃗ 1 \vec{v}_1 v 1 et v ⃗ 2 \vec{v}_2 v 2 sont colinéaires, il existe une infinité de possibilités pour ( α 1 , α 2 ) . (\alpha_1,\alpha_2). ( α 1 , α 2 ) . Par exemple, si v ⃗ 2 = λ v ⃗ 1 \vec{v}_2 = \lambda\vec{v}_1 v 2 = λ v 1 , pour avoir
w ⃗ = α 1 v ⃗ 1 + α 2 λ v ⃗ 1 = 0 ⃗ → ( α 1 + α 2 λ ) v ⃗ 1 = 0 ⃗ → Il suffit de choisir α 1 (infinit e ˊ de choix) puis prendre α 2 = − α 1 λ pour avoir w ⃗ = 0 ⃗ . \begin{array}{rl} \vec{w} &= \alpha_1\vec{v}_1 + \alpha_2\lambda\vec{v}_1 = \vec{0}\\ &\rightarrow (\alpha_1+\alpha_2\lambda)\vec{v}_1 =\vec{0}\\ &\rightarrow \text{Il suffit de choisir }\alpha_1 \text{(infinité de choix)}\\ &\quad\text{ puis prendre }\alpha_2 = -\frac{\alpha_1}{\lambda} \text{pour avoir }\vec{w} = \vec{0}. \end{array} w = α 1 v 1 + α 2 λ v 1 = 0 → ( α 1 + α 2 λ ) v 1 = 0 → Il suffit de choisir α 1 (infinit e ˊ de choix) puis prendre α 2 = − λ α 1 pour avoir w = 0 .
Si v ⃗ 1 \vec{v}_1 v 1 et v ⃗ 2 \vec{v}_2 v 2 ne sont pas coliénaires, la seule possibilité, pour avoir w ⃗ = 0 ⃗ \vec{w} = \vec{0} w = 0 , est de prendre
α 1 = 0 , α 2 = 0. \alpha_1 = 0 , \alpha_2 = 0. α 1 = 0 , α 2 = 0 .
Conclusion : deux vecteurs v ⃗ 1 , v ⃗ 2 \vec{v}_1, \vec{v}_2 v 1 , v 2 de R n \R^n R n sont non-colinéaires ()"non-parallèles") si et seulement si l'unique façaon d'annuler α 1 v ⃗ 1 + α 2 v ⃗ 2 = 0 ⃗ \alpha_1\vec{v}_1 + \alpha_2\vec{v}_2 = \vec{0} α 1 v 1 + α 2 v 2 = 0 est de prendre α 1 = α 2 = 0. \alpha_1 = \alpha_2 = 0. α 1 = α 2 = 0 .
Une famille de vecteurs de R n , v ⃗ 1 , v ⃗ 2 , … , v ⃗ p \R^n, \vec{v}_1,\vec{v}_2,\ldots,\vec{v}_p R n , v 1 , v 2 , … , v p est dire
libre (ou linéairement indépendante ) si l'unique combinaison liéaire nulle :
α 1 v ⃗ 1 + α 2 v ⃗ 2 … + α p v ⃗ p = 0 ⃗ \alpha_1\vec{v}_1 + \alpha_2\vec{v}_2 \ldots + \alpha_p\vec{v}_p = \vec{0} α 1 v 1 + α 2 v 2 … + α p v p = 0
est celle pour laquelle α 1 = α 2 = … = α p = 0 \alpha_1 = \alpha_2 = \ldots = \alpha_p = 0 α 1 = α 2 = … = α p = 0
liée (ou linéairement dépendante ) s'il existe des scalaires α 1 , α 2 , … , α p \alpha_1, \alpha_2, \ldots, \alpha_p α 1 , α 2 , … , α p , pas tous nuls, tels que
α 1 v ⃗ 1 + α 2 v ⃗ 2 + … + α p v ⃗ p = 0 ⃗ \alpha_1\vec{v}_1 + \alpha_2\vec{v}_2 + \ldots + \alpha_p\vec{v}_p =\vec{0} α 1 v 1 + α 2 v 2 + … + α p v p = 0
Dans R 3 \R^3 R 3 : (GGB) = GeoGebra ? \color{red}\text{(GGB) = GeoGebra ?} (GGB) = GeoGebra ?
Si v ⃗ 1 , v ⃗ 2 , v ⃗ 3 \vec{v}_1,\vec{v}_2, \vec{v}_3 v 1 , v 2 , v 3 sont coplanaires , ils définissent une famille liée .Image a ˋ mettre \color{red}\text{Image à mettre} Image a ˋ mettre
Si v ⃗ 1 , v ⃗ 2 , v ⃗ 3 \vec{v}_1,\vec{v}_2, \vec{v}_3 v 1 , v 2 , v 3 sont pas coplanaires , ils forment une famille libre .Image a ˋ mettre \color{red}\text{Image à mettre} Image a ˋ mettre
Une famille { v ⃗ 1 ⋯ v ⃗ p } \{\vec{v}_1\cdots\vec{v}_p\} { v 1 ⋯ v p } est liée ⟺ \iff ⟺ un des vecteurs v ⃗ k \vec{v}_k v k peut s'écrire comme combinaison linéaire des autres.
⟹ \implies ⟹ : est liée, ∃ α 1 ⋯ α p \exists \alpha_1\cdots\alpha_p ∃ α 1 ⋯ α p , pas toutes nulles, telles que
α 1 v ⃗ 1 + … + α p p ⃗ p = 0 ⃗ . ( ∗ ) \alpha_1\vec{v}_1 + \ldots + \alpha_p\vec{p}_p =\vec{0}. \qquad(*) α 1 v 1 + … + α p p p = 0 . ( ∗ )
Supposons que c'est α k : α k ≠ 0 \alpha_k : \alpha_k \not = 0 α k : α k = 0 . Alors ( ∗ ) (*) ( ∗ ) peut se récrire :
v ⃗ k = − α 1 α k v ⃗ 1 − α 2 α k v ⃗ 2 − … − α k − 1 α k v ⃗ k − 1 − α k + 1 α k v ⃗ k + 1 − … − α p α k v ⃗ p \vec{v}_k = -\frac{\alpha_1}{\alpha_k}\vec{v}_1-\frac{\alpha_2}{\alpha_k} \vec{v}_2 -\ldots-\frac{\alpha_{k-1}}{\alpha_k}\vec{v}_{k-1}- \frac{\alpha_{k+1}}{\alpha_k}\vec{v}_{k+1}-\ldots-\frac{\alpha_p}{\alpha_k} \vec{v}_p v k = − α k α 1 v 1 − α k α 2 v 2 − … − α k α k − 1 v k − 1 − α k α k + 1 v k + 1 − … − α k α p v p
Donc v ⃗ k \vec{v}_k v k est combinaison liéaire des autres.
⟸ \impliedby ⟸ : Supposons que
v ⃗ k = μ 1 v ⃗ 1 + … + μ k − 1 v ⃗ k + 1 + μ k + 1 v ⃗ k − 1 + … + μ p v ⃗ p . \vec{v}_k = \mu_1\vec{v}_1 + \ldots + \mu_{k-1}\vec{v}_{k+1} +\mu_{k+1}\vec{v}_{k-1}+\ldots+\mu_p\vec{v}_p. v k = μ 1 v 1 + … + μ k − 1 v k + 1 + μ k + 1 v k − 1 + … + μ p v p .
Alors
μ 1 v ⃗ 1 + … + μ k − 1 v ⃗ k − 1 − v ⃗ k + μ k + 1 v ⃗ k + 1 + … + μ p v ⃗ p = 0 ⃗ ↓ μ k ≔ − 1 ≠ 0 Donc { v ⃗ 1 , … , v ⃗ p } est li e ˊ e. □ \begin{aligned} \mu_1\vec{v}_1 + \ldots + \mu_{k-1}\vec{v}_{k-1} &-\vec{v}_k +\mu_{k+1}\vec{v}_{k+1}+\ldots+\mu_p\vec{v}_p = \vec{0}&\\ &\downarrow&\\ &\mu_k\coloneqq-1\not=0\\ \text{Donc $\{\vec{v}_1,\ldots,\vec{v}_p\}$ est liée.} \\ & &\square \end{aligned} μ 1 v 1 + … + μ k − 1 v k − 1 Donc { v 1 , … , v p } est li e ˊ e. − v k + μ k + 1 v k + 1 + … + μ p v p = 0 ↓ μ k : = − 1 = 0 □
{ ( 1 0 − 1 ) , ( 2 − 3 1 ) , ( 0 − 3 3 ) } libre ou li e ˊ e? \begin{Bmatrix} \begin{pmatrix}1\\0\\-1\end{pmatrix}, \begin{pmatrix}2\\-3\\1\end{pmatrix}, \begin{pmatrix}0\\-3\\3\end{pmatrix} \end{Bmatrix} \text{libre ou liée?} ⎩ ⎪ ⎨ ⎪ ⎧ ⎝ ⎜ ⎛ 1 0 − 1 ⎠ ⎟ ⎞ , ⎝ ⎜ ⎛ 2 − 3 1 ⎠ ⎟ ⎞ , ⎝ ⎜ ⎛ 0 − 3 3 ⎠ ⎟ ⎞ ⎭ ⎪ ⎬ ⎪ ⎫ libre ou li e ˊ e?
Comme 2 v ⃗ 1 − v ⃗ 2 + v ⃗ 3 2\vec{v}_1-\vec{v}_2+\vec{v}_3 2 v 1 − v 2 + v 3 , elle est liée.
Image a ˋ mettre \color{red}\text{Image à mettre} Image a ˋ mettre
{ ( 0 1 5 ) ⏞ v ⃗ 1 , ( 1 2 8 ) ⏞ v ⃗ 2 , ( 4 − 1 0 ) ⏞ v ⃗ 3 } libre ou li e ˊ e? \begin{Bmatrix} \overbrace{\begin{pmatrix}0\\1\\5\end{pmatrix}}^{\vec{v}_1}, \overbrace{\begin{pmatrix}1\\2\\8\end{pmatrix}}^{\vec{v}_2}, \overbrace{\begin{pmatrix}4\\-1\\0\end{pmatrix}}^{\vec{v}_3} \end{Bmatrix} \text{libre ou liée?} ⎩ ⎪ ⎪ ⎪ ⎨ ⎪ ⎪ ⎪ ⎧ ⎝ ⎜ ⎛ 0 1 5 ⎠ ⎟ ⎞ v 1 , ⎝ ⎜ ⎛ 1 2 8 ⎠ ⎟ ⎞ v 2 , ⎝ ⎜ ⎛ 4 − 1 0 ⎠ ⎟ ⎞ v 3 ⎭ ⎪ ⎪ ⎪ ⎬ ⎪ ⎪ ⎪ ⎫ libre ou li e ˊ e?
Par le calcul, on cherche α 1 , α 2 , α 3 \alpha_1,\alpha_2,\alpha_3 α 1 , α 2 , α 3 tels que
α 1 v ⃗ 1 + α 2 v ⃗ 2 + α 3 v ⃗ 3 = 0 ⃗ ← e ˊ quation vectorielle ↓ correspond a ˋ un syst e ˋ me homog e ˋ ne [ v ⃗ 1 v ⃗ 2 v ⃗ 3 ] ( α 1 α 2 α 3 ) = ( 0 0 0 ) ↓ r e ˊ duction ( 1 2 − 1 0 0 1 4 0 0 0 13 0 ) → α 1 = 0 α 2 = 0 α 3 = 0 → La famille est libre. \begin{aligned} &\begin{aligned} \alpha_1\vec{v}_1+&\alpha_2\vec{v}_2+\alpha_3\vec{v}_3= \vec{0}\leftarrow\text{équation vectorielle}\\ &\downarrow\text{correspond à un système \textbf{homogène}}\\ [\vec{v}_1\,&\vec{v}_2\,\vec{v}_3]\begin{pmatrix}\alpha_1\\ \alpha_2\\ \alpha_3\end{pmatrix} = \begin{pmatrix}0\\0\\0\\ \end{pmatrix}\\ &\downarrow \text{réduction}\\ \end{aligned}\\ &\left(\begin{array}{ccc:c} 1 & 2 & -1 & 0 \\ 0 & 1 & 4 & 0 \\ 0 & 0 & 13 & 0 \end{array}\right)\rightarrow \begin{array}{l} \alpha_1 = 0\\ \alpha_2 = 0 \\ \alpha_3 = 0 \end{array}\rightarrow \text{La famille est libre.} \end{aligned} α 1 v 1 + [ v 1 α 2 v 2 + α 3 v 3 = 0 ← e ˊ quation vectorielle ↓ correspond a ˋ un syst e ˋ me homog e ˋ ne v 2 v 3 ] ⎝ ⎜ ⎛ α 1 α 2 α 3 ⎠ ⎟ ⎞ = ⎝ ⎜ ⎛ 0 0 0 ⎠ ⎟ ⎞ ↓ r e ˊ duction ⎝ ⎜ ⎛ 1 0 0 2 1 0 − 1 4 1 3 0 0 0 ⎠ ⎟ ⎞ → α 1 = 0 α 2 = 0 α 3 = 0 → La famille est libre.
Remarques :
Généralment : une famille { v ⃗ 1 , … , v ⃗ p } \{\vec{v}_1,\ldots,\vec{v}_p\} { v 1 , … , v p } de vecteurs ( v ⃗ i ∈ R 4 ) (\vec{v}_i\in\R^4) ( v i ∈ R 4 ) est li e ˊ e \color{blue}\text{liée} li e ˊ e / / / libre \color{red}\text{libre} libre .
⇕ \qquad\Updownarrow ⇕
Le système homogène A x ⃗ = 0 ⃗ A\vec{x}= \vec{0} A x = 0 , où A = [ v ⃗ 1 ⋯ v ⃗ p ] A = [\vec{v}_1\cdots\vec{v}_p] A = [ v 1 ⋯ v p ] , possèdedes solutions non triviales \color{blue}\text{des solutions non triviales} des solutions non triviales / / / seulement la solution triviale \color{red}\text{seulement la solution triviale} seulement la solution triviale
Une famille contenant le vecteur nul ( 0 ⃗ ) (\vec{0}) ( 0 ) est toujours liée.
(En effet, si v ⃗ k = 0 ⃗ \vec{v}_k = \vec{0} v k = 0 , alors
0 v ⃗ 1 + … + 0 v k − 1 ⃗ + 1 v ⃗ k + ⋯ + v ⃗ p ⏟ comb. lin. dont les coeff. ne sont pas tous nuls ! = 0 ⃗ \underbrace{0\vec{v}_1 + \ldots+0\vec{v_{k-1}}+1\vec{v}_k+\dots+\vec{v}_p}_{\text{comb. lin. dont les coeff. ne sont pas tous nuls !}} = \vec{0} comb. lin. dont les coeff. ne sont pas tous nuls ! 0 v 1 + … + 0 v k − 1 + 1 v k + ⋯ + v p = 0
⟹ v ⃗ 1 ⋯ v ⃗ p \implies {\vec{v}_1\cdots\vec{v}_p} ⟹ v 1 ⋯ v p est liée.)
Donc une "famille libre" ne contient jamias le 0 ⃗ \vec{0} 0 !
Rappel : Deux vecteurs v ⃗ 1 , v ⃗ 2 ∈ R 2 \vec{v}_1,\vec{v}_2\in\R^2 v 1 , v 2 ∈ R 2 non-colinéaires engendrent tout R 2 \R^2 R 2 .
(GGB) = GeoGebra ? \color{red}\text{(GGB) = GeoGebra ?} (GGB) = GeoGebra ? Dans le plan, si v ⃗ 1 , v ⃗ 2 , v ⃗ 3 \vec{v}_1,\vec{v}_2,\vec{v}_3 v 1 , v 2 , v 3 sont quelconques, on peut toujours trouver une combinaison linéaire
α 1 v ⃗ 1 + α 2 v ⃗ 2 + α 3 v ⃗ 3 = 0 ⃗ , \alpha_1\vec{v}_1+\alpha_2\vec{v}_2+\alpha_3\vec{v}_3 = \vec{0}, α 1 v 1 + α 2 v 2 + α 3 v 3 = 0 ,
dont les coefficient α i \alpha_i α i ne sont pas tous nuls.
"Dans un espace de dimension n = 2 n=2 n = 2 , une famille de p = 3 p=3 p = 3 vecteurs est forcément liée."
Soit { v ⃗ 1 , … , v ⃗ p } \{\vec{v}_1,\ldots,\vec{v}_p\} { v 1 , … , v p } une famille de p p p vecteurs de R n \R^n R n . Si p > n p>n p > n , alors cette famille est liée.
Supposons que p > n p>n p > n . Considérons l'équatoin vectorielle
α 1 v ⃗ 1 + … + α p v ⃗ p = 0 ⃗ ( ∗ ) ↓ syst e ˋ me r e ˊ duit ( 1 0 1 0 1 ⋅ ∗ 0 1 0 1 0 0 ⋱ ⋮ 1 ⋯ 0 ) \alpha_1\vec{v}_1+\ldots+\alpha_p\vec{v}_p = \vec{0} \qquad(*)\\ \text{} \\ \downarrow\text{système réduit}\\ \text{} \\ \newcommand\x{\times} \left( \begin{array}{ccccccccc|c} \color{blue}1& & & & & & & & &0\\ & \color{blue}1 & & & & & & & &0\\ & & \color{blue}1 & \cdot& & & &\huge* & &0\\ & & & & \color{blue}1 & & & & &0\\ & & & & & \color{blue}1 & & & &0\\ & &\text{\huge0} & & & & \ddots & & &\vdots\\ & & & & & & & \color{blue}1& \cdots &0\\ \end{array}\right) α 1 v 1 + … + α p v p = 0 ( ∗ ) ↓ syst e ˋ me r e ˊ duit ⎝ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎛ 1 1 1 0 ⋅ 1 1 ⋱ ∗ 1 ⋯ 0 0 0 0 0 ⋮ 0 ⎠ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎞
Comme p > n p>n p > n , il existe au moins une colonne sans pivot, et donc au moins une variable libre. AInsi, il y a une infinité de solutions distinctes, donc il existe des solutions de ( ∗ ) (*) ( ∗ ) avec au moins un des α i \alpha_i α i non nuls. □ \qquad\square □
Remarque : si p ⩽ n p\leqslant n p ⩽ n , on ne sait pas ! (Dépend des cas.)
Par exemple avec $ n = 3, p= 2, $
{ ( 1 0 0 ) , ( 2 0 0 ) } est li e ˊ e, { ( 1 0 0 ) , ( 1 2 3 ) } est libre. \begin{Bmatrix} \begin{pmatrix}1\\0\\0\end{pmatrix}, \begin{pmatrix}2\\0\\0\end{pmatrix} \end{Bmatrix} \text{est liée,}\\ \text{} \\ \begin{Bmatrix} \begin{pmatrix}1\\0\\0\end{pmatrix}, \begin{pmatrix}1\\2\\3\end{pmatrix} \end{Bmatrix}\text{est libre.} ⎩ ⎪ ⎨ ⎪ ⎧ ⎝ ⎜ ⎛ 1 0 0 ⎠ ⎟ ⎞ , ⎝ ⎜ ⎛ 2 0 0 ⎠ ⎟ ⎞ ⎭ ⎪ ⎬ ⎪ ⎫ est li e ˊ e, ⎩ ⎪ ⎨ ⎪ ⎧ ⎝ ⎜ ⎛ 1 0 0 ⎠ ⎟ ⎞ , ⎝ ⎜ ⎛ 1 2 3 ⎠ ⎟ ⎞ ⎭ ⎪ ⎬ ⎪ ⎫ est libre.
Dans R n \R^n R n , une famille de n n n vecteurs { v ⃗ 1 , … , v ⃗ n } \{\vec{v}_1,\ldots,\vec{v}_n\} { v 1 , … , v n } libre engendre tout R n \R^n R n .
+ tard \color{red}\text{+ tard} + tard